…आणि यंत्रे बोलू लागली ! (प्रभात ब्लॉग)

”कृत्रिम बुद्धिमत्ता (Artificial Intelligence) ही सगळ्यात मोठी जोखीम असून त्यापासून संपूर्ण मानवजातीच्या अस्तित्वालाच धोका आहे. मी हा धोका वारंवार दाखवत आहे” ‘टेस्ला मोटर्स’चा मुख्य कार्यकारी अधिकारी ईलन मस्क अमेरिकेच्या राष्ट्रीय राज्यपाल (Governor) संघटनेच्या कार्यक्रमात बोलत होता. त्याला पार्श्‍वभूमी होती फेसबुकच्या कृत्रिम बुद्धिमत्ता क्षेत्रात चालू असलेल्या संशोधन कार्यक्रमाची! फेअर (FAIR- Facebook Artificial Intelligence Research Lab) ह्या फेसबुकच्या कृत्रिम बुद्धिमत्ता क्षेत्रात संशोधन करणाऱ्या विभागाची फेसबुक या सोशल नेटवर्किंग साईटसाठी नवीन काहीतरी देता येईल का याची चाचपणी करणे चालू होते. या गटाने चॅट बॉट्स (chat bots) संशोधित केले होते. साध्या सोप्या भाषेत सांगायच तर दोन मशिन्स बनवल्या ज्या माणसाला समजेल अशा इंग्रजी भाषेत संवाद साधू शकतील. हे साधण्यासाठी या मशीनमध्ये संगणक आज्ञावल्या (Computer Program) आधीच पुरविण्यात आल्या होत्या. ईलन मस्क मात्र हे पहिल्यांदाच बोलत होता असे नाही आणि तो एकटाच हा धोका बोलून दाखवत होता असेही नाही. प्रसिद्ध शास्त्रज्ञ स्टीफन हॉकिंग्ज हे देखील हा धोका दाखवताना म्हणत होते “मानवी मेंदू जीवशास्त्रदृष्ट्या पुढे जात असले, प्रगती करत असले तरी भविष्यात तो मशिनच्या कृत्रिम बुद्धिमत्तेच्या तुलनेत मागे पडेल. बिल गेटस्‌ पण कृत्रिम बुद्धिमत्तेवर जाहीर चिंता व्यक्‍त करत होते.

पण फेसबुकचा संस्थापक मार्क झुकरबर्ग याला मात्र ईलन मस्कची मते पटत नव्हती. त्याने मस्कची खिल्ली उडवत माध्यमांना सांगितले ”काही लोकांना प्रत्येक गोष्टीला विरोध करण्याची सवय असते. असे ना-ना करणारे लोक (Naysayers) चांगल्या गोष्टींविषयी अपप्रचार का करतात मला कळत नाही. न जाणे कोणत्या वायफळ भीतीपायी असे गैरजबाबदार विधाने लोक करतात आणि गैरसमज पसरवतात.” अर्थात इलन मस्क आणि झुकरबर्गमध्ये हे वाग्‌युद्ध कृत्रिम बुद्धिमत्तेच्या निमित्ताने चालू आहे. ईलन मस्कने हे ऐकल्यावर “मी झुकरबर्गशी बोललो आणि त्याची कृत्रिम बुद्धिमत्तेविषयी ज्ञान मर्यादित आहे’ असे ट्‌वीट केले. हे वाग्‌युद्ध शिगेला असतानाच “फेअरमध्ये एक अशी घटना घडली की, फेसबुकला आपला कृत्रिम बुद्धिमत्ता (AI) संदर्भात सुरु असलेला कार्यक्रम बंद करावा लागला. हो चॅट बोटस्‌ निर्मितीचा कार्यक्रम बंद करावा लागला!

त्याच असं झालं की, ‘फेअर’चे संशोधक चॅट- बॉटस्‌ (Chat bots) म्हणजे माणसाला समजले अशा भाषेत संवाद साधण्यासाठी तयार केलेल्या यंत्रामध्ये सुधारणा घडवण्यासाठी व्यस्त असताना त्यांना लक्षात आले की, ही यंत्रे (ज्यांना संवाद वाहक dialogue Agents म्हणतात) आपली स्वत:ची भाषा तयार करत आहेत आणि ती भाषा वापरत एकमेकांशी संवाद साधत आहेत. हे मूळ उद्देशालाच हरताळ फासल्यासारखे होते. त्यातील विशेष आश्‍चर्याची गोष्ट म्हणजे ही भाषा ह्या यंत्रांनी कुठल्याही मनुष्य मदतीशिवाय तयार केली होती. फक्‍त इंग्रजीमधेच संवाद साधायचा असे संगणक आज्ञावलीद्वारे स्पष्ट आदेश असूनही ही मानवनिर्मित यंत्रे स्वतंत्र भाषा तयार करत होत्या. जी त्यांच्या निर्मात्यांनाच कळत नव्हती ! हाच धोका ईलन वारंवार बोलून दाखवत होता. ‘कृत्रिम बुद्धिमत्ता क्षेत्रात पुढे जात असताना त्यावर नियंत्रण (Regulation) करणारी व्यवस्था निर्माण करणे गरजेचे आहे. असे त्याचे म्हणणे किती रास्त होते असे या घटनेनंतर लक्षात येते. उद्या गुगल चालक विरहित गाडीने अपघात केला तर दोषी कोणाला धरणार ? गुगलला, गाडीच्या मालकाला की जो गाडी चालवतच नव्हता ?

टर्मिनेटर, ट्रान्सफॉर्मर्स किंवा बॉलीवूडमधील रजनीकांतचा ‘रोबोट’ह्या चित्रपटातील काल्पनिक घटना भविष्यात खऱ्या होतील की काय अशी भीती वाटेल हे दर्शवणारी ही घटना एक नांदी असू शकते. गमतीशीर विरोधाभास हा की नव्वदीच्या आधी जेव्हा संवादाची साधने केवळ पत्र, तार यापुरती मर्यादित होती. तेव्हा आस्थेने, गरजेपोटी का होईना संवाद साधले जात होते आणि नातेसंबंधाची मैत्रीची वीण पक्की होत होती. आज मात्र नेमकी उलटी परिस्थिती आहे. संवादासाठी ढीगभर साधने उपलब्ध असताना माणसांमधील संवाद हळूहळू कमी होत चालला आहे. त्याच्या एकदम विपरित-मानवनिर्मित यंत्रांना एकमेकांशी संवाद साधावासा वाटतो आणि त्यासाठी ती स्वत:ची भाषाही बनवू इच्छितात. जी कोणालाही कळणार नाही. ही भाषा कळली नाही तरी चालेल पण ह्या घटना माणसाला काय संकेत देतात, ईलन मस्क काय कळकळीने सांगू पाहतो एवढं कळलं तरी पुष्कळ आहे.

– भालचंद्र नागेश देशमुख 

(लेखक आय टी क्षेत्राशी सबंधित असून या विषयावरील लेखन करीत असतात)
( डिस्क्‍लेमर – लेखात व्यक्त झालेली मते ही लेखकाची स्वतःची असून त्याच्याशी दैनिक प्रभात सहमत असेलच असे नाही.)

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Enable Google Transliteration.(To type in English, press Ctrl+g)