नवी दिल्ली- डीपफेक हे एक असे तंत्रज्ञान आहे की ज्याच्या माध्यमातून कोणाचाही फोटो अथवा व्हिडिओमध्ये थोडा बदल करून त्याला हुबेहुब अन्य कोणासारखे बोलताना दाखवले जाऊ शकते. ही सरमिसळ इतकी बेमालूम केली असते की ते अगदी खरेच वाटते. डीपफेकच्या याच तंत्राचे यंदाच्या लोकसभा निवडणुकीवर मोठे सावट आहे.
आता जे राजकीय नेते या जगातच नाहीत त्यांचेही व्हिडिओ तयार केले जात आहेत व त्यांचा वापर केला जातो आहे. अलिकडेच द्रमुकचे दिग्गज नेते दिवंगत करूणानिधी यांचा एक व्हिडिओ दाखवण्यात आला. त्यात करूणानिधी यांच्या लकबींची पुरेपूर कॉपी करण्यात आली होती.
त्यांच्यासारखाच काळा चष्मा, पांढरा शर्ट आणि गळ्यात पिवळी शॉल दिसते आहे. करूणानिधींचे तब्बल ८ मिनिटांचे भाषणही व्हिडिओत आहे. तामिळनाडूचे मुख्यमंत्री स्टॅलीन यांच्या सक्षम नेतृत्वाची प्रशंसा करण्यासाठी व्हिडिओचा वापर करण्यात आला आहे. २०१८ मध्येच करूणानिधी यांचे निधन झाले आहे.
राजकीय पक्षांना मिळालेले नवे शस्त्र
रॅली, प्रचारसभा या पारंपरिक मार्गाने जाणाऱ्या राजकीय पक्षांना आता नवे शस्त्र मिळाले आहे. आर्टिफिशियल इंटेलिजन्स अर्थात कृत्रीम बुध्दिमत्ता अर्थात एआय. पक्ष एआयच्या मदतीने बनवण्यात आलेले फोटो आणि व्हिडिओ सोशल मीडियावर शेअर करत आहेत.
आपल्या उमेदवारांचा प्रचार करणे, त्यांची प्रशंसा करणे, विरोधकांची थट्टा करणे आणि आपला संदेश थेट मतदारांपर्यंत पोहोचवण्यासाठी याचा उपयोग केला जातो आहे. भारतीय जनता पार्टी, कॉंग्रेससह सगळ्याच राजकीय पक्षांनी किमान चार वेळा आपल्या अधिकृत सोशल मीडिया अकाउंटवर एआयच्या माध्यमातून तयार करण्यात आलेले फोटो किंवा व्हिडिओ शेअर केले आहेत.
या नव्या प्रकाराला आम भाषेत डीपफेक हे नाव रूढ झाले आहे. एआयमार्फत कोणत्याही नेत्याचा हुबेहुब आवाज काढला जातो. मतदारांना आकर्षित करण्यासाठी त्यामुळे नेत्यांकडून व्हॉईस क्लोनिंग टूलचाही वापर केला जाउ शकतो. निवडणुकीच्या काळात आतापर्यंत रेकॉर्डिंग केलेले नेत्यांच्या आवाजातील मेसेज येत होते. मात्र आता त्यातही बदल झाला आहे. कॉल घेतल्यानंतर सुरूवातीलाच तुमचे नाव घेत तुमच्याशी संभाषण सुरू केले जाउ शकते.
२०१४ पासून याचा वापर केला जातो आहे. त्या निवडणुकीत पंतप्रधान नरेंद्र मोदी यांनी ३ डी होलोग्राम फोटोचा वापर केला होता. या तंत्रज्ञानामुळे असे भासत होते की मोदी एकाच वेळी अनेक ठिकाणी प्रचार करत आहेत. हल्ली मात्र प्रचारासाठी डीपफेकच्या तंत्रज्ञानाचा उपयोग केला जातो आहे. भारतीय जनता पक्षाचेच खासदार मनोज तिवारी यांनी पहिल्यांदा या तंत्राचा वापर केला होता.
दिल्ली विधानसभेच्या निवडणुकीत त्यांनी हिंदी, हरियाणवी आणि इंग्रजी भाषेत संबोधित केले होते. तीन वेगवेगळ्या भाषा जाणणाऱ्या लोकांपर्यंत आपले म्हणणे पोहोचावे यासाठी २०२० मध्ये त्यांनी हा प्रयोग केला होता. त्यांचे खरे भाषण हिंदीत होते.
अन्य दोन व्हिडिओ डीपफेक होते. एआयचा वापर करत त्यांचा आवाज आणि शब्द बदलण्यात आले होते सोबतच त्यांचे हाव-भाव आणि ओठांची गतीही बदलण्यात आली होती. त्यामुळे हे खरे की खोटे कोणी ओळखू शकत नव्हते.
मतदारांचे स्वातंत्र्य?
३० नोव्हेंबर २०२३ रोजी तेलंगणा विधानसभेसाठी मतदान सुूरू होते. मतदार रांगेत उभे असताना त्यांच्या व्हॉटस्अपवर मेसेज आला. भारत राष्ट्र समितीचे तत्कालीन मुख्यमंत्री के. चंद्रशेखर राव यांचे पुत्र के टी रामा राव यांचा हा कथित व्हिडिओ होता.
त्यात ते चक्क दुसऱ्याच पक्षाला मतदान करण्याचे आवाहन करत होते. हा व्हिडिओ डीपफेक होता. एआयचा वापर करून तयार केला गेला होता व खरे भासवण्याचा प्रयत्न होता. मात्र हे तंत्रज्ञान मतदारांना कसे फसवू अथवा प्रभावित करू शकते याचे हे उदाहरण आहे.
निवडणूक आयोगासमोर आव्हान
या तंत्रज्ञानाचा वापर करून तयार करण्यात आलेल्या बोगस बातम्या ओळखणे मोठे कठीण आहे. या आव्हानाचा सामना करण्यासाठी निवडणूक आयोगाकडे पर्याप्त सामग्री नाही. या गोंधळात मतदारांच्या अभिव्यक्ती स्वातंत्र्याचे नुकसान होणार नाही हे निश्चित करण्याची मोठी जबाबदारी आयोगावर असेल.
अर्थात यंदाच्या निवडणुकीत हजारो मतदान केंद्रांवर आयोगाकडून एआय टूलचा वापर केला जाणार आहे. केंद्रावर काही गडबड झाली तर त्याची माहिती ताबडतोब आयोगला मिळू शकेल असे त्यांना वाटते आहे.