Nirmala Sitaraman Deepfake: सायबर फसवणुकीचे प्रकार दिवसेंदिवस अधिक धोकादायक होत चालले आहेत. आता फसवणूक करणारे लोक कृत्रिम बुद्धिमत्ता म्हणजेच एआय आणि डीपफेकसारख्या आधुनिक तंत्रज्ञानाचा वापर करून नागरिकांना जाळ्यात अडकवत आहेत. कर्नाटकमधील बेळगाव येथे असाच एक धक्कादायक प्रकार समोर आला आहे. वित्तमंत्री निर्मला सीतारामन यांच्या नावाचा आणि चेहऱ्याचा वापर करून एका ७६ वर्षीय वृद्धाची तब्बल ७.९ लाख रुपयांची फसवणूक करण्यात आली. प्रकाश गुब्बी असे या वृद्ध व्यक्तीचे नाव आहे. त्यांनी यूट्यूबवर एक व्हिडिओ पाहिला होता. त्या व्हिडिओमध्ये निर्मला सीतारामन एका गुंतवणूक योजनेचं प्रमोशन करताना दिसत होत्या. हा व्हिडिओ पूर्णपणे बनावट होता. डीपफेक तंत्रज्ञानाच्या मदतीने तो तयार करण्यात आला होता. व्हिडिओच्या खाली गुंतवणुकीसाठी एक लिंक देण्यात आली होती. प्रकाश गुब्बी यांनी त्या लिंकवर क्लिक करून आपली वैयक्तिक माहिती भरली. काही वेळातच ‘आदर्श आनंद’ नावाच्या व्यक्तीने त्यांच्याशी संपर्क साधला. त्याने मोठ्या नफ्याचं आमिष दाखवत गुंतवणूक करण्यासाठी त्यांना तयार केलं. (Nirmala Sitaraman Deepfake) सुरुवातीला वृद्धांनी थोडी रक्कम गुंतवली. त्यानंतर एका बनावट अॅपमध्ये त्यांना ६५ हजार डॉलर्सचा प्रचंड नफा झाल्याचं दाखवण्यात आलं. त्यामुळे त्यांचा विश्वास अधिकच वाढला. पण जेव्हा त्यांनी ही रक्कम काढण्याचा प्रयत्न केला, तेव्हा फसवणूक करणाऱ्यांनी कस्टम ड्युटीच्या नावाखाली ४.२ लाख रुपये मागितले. पैसे भरल्याशिवाय रक्कम खात्यात येणार नाही, असं सांगण्यात आलं. (Nirmala Sitaraman Deepfake) Nirmala Sitaraman Deepfake: निर्मला सीतारामन यांच्या बनावट व्हिडिओने वृद्धाची लाखोंची फसवणूक; डीपफेक तंत्रज्ञानाचा धक्कादायक गैरवापर वृद्धांनी ती रक्कमही भरली. त्यानंतर आणखी २ लाख रुपयांची मागणी करण्यात आली. तेव्हा मात्र त्यांना आपली फसवणूक झाल्याचं लक्षात आलं. या संपूर्ण प्रकारात त्यांनी जवळपास ७.९ लाख रुपये गमावले. (Nirmala Sitaraman Deepfake) या प्रकरणी १ मे रोजी सायबर क्राइम पोलिस ठाण्यात माहिती तंत्रज्ञान कायद्यानुसार गुन्हा दाखल करण्यात आला आहे. पोलिस या प्रकरणाचा तपास करत आहेत. बेळगावचे पोलिस आयुक्त भूषण गुलाबराव बोरसे यांनी नागरिकांना सावध राहण्याचं आवाहन केलं आहे. इंटरनेटवर दिसणाऱ्या प्रत्येक व्हिडिओवर विश्वास ठेवू नका, असं त्यांनी स्पष्ट सांगितलं. डीपफेक ही अशी तंत्रज्ञान पद्धत आहे ज्यात एखाद्या व्यक्तीचा चेहरा आणि आवाज अगदी हुबेहुब कॉपी करून बनावट व्हिडिओ तयार केला जातो. त्यामुळे एखादी व्यक्ती प्रत्यक्षात कधीच न बोललेली गोष्ट बोलताना दिसू शकते. सध्या या तंत्रज्ञानाचा वापर चुकीच्या माहितीचा प्रसार आणि आर्थिक फसवणुकीसाठी वाढत असल्याने चिंता व्यक्त केली जात आहे. तज्ज्ञांच्या मते, इंटरनेटवर अतिशय आकर्षक आणि जास्त नफ्याचं आश्वासन देणाऱ्या योजनांपासून दूर राहणं गरजेचं आहे. कोणतीही गुंतवणूक करण्यापूर्वी संबंधित संस्था अधिकृत आणि विश्वासार्ह आहे का, याची खात्री करावी. (Nirmala Sitaraman Deepfake)