डीपफ़ेक और AI का कमाल या हमारी सुरक्षा को खतरा?
हो सकता है यह जानकारी आपको धोखा खाने से बचाये... लुटने से बचाये।
तकनीक जैसे जैसे आधुनिक होती जा रही है... उससे जुड़े खतरे भी बढ़ते जा रहे हैं... इसको 2 सच्चे उदाहरणों से समझते हैं।
1. चीन में पिछले दिनों एक व्यक्ति को 5 करोड़ रूपए का चूना लग गया। हुआ यह था कि उसके पास एक वीडियो कॉल आई... वीडियो कॉल में उसका करीबी दोस्त था, जो काफी परेशानी में दिख रहा था। दोस्त ने स्वयं को बहुत बुरी हालत में दिखाया और आर्थिक मदद मांगी।
चूँकि दोस्त सामने दिख रहा था, बात कर रहा था, इस व्यक्ति का दिल पसीज गया... और फिर इसने अपने कथित दोस्त के दिए गए एकाउंट में पैसे ट्रान्सफर कर दिए।
बाद में पता लगा कि उस दोस्त ने कभी कॉल किया ही नहीं था... और इस व्यक्ति के साथ ठगी हो गई थी।
मामले की जांच पुलिस ने की... बैंक ट्रान्सफर ट्रेस किये गए, अधिकांश पैसा बरामद कर लिया गया है, अपराधी भी जल्दी पकड़ा जायेगा।
2. अमेरिका के एरिज़ोना में एक 15 साल की लड़की स्कीइंग कर गई थी... अचानक से उसकी माँ को एक कॉल आता है। कॉल की शुरुआत उस लड़की के रोने की आवाज़ से होती है... माँ घबरा जाती है और अपनी बेटी से प्रश्न पूछने की कोशिश करती है।
इतने में ही एक पुरुष की आवाज़ आती है... वह कहता है कि उस महिला की बेटी उसके कब्जे में है... और अगर एक मिलियन डॉलर ट्रांसफर नहीं किये तो वह उसकी बेटी को मार देगा। माँ गिड़गिड़ाई... कहा कि इतने पैसे नहीं हैं... अपहरण करने वाला 5 लाख डॉलर पर अड़ जाता है... माँ उससे थोड़ी मोहलत मांगती है... वो आदमी धमकी देता है कि अगर पुलिस को पता चला तो उसकी बेटी को मार देगा।
महिला अपनी एक दोस्त को फोन करती है, और उसे यह सब बताती है... वह दोस्त तुरंत उस ग्रुप को कॉल करती है जो स्कीइंग के लिए गया था, वहाँ पता लगता है कि उस लड़की का अपहरण नहीं हुआ था... वह तो वहाँ घूम रही थी और सुरक्षित थी।
तुरंत 911 पर कॉल किया गया और उन्हें इस बारे में बताया गया, कि उसकी बेटी की आवाज में उन्हें कॉल करके डराया गया और पैसे उगाहने की कोशिश की गई।
इन दोनों मामलों में आप देख सकते हैं कि कैसे एक दोस्त के चेहरे का इस्तेमाल किया गया, वहीं एक लड़की की आवाज़ का इस्तेमाल करके उसकी माँ से पैसे लेने का प्रयास किया गया।
अब आप सोच रहे होंगे कि यह कैसे हुआ होगा... तो इसका एक ही उत्तर है... डीपफ़ेक तकनीक।
डीपफ़ेक एक आर्टिफ़िशियल इंटेलिजेंस का हथियार है... जिसकी मदद से आप किसी की भी शक्ल या बॉडी का इस्तेमाल कर सकते हैं वीडियो बनाने में। आप किसी भी मानव की आवाज को पकड़ करके उस इंसान के जैसी हूबहू आवाज भी बना सकते हैं।
पिछले दिनों कुछ एप्प्स भी आपने देखी होंगी... जो आपकी तस्वीर को किसी एक्टर के शरीर पर लगा सकते हैं... किसी फ़िल्म के वीडियो में आपकी शक्ल को एक्टर के धड़ पर लगाया जा सकता है। खैर वह बचकानी एप्प्स थी।
लेकिन कुछ समय से थोड़ी आधुनिक एप्प्स आने लगी हैं... जो आपको बूढा दिखा सकती हैं... कुछ में आपके पूर्वजो की तस्वीर को रीमास्टर भी किया जा सकता है... छोटे छोटे वीडियो भी बनते हैं... जिनमे आपकी स्थिर तस्वीर का इस्तेमाल कर एक गति वाली वीडियो बनाई जा सकती है... जिसमें आपके हावभाव भी बदल सकते हैं... और जो काफी हद तक वास्तविक भी लगते हैं।
यह सब AI ऍल्गोरिथम की वजह से होता है... इन एप्प्स में डाटा (तस्वीर) को एनकोड डिकोड व संसाधित करने की क्षमता होती है।
अब तो AI की सहायता से डीपफ़ेक इस सबको कई लेवल ऊपर ले जाता है। पोस्ट में दी गई एक तस्वीर को देखिये... जिसमें एक आम इंसान है, और उसके साथ ही एक तस्वीर है हॉलीवुड कलाकार टॉम क्रूज की... डीपफ़ेक का इस्तेमाल करके उस इंसान के चेहरे पर टॉम क्रूज का चेहरा डाल दिया गया है, और अब अगर वह कोई हावभाव भी देगा, तो एकदम वास्तविक टॉम क्रूज जैसा ही लगेगा।
इसमें एक आम इंसान के चेहरे के विभिन्न पॉइंट्स का विश्लेषण किया जाता है, फिर जो चेहरा बनाना है (टॉम क्रूज जैसा) उसके हिसाब से AI ऍल्गोरिथम चेहरे के किनारों को, अन्य हिस्सों को डिकोड एनकोड और संसाधित करती है, और अंततः एकदम टॉम क्रूज जैसा चेहरा बना देती है।
कुछ एप्प्स में फेस फ़िल्टर की सुविधा भी मिलती है, जिसमें आप किसी का चेहरा भी लगा सकते हैं... ऐसा कुछ कॉमेडियन या सोशल मीडिया हस्तियाँ इसका इस्तेमाल करते हैं... लेकिन उसमे पता लग जाता है कि चेहरा नकली है।
लेकिन डीपफ़ेक से आप हूबहू किसी का भी चेहरा बना सकते हैं... और इसमें काम आती है डीप लर्निंग।
यही काम आप किसी के वॉइस सैम्पल्स का उपयोग करके भी कर सकते हैं। मान लीजिये आपने किसी से फ़ोन पर बात की, उसने आपकी बात रिकॉर्ड कर ली... अब वह उस वॉइस सैम्पल को किसी डीपफ़ेक वॉइस जेनेरेटर एप्प में डाल कर आपकी वॉइस का क्लोन बना सकते हैं।
आपकी वॉइस के उतार चढ़ाव, आपके बोलने के तरीके, स्वरमान आदि को AI ऍल्गोरिथम की मदद से सिख के, उसकी क्लोनिंग की जा सकती है।
=========================================================================
Advertisement
जो पहली घटना आपको बताई थी... उसमे अपराधी ने शिकार के दोस्त की तस्वीर या वीडियो का इस्तेमाल करके (जो सोशल मीडिया पर मिल ही जाती हैं... सब ड़ालते ही हैं) अपने चेहरे पर उसका चेहरा डाल दिया... फिर एक वीडियो कॉल मिलाई... बातें की और यह बताया कि वह किसी समस्या में है।
डीपफ़ेक की सहायता से आप किसी से लाइव वीडियो कॉल पर भी बात कर सकते हैं... और सामने वाला आपको हूबहू अपने दोस्त जैसा ही लगेगा।
दूसरी घटना में लड़की की आवाज के सैम्पल्स लिए गए होंगे... सोशल मीडिया से, या फ़ोन रिकॉर्डिंग से, या ऐसे ही कहीं बोलते हुए कैद कर लिए होंगे... और फिर उस आवाज़ के सैम्पल्स को डीपफ़ेक वॉइस जेनेरेटर्स में डाला गया होगा... और फिर उस लड़की की आवाज में चीखने चिल्लाने और मदद माँगने जैसे शब्द बना लिए गए होंगे।
और जब धमकी देने वाले ने कॉल किया होगा, तो उस लड़की की आवाज की रिकॉर्डिंग पार्श्व में चल रही होगी... ताकि उसकी माँ को लगे कि उसकी बेटी वहीं कॉलर के पास ही है, और मदद के लिए चिल्ला रही है... रो रही है।
पहली घटना में तो धोखा हो भी गया, क्यूंकि 5 करोड़ रूपए ट्रांसफर कर दिए गए थे... दूसरी घटना में महिला की दोस्त ने सीधा स्कीइंग करने गई टीम को कॉल करके समझदारी का काम किया, और एक धोखा होने से बचा लिया।
अब समस्या यह है कि जैसे जैसे AI और मशीन लर्निंग उन्नत होती जायेगी, इस तरह की और समस्याएं बढ़ती जाएंगी। कुछ समय पहले तक डीपफ़ेक वीडियोज को पहचानना आसान हुआ करता था।
1. उसमे इंसान की पलकें कम झपकती थी... या असमान पैटर्न हुआ करता था।
2. उसमे चेहरे के किनारे भी असमान या धुंधले हुआ करते थे।
लेकिन अब एप्प डेवेलपर्स ने इन कमियों को भी सुधार दिया है... वैसे भी AI तो हमेशा सीखता ही रहता है... डाटा पैटर्न्स को समझता रहता है... अब एप्प्स में पलकें झपकना भी प्राकृतिक की तरह हो गया है... वहीं किनारे भी अब पहले से बेहतर हो गए हैं... आगे यह और भी परफेक्ट सिस्टम हो जायेगा।
डीपफ़ेक तकनीक का बहुत इस्तेमाल होना शुरू हो गया है, कई देशों में AI टीवी न्यूज प्रस्तुतकर्ता भी शुरू हो गए हैं... जो हूबहू इंसान जैसे लगते हैं, और ख़बर पढते हैं। पिछले ही दिनों इंडिया टुडे ने भी एक AI न्यूज रीडर प्रारम्भ किया था।
लेकिन इस तकनीक के नुकसान भी हैं... दो तो ऊपर ही बताये हैं... इसके अलावा फेक न्यूज फैलाने में इसका इस्तेमाल किया जा सकता है।
डीपफ़ेक की सहायता से चुनावी प्रचार भी प्रभावित किये जा सकते हैं। सोचिये क्या प्रभाव होगा वोटर्स पर अगर उनके नेता का असभ्य वीडियो आ जाए... जो डीपफ़ेक से बना हो... लेकिन एकदम असली हो?
पुतिन के कई फेक वीडिओज़ बनाये जा चुके हैं... ऐसे ही किसी बड़े राजनेता के बनाये जा सकते हैं... जो लोगों को भड़काने या दुष्प्रचार करने के काम भी कर सकते हैं... अब आप सोच लीजिये इसका क्या क्या नुकसान हो सकता है।
ऊपर बताई घटनाओं से कैसे बचें?
पोस्ट में बताई 2 घटनाओं से आप अपने आपको बचा सकते हैं। फिलहाल तो यही कहा जा सकता है कि अगर आपको अनजाने नम्बर या Id से वीडियो कॉल आये, तो उस पर विश्वास ना करें।
किसी को पैसा ट्रांसफर करने से पहले उससे फोन पर बात करे लें... अगर गहरा दोस्त है तो उसके परिवार में से किसी से बात कर के स्थिति की पुष्टि करें।
आप कहीं छुट्टी पर जा रहे हैं... या आपके बच्चे कहीं जा रहे हैं.. तो उस सोशल मीडिया पर ना लिखें। दूसरी घटना में यह बात अपराधी को पता थी... और उसी का लाभ उठाने का प्रयास किया गया।
आपको हाइकिंग, स्कीइंग, ट्रैकिंग की तस्वीर डालनी हैं... वापस लौट कर डाल लें... क्या पता आप ऐसे इलाके में हों जहां आपसे संपर्क ना हो पाए... और कोई अपराधी इस स्थिति का लाभ उठा कर आपके घर वालों से पैसा वसूल ले... क्यूंकि आप से तो संपर्क नहीं हो पायेगा ना... ऐसे में घर वालों को लग सकता है कि आपका अपहरण हो गया हो।
अंत में सबसे महत्वपूर्ण बात... तकनीक कितनी ही आधुनिक हो जाए... वह मानव के मूलभूत स्वभाव और स्थिति जागरूकता का मुकाबला नहीं कर पाएगी। कोई भी धोखा तभी होता है, जब आप अपने मूल स्वभाव से हट कर निर्णय लेते हैं।
आपको पता है कि शॉर्टकट से पैसा नहीं मिलता... लेकिन फिर भी लोग लालच में आ कर लाखों झोंक देते हैं... और कोई उस पैसे को लेकर चंपत हो जाता है... अपनी बुनियादी प्रवृत्ति को बचाये रखें... तभी तकनीकों के दुष्प्रभावो से बच पाएंगे।
No comments:
Post a Comment