शुक्रवार, 17 नवंबर को प्रधान मंत्री नरेंद्र मोदी ने भारत में डीपफेक की बढ़ती समस्या पर प्रकाश डाला। अनजान लोगों के लिए, डीपफेक एक कृत्रिम बुद्धिमत्ता (एआई) तकनीक है जहां फोटो, वीडियो और ऑडियो जैसे मीडिया को नकली होने के बावजूद बेहद वास्तविक दिखाने के लिए अति-यथार्थवादी तरीके से हेरफेर किया जाता है। ताजा मामला एक्ट्रेस रश्मिका मंदाना का था, जो ऐसे ही ताजा भयावह हमले का शिकार हो गईं। पीएम मोदी नई दिल्ली स्थित बीजेपी मुख्यालय में दिवाली मिलन कार्यक्रम में पत्रकारों को संबोधित कर रहे थे.
संबोधन के दौरान, उन्होंने ‘डीपफेक’ बनाने के लिए एआई के दुरुपयोग को चिह्नित किया और कहा कि मीडिया को इस संकट के बारे में लोगों को शिक्षित करना चाहिए। डीपफेक के मुद्दे ने कुछ सेलेब्स को अदालत में कार्रवाई करने के लिए भी मजबूर किया है। इस साल की शुरुआत में, अभिनेता अनिल कपूर ने खुद के अनधिकृत डीपफेक के खिलाफ सफलतापूर्वक मुकदमा लड़ा और हाल ही में, अभिनेत्री रश्मिका मंदाना का एक परेशान करने वाला डीपफेक वीडियो सामने आया, जहां उनका चेहरा किसी अन्य महिला के शरीर से जोड़ा गया था।
डीपफेक की समस्या
कई मायनों में, रश्मिका मंदाना डीपफेक विवाद ने भारत में इस समस्या के इर्द-गिर्द बातचीत शुरू की, जो कभी भी भड़क सकती है। इस घटना में, अभिनेता की छह सेकंड की एक छोटी क्लिप ऑनलाइन साझा की गई थी जिसमें मंदाना को लिफ्ट में प्रवेश करते देखा जा सकता है। यह तेजी से वायरल हो गया. लेकिन बाद में पता चला कि यह वीडियो इंस्टाग्राम इनफ्लुएंसर ज़ारा पटेल का था और इसमें एआई के जरिए मंदाना का चेहरा जोड़ा गया था।
अपनी प्रतिक्रिया में, केंद्रीय मंत्री राजीव चंद्रशेखर ने कहा, “सरकार इंटरनेट का उपयोग करने वाले सभी डिजिटलनागरिकों की सुरक्षा और विश्वास सुनिश्चित करने के लिए प्रतिबद्ध है”। डीपफेक को गलत सूचना का नवीनतम और बेहद खतरनाक और हानिकारक रूप बताते हुए उन्होंने समझाया कि “प्लेटफार्मों द्वारा इससे निपटने की जरूरत है”।
पटेल, वह महिला जिसका वीडियो बुरे अभिनेताओं द्वारा डीपफेक किया गया था, ने अपने इंस्टाग्राम अकाउंट पर कहा और कहा, “जो कुछ हो रहा है उससे मैं बहुत परेशान और निराश हूं। मुझे उन महिलाओं और लड़कियों के भविष्य की चिंता है जिन्हें अब खुद को सोशल मीडिया पर डालने से और भी अधिक डर लगता है। कृपया एक कदम पीछे हटें और इंटरनेट पर आप जो देखते हैं उसकी तथ्य-जांच करें। इंटरनेट पर सब कुछ वास्तविक नहीं है”।
डीपफेक की पहचान कैसे करें
मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी (एमआईटी), जिसका अपना समर्पित एआई और एमएल अनुसंधान विभाग है, ने कुछ उपयोगी युक्तियां प्रकाशित की हैं जिनका उपयोग लोग डीपफेक और वास्तविक वीडियो के बीच अंतर करने के लिए कर सकते हैं। उनमें से कुछ नीचे सूचीबद्ध हैं।
1. चेहरे पर ध्यान दें. हाई-एंड डीपफेक हेरफेर लगभग हमेशा चेहरे का परिवर्तन होता है।
2. पलक झपकाने पर ध्यान दें. क्या व्यक्ति पर्याप्त या बहुत अधिक पलकें झपकता है?
3. होठों की हरकत पर ध्यान दें। कुछ डीपफेक लिप-सिंकिंग पर आधारित होते हैं। क्या होठों की हरकत स्वाभाविक लगती है?
इस तरह की परिष्कृत जोड़तोड़ बनाने के लिए आवश्यक व्यापक प्रशिक्षण डेटा के कारण अधिकांश व्यक्तियों के लिए डीपफेक होने का जोखिम कम है। ऑनलाइन आसानी से उपलब्ध व्यक्तिगत फ़ोटो और वीडियो के विशाल संग्रह के बिना, एआई मॉडल के लिए दोषरहित डीपफेक तैयार करना चुनौतीपूर्ण हो जाता है, खासकर जब पार्श्व चेहरे के दृश्य शामिल होते हैं।