PM Narendra Modi gives AI warning, calls deepfakes “problematic”; know how to spot them and to stay safe

By Saralnama November 17, 2023 5:33 PM IST

शुक्रवार, 17 नवंबर को प्रधान मंत्री नरेंद्र मोदी ने भारत में डीपफेक की बढ़ती समस्या पर प्रकाश डाला। अनजान लोगों के लिए, डीपफेक एक कृत्रिम बुद्धिमत्ता (एआई) तकनीक है जहां फोटो, वीडियो और ऑडियो जैसे मीडिया को नकली होने के बावजूद बेहद वास्तविक दिखाने के लिए अति-यथार्थवादी तरीके से हेरफेर किया जाता है। ताजा मामला एक्ट्रेस रश्मिका मंदाना का था, जो ऐसे ही ताजा भयावह हमले का शिकार हो गईं। पीएम मोदी नई दिल्ली स्थित बीजेपी मुख्यालय में दिवाली मिलन कार्यक्रम में पत्रकारों को संबोधित कर रहे थे.

संबोधन के दौरान, उन्होंने ‘डीपफेक’ बनाने के लिए एआई के दुरुपयोग को चिह्नित किया और कहा कि मीडिया को इस संकट के बारे में लोगों को शिक्षित करना चाहिए। डीपफेक के मुद्दे ने कुछ सेलेब्स को अदालत में कार्रवाई करने के लिए भी मजबूर किया है। इस साल की शुरुआत में, अभिनेता अनिल कपूर ने खुद के अनधिकृत डीपफेक के खिलाफ सफलतापूर्वक मुकदमा लड़ा और हाल ही में, अभिनेत्री रश्मिका मंदाना का एक परेशान करने वाला डीपफेक वीडियो सामने आया, जहां उनका चेहरा किसी अन्य महिला के शरीर से जोड़ा गया था।

डीपफेक की समस्या

कई मायनों में, रश्मिका मंदाना डीपफेक विवाद ने भारत में इस समस्या के इर्द-गिर्द बातचीत शुरू की, जो कभी भी भड़क सकती है। इस घटना में, अभिनेता की छह सेकंड की एक छोटी क्लिप ऑनलाइन साझा की गई थी जिसमें मंदाना को लिफ्ट में प्रवेश करते देखा जा सकता है। यह तेजी से वायरल हो गया. लेकिन बाद में पता चला कि यह वीडियो इंस्टाग्राम इनफ्लुएंसर ज़ारा पटेल का था और इसमें एआई के जरिए मंदाना का चेहरा जोड़ा गया था।

अपनी प्रतिक्रिया में, केंद्रीय मंत्री राजीव चंद्रशेखर ने कहा, “सरकार इंटरनेट का उपयोग करने वाले सभी डिजिटलनागरिकों की सुरक्षा और विश्वास सुनिश्चित करने के लिए प्रतिबद्ध है”। डीपफेक को गलत सूचना का नवीनतम और बेहद खतरनाक और हानिकारक रूप बताते हुए उन्होंने समझाया कि “प्लेटफार्मों द्वारा इससे निपटने की जरूरत है”।

पटेल, वह महिला जिसका वीडियो बुरे अभिनेताओं द्वारा डीपफेक किया गया था, ने अपने इंस्टाग्राम अकाउंट पर कहा और कहा, “जो कुछ हो रहा है उससे मैं बहुत परेशान और निराश हूं। मुझे उन महिलाओं और लड़कियों के भविष्य की चिंता है जिन्हें अब खुद को सोशल मीडिया पर डालने से और भी अधिक डर लगता है। कृपया एक कदम पीछे हटें और इंटरनेट पर आप जो देखते हैं उसकी तथ्य-जांच करें। इंटरनेट पर सब कुछ वास्तविक नहीं है”।

डीपफेक की पहचान कैसे करें

मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी (एमआईटी), जिसका अपना समर्पित एआई और एमएल अनुसंधान विभाग है, ने कुछ उपयोगी युक्तियां प्रकाशित की हैं जिनका उपयोग लोग डीपफेक और वास्तविक वीडियो के बीच अंतर करने के लिए कर सकते हैं। उनमें से कुछ नीचे सूचीबद्ध हैं।

1. चेहरे पर ध्यान दें. हाई-एंड डीपफेक हेरफेर लगभग हमेशा चेहरे का परिवर्तन होता है।

2. पलक झपकाने पर ध्यान दें. क्या व्यक्ति पर्याप्त या बहुत अधिक पलकें झपकता है?

3. होठों की हरकत पर ध्यान दें। कुछ डीपफेक लिप-सिंकिंग पर आधारित होते हैं। क्या होठों की हरकत स्वाभाविक लगती है?

इस तरह की परिष्कृत जोड़तोड़ बनाने के लिए आवश्यक व्यापक प्रशिक्षण डेटा के कारण अधिकांश व्यक्तियों के लिए डीपफेक होने का जोखिम कम है। ऑनलाइन आसानी से उपलब्ध व्यक्तिगत फ़ोटो और वीडियो के विशाल संग्रह के बिना, एआई मॉडल के लिए दोषरहित डीपफेक तैयार करना चुनौतीपूर्ण हो जाता है, खासकर जब पार्श्व चेहरे के दृश्य शामिल होते हैं।

Roblox-Redeem 17.11.2023 69-1