इंटरनेट पर हर चीज़ हर समय सच नहीं होती है ! मैंने यह लेख लिखा है, आशा है कि यह आपको पसंद आएगा और यह आपको इंटरनेट पर डीपफेक के बारे में और अधिक जानने में मदद करेगा.
डीपफेक्स का उदय: मित्र या शत्रु?
डीपफेक्स बढ़ते हुए हैं और इन्हें गंभीर समस्याओं का कारण बन सकते हैं। ये लोगों और समुदायों को छेड़ सकते हैं, डरा सकते हैं, अपमानित कर सकते हैं और अस्थिरता का कारण बन सकते हैं। लेकिन सवाल यही रहता है, क्या डीपफेक्स महान अंतरराष्ट्रीय घटनाओं का कारण बन सकते हैं? जवाब पूरी तरह से स्पष्ट नहीं है। जबकि एक विश्व नेता के डीपफेक्स वीडियो से बड़े संकट का निर्माण नहीं होना चाहिए, या सैन्य ताक़तों के बारे में जांचे गए डीपफेक्स सैटेलाइट छवियां ज्यादा चिंता का कारण नहीं हो सकतीं: ज्यादातर राष्ट्रों के पास अपने विश्वसनीय सुरक्षा छवियां होती हैं।
यूट्यूब पर मशहूर डीपफेक वीडियो जिसने लोगों को हिलाकर रख दिया –
लेकिन इन डीपफेक्स को असल में कैसे बनाया जाता है?
एक फेस–स्वैप वीडियो बनाने के लिए कुछ कदम होते हैं। पहले, दो विभिन्न लोगों के हजारों फेस के फोटो को एक AI एल्गोरिदम को दौड़ाते हैं, जिसे एक इनकोडर कहा जाता है। इस एनकोडर के जरिए वे दो चेहरों के बीच समानताएं ढूंढता हैं और उन्हें कम्प्रेस करते हैं, इसमें इन छवियों के साझा सामान्य विशेषताओं को ध्यान में रखा जाता है। फिर, एक और AI एल्गोरिदम को डीकोडर कहा जाता है, जिसे सिखाया जाता है कि ये कंप्रेस की गई छवियों से चेहरे को पुनः प्राप्त करें। क्योंकि चेहरे अलग–अलग होते हैं, इसलिए प्रत्येक व्यक्ति के चेहरे को पुनः प्राप्त करने के लिए अलग–अलग डीकोडर्स को प्रशिक्षित किया जाता है। फेस–स्वैप करने के लिए, कोडिंग की गई छवियों को “गलत” डीकोडर में भेजा जाता है। उदाहरण के लिए, व्यक्ति A के चेहरे की एक कंप्रेस्ड छवि को व्यक्ति B पर प्रशिक्षित डीकोडर में डाला जाता है, जिससे व्यक्ति B का चेहरा व्यक्ति A के चेहरे के अभिव्यक्ति और अभिमुखी हो जाता है। एक विश्वसनीय वीडियो के लिए, इसे प्रत्येक फ्रेम पर करना जरूरी होता है।
मॉर्गन स्टानली का यह वीडियो जो मॉर्गन ने खुद कभी शूट किया नहीं पर AI की मदद और Deep Learning की मदद से वीडियो बनाया गया है –
डीपफेक्स के पीछे कौन है?
डीपफेक्स को विभिन्न विज्ञान और उद्योगिक शोधकर्ताओं से लेकर शौकीन उत्साहियों, विजुअल इफेक्ट्स स्टूडियोज़ और तकनीकी कारणों से जुड़ी अनेक जनसंख्या तैयार कर रही हैं। यहां तक कि आपातकालीन स्थिति में सरकारें भी इस तकनीक को अपने ऑनलाइन रणनीतियों का हिस्सा बना रहीं हैं, ताकि वे धर्मविरोधी समूहों को अविश्वास दिलाने या लक्षित व्यक्तियों से संपर्क करने के लिए इसका उपयोग कर सकें।
डीपफेक्स का पता कैसे लगाएं?
तकनीक में सुधार होने से डीपफेक्स का पता लगाना मुश्किल हो जाता है। 2018 में, अमेरिकी शोधकर्ताओं ने खोजा कि डीपफेक्स चेहरों के आंखें सामान्य रूप से झपकती नहीं हैं। यह कोई बड़ी बात नहीं थी: अधिकांश छवियों में लोग अपनी आंखें खुली रखते हैं, इसलिए एल्गोरिदम कभी वास्तविकता में झपकते के बारे में वास्तविक जानकारी नहीं बढ़ता था। शुरू में, इसे डीपफेक्स का पता लगाने के लिए एक आसान तरीका लग रहा था। लेकिन जैसे ही यह दुर्बलता सामने आई, तत्काल ही डीपफेक्स वाले व्यक्तियों ने इसे सुधारा और झपकते दिखाने वाले डीपफेक्स आने लगे। अधिकतर अच्छी गुणवत्ता के डीपफेक्स को पहचानना मुश्किल है। उनमें खराब लिप सिंकिंग, असंगत त्वचा रंग या चेहरों के आस–पास चमकदारी हो सकती है।
डीपफेक्स के कानूनी पहलू:
डीपफेक्स अपने आप में अवैध नहीं हैं, लेकिन उन्हें तैयार करने और प्रसारित करने वाले व्यक्तियों को कानूनी दंड का सामना करना पड़ सकता है। सामग्री के आधार पर डीपफेक्स कॉपीराइट का उल्लंघन कर सकते हैं, डेटा संरक्षण कानून का उल्लंघन कर सकते हैं, और यदि किसी को विनीत करने से उन्हें निरंकुश बनाते हैं, तो नम्रता से उलझा सकते हैं। यहां तक कि यहां तक कि यहां तक कि उन्हें बिना सहमति के सेक्स और निजी छवियों को साझा करने के लिए विशेष जुर्माना भी होता है, जिसे आम तौर पर बदले की तस्वीर के रूप में जाना जाता है, जिसके लिए अपराधियों को दो साल की कैद मिल सकती है।
समाप्ति में, डीपफेक्स एक दोहरी धार की तलवार हैं। जबकि यह हमें चोट और अराजकता का कारण बना सकते हैं, वह हमें याद दिलाते हैं कि डिजिटल युग में जागरूकता और गंभीर विचार का महत्व क्या है। तकनीक की प्रगति के साथ, हमें ऑनलाइन दुनिया में आने वाली सामग्री के प्रति सूचित, जागरूक और सतर्क रहना अत्यंत महत्वपूर्ण है, ताकि हम खुद को और समाज को डीपफेक्स के अंधेरे पक्ष से बचा सकें।
शब्द “डीपफेक” अपने आप में “डीप लर्निंग” का एक संयोजन है, जो कृत्रिम बुद्धिमत्ता का एक उपसमूह है जो विशाल मात्रा में डेटा और “नकली” से सीखने के लिए प्रशिक्षण एल्गोरिदम पर केंद्रित है। मशीन लर्निंग तकनीकों में तेजी से हुई प्रगति ने आश्चर्यजनक रूप से यथार्थवादी वीडियो बनाने में सक्षम बनाया है जो सच्चाई और कल्पना के बीच की रेखाओं को धुंधला कर देते हैं।
इस लेख में, हम डीपफेक की आकर्षक दुनिया में उतरते हैं, यह खोजते हैं कि वे कैसे बनाए जाते हैं, उनके संभावित अनुप्रयोग और उनके दुरुपयोग से जुड़ी चिंताएँ। Theguardian.com पर प्रकाशित एक लेख सहित विभिन्न स्रोतों से अंतर्दृष्टि प्राप्त करते हुए, हमारा उद्देश्य इस दिलचस्प लेकिन परेशान करने वाली तकनीक पर प्रकाश डालना और समाज, नैतिकता और मीडिया हेरफेर के भविष्य पर इसके प्रभाव को समझना है। तो, कमर कस लीजिए क्योंकि हम डीपफेक के युग में वास्तविकता के भ्रम को उजागर करने की यात्रा पर निकल रहे हैं।