Site icon Daily News Buddy

डीपफेक्स: असली और झूठी पहचान – इंटरनेट पर हर चीज़ हर समय सच नहीं होती है!

Decoding Deepfakes: Real vs. Synthetic Identity - dailynewsbuddy.com

Decoding Deepfakes: Real vs. Synthetic Identity - dailynewsbuddy.com

इंटरनेट पर हर चीज़ हर समय सच नहीं होती है ! मैंने यह लेख लिखा है, आशा है कि यह आपको पसंद आएगा और यह आपको इंटरनेट पर डीपफेक के बारे में और अधिक जानने में मदद करेगा.

 

डीपफेक्स का उदय: मित्र या शत्रु?

 

डीपफेक्स बढ़ते हुए हैं और इन्हें गंभीर समस्याओं का कारण बन सकते हैं। ये लोगों और समुदायों को छेड़ सकते हैं, डरा सकते हैं, अपमानित कर सकते हैं और अस्थिरता का कारण बन सकते हैं। लेकिन सवाल यही रहता है, क्या डीपफेक्स महान अंतरराष्ट्रीय घटनाओं का कारण बन सकते हैं? जवाब पूरी तरह से स्पष्ट नहीं है। जबकि एक विश्व नेता के डीपफेक्स वीडियो से बड़े संकट का निर्माण नहीं होना चाहिए, या सैन्य ताक़तों के बारे में जांचे गए डीपफेक्स सैटेलाइट छवियां ज्यादा चिंता का कारण नहीं हो सकतीं: ज्यादातर राष्ट्रों के पास अपने विश्वसनीय सुरक्षा छवियां होती हैं।

यूट्यूब पर मशहूर डीपफेक वीडियो जिसने लोगों को हिलाकर रख दिया –

 

लेकिन इन डीपफेक्स को असल में कैसे बनाया जाता है?

 

एक फेसस्वैप वीडियो बनाने के लिए कुछ कदम होते हैं। पहले, दो विभिन्न लोगों के हजारों फेस के फोटो को एक AI एल्गोरिदम को दौड़ाते हैं, जिसे एक इनकोडर कहा जाता है। इस एनकोडर के जरिए वे दो चेहरों के बीच समानताएं ढूंढता हैं और उन्हें कम्प्रेस करते हैं, इसमें इन छवियों के साझा सामान्य विशेषताओं को ध्यान में रखा जाता है। फिर, एक और AI एल्गोरिदम को डीकोडर कहा जाता है, जिसे सिखाया जाता है कि ये कंप्रेस की गई छवियों से चेहरे को पुनः प्राप्त करें। क्योंकि चेहरे अलगअलग होते हैं, इसलिए प्रत्येक व्यक्ति के चेहरे को पुनः प्राप्त करने के लिए अलगअलग डीकोडर्स को प्रशिक्षित किया जाता है। फेसस्वैप करने के लिए, कोडिंग की गई छवियों कोगलतडीकोडर में भेजा जाता है। उदाहरण के लिए, व्यक्ति A के चेहरे की एक कंप्रेस्ड छवि को व्यक्ति B पर प्रशिक्षित डीकोडर में डाला जाता है, जिससे व्यक्ति B का चेहरा व्यक्ति A के चेहरे के अभिव्यक्ति और अभिमुखी हो जाता है। एक विश्वसनीय वीडियो के लिए, इसे प्रत्येक फ्रेम पर करना जरूरी होता है।

मॉर्गन स्टानली का यह वीडियो जो मॉर्गन ने खुद कभी शूट किया नहीं पर AI की मदद और Deep Learning की मदद से वीडियो बनाया गया है –

डीपफेक्स के पीछे कौन है?

 

डीपफेक्स को िभिन्न विज्ञान और उद्योगिक शोधकर्ताओं से लेकर शौकीन उत्साहियों, विजुअल इफेक्ट्स स्टूडियोज़ और तकनीकी कारणों से जुड़ी अनेक जनसंख्या तैयार कर रही हैं। यहां तक ​​कि आपातकालीन स्थिति में सरकारें भी इस तकनीक को अपने ऑनलाइन रणनीतियों का हिस्सा बना रहीं हैं, ताकि वे धर्मविरोधी समूहों को अविश्वास दिलाने या लक्षित व्यक्तियों से संपर्क करने के लिए इसका उपयोग कर सकें।

 

डीपफेक्स का पता कैसे लगाएं?

 

तकनीक में सुधार होने से डीपफेक्स का पता लगाना मुश्किल हो जाता है। 2018 में, अमेरिकी शोधकर्ताओं ने खोजा कि डीपफेक्स चेहरों के आंखें सामान्य रूप से झपकती नहीं हैं। यह कोई बड़ी बात नहीं थी: अधिकांश छवियों में लोग अपनी आंखें खुली रखते हैं, इसलिए एल्गोरिदम कभी वास्तविकता में झपकते के बारे में वास्तविक जानकारी नहीं बढ़ता था। शुरू में, इसे डीपफेक्स का पता लगाने के लिए एक आसान तरीका लग रहा था। लेकिन जैसे ही यह दुर्बलता सामने आई, तत्काल ही डीपफेक्स वाले व्यक्तियों ने इसे सुधारा और झपकते दिखाने वाले डीपफेक्स आने लगे। अधिकतर अच्छी गुणवत्ता के डीपफेक्स को पहचानना मुश्किल है। उनमें खराब लिप सिंकिंग, असंगत त्वचा रंग या चेहरों के आसपास चमकदारी हो सकती है।

 

डीपफेक्स के कानूनी पहलू:

 

डीपफेक्स अपने आप में अवैध नहीं हैं, लेकिन उन्हें तैयार करने और प्रसारित करने वाले व्यक्तियों को कानूनी दंड का सामना करना पड़ सकता है। सामग्री के आधार पर डीपफेक्स कॉपीराइट का उल्लंघन कर सकते हैं, डेटा संरक्षण कानून का उल्लंघन कर सकते हैं, और यदि किसी को विनीत करने से उन्हें निरंकुश बनाते हैं, तो नम्रता से उलझा सकते हैं। यहां तक ​​कि यहां तक ​​कि यहां तक ​​कि उन्हें बिना सहमति के सेक्स और निजी छवियों को साझा करने के लिए विशेष जुर्माना भी होता है, जिसे आम तौर पर बदले की तस्वीर के रूप में जाना जाता है, जिसके लिए अपराधियों को दो साल की कैद मिल सकती है।

समाप्ति में, डीपफेक्स एक दोहरी धार की तलवार हैं। जबकि यह हमें चोट और अराजकता का कारण बना सकते हैं, वह हमें याद दिलाते हैं कि डिजिटल युग में जागरूकता और गंभीर विचार का महत्व क्या है। तकनीक की प्रगति के साथ, हमें ऑनलाइन दुनिया में आने वाली सामग्री के प्रति सूचित, जागरूक और सतर्क रहना अत्यंत महत्वपूर्ण है, ताकि हम खुद को और समाज को डीपफेक्स के अंधेरे पक्ष से बचा सकें।

शब्द “डीपफेक” अपने आप में “डीप लर्निंग” का एक संयोजन है, जो कृत्रिम बुद्धिमत्ता का एक उपसमूह है जो विशाल मात्रा में डेटा और “नकली” से सीखने के लिए प्रशिक्षण एल्गोरिदम पर केंद्रित है। मशीन लर्निंग तकनीकों में तेजी से हुई प्रगति ने आश्चर्यजनक रूप से यथार्थवादी वीडियो बनाने में सक्षम बनाया है जो सच्चाई और कल्पना के बीच की रेखाओं को धुंधला कर देते हैं।

इस लेख में, हम डीपफेक की आकर्षक दुनिया में उतरते हैं, यह खोजते हैं कि वे कैसे बनाए जाते हैं, उनके संभावित अनुप्रयोग और उनके दुरुपयोग से जुड़ी चिंताएँ। Theguardian.com पर प्रकाशित एक लेख सहित विभिन्न स्रोतों से अंतर्दृष्टि प्राप्त करते हुए, हमारा उद्देश्य इस दिलचस्प लेकिन परेशान करने वाली तकनीक पर प्रकाश डालना और समाज, नैतिकता और मीडिया हेरफेर के भविष्य पर इसके प्रभाव को समझना है। तो, कमर कस लीजिए क्योंकि हम डीपफेक के युग में वास्तविकता के भ्रम को उजागर करने की यात्रा पर निकल रहे हैं।

Exit mobile version