Sunday, June 30, 2024
Homeविविध विषयविज्ञान और प्रौद्योगिकीएक डीपफेक वीडियो के पीछे हजारों तस्वीरों की ट्रेनिंग: जानिए उस तकनीक के बारे...

एक डीपफेक वीडियो के पीछे हजारों तस्वीरों की ट्रेनिंग: जानिए उस तकनीक के बारे में जिससे बिकनी मॉडल को बना दिया रश्मिका मंदाना, पॉर्न इंडस्ट्री में भी इस्तेमाल

डीपफेक तकनीक से वीडियो बनाना एक लम्बी प्रक्रिया है। सबसे पहले जिन दो लोगों के चेहरे आपस में बदले जाने हैं उनके हजारों फोटो वीडियो 'एनकोडर' नाम के एक AI आधारित प्रोग्राम पर चलाए जाते हैं।

इन दिनों डीपफेक तकनीक की काफी चर्चा है। यह वही तकनीक है जिसके सहारे एक ब्रिटिश मॉडल ज़ारा पटेल की अंतरंग वीडियो पर भारतीय अभिनेत्री रश्मिका मंदाना का चेहरा लगाया गया। यह वीडियो बाद में खूब वायरल हुआ और रश्मिका ने स्वयं आगे आकर इसकी सच्चाई बताई।

इस वीडियो के बाद से ‘डीपफेक’ शब्द खूब चर्चा में है। डीपफेक दरअसल आर्टिफिशियल इंटेलिजेंस पर आधारित एक ऐसी तकनीक है जिसके जरिए किसी एक व्यक्ति के चेहरे पर दूसरे के चेहरे पर लगाया जाता है। इससे कई फर्जी फोटो, आडियो और वीडियो तैयार होते हैं।

डीपफेक तकनीक का अधिकतर उपयोग फर्जी पॉर्न वीडयो बनाने के लिए होता है। इस तकनीक के जरिए पॉपुलर महिला शख्सियतों की फर्जी पोर्न वीडियो बनाई गई हैं, इस तकनीक का सबसे ज्यादा इसी काम के लिए उपयोग होता है।

कहाँ से आया डीपफेक, कैसे करता है काम?

डीपफेक के सम्बन्ध में ‘द गार्जियन‘ के एक लेख में जानकारी दी गई है कि यह सबसे पहले सोशल मीडिया एप रेडिट (Reddit) पर सामने आया था। तब एक Deepfake नाम के यूजर ने टेलर स्विफ्ट, गल गडोट जैसी अभिनेत्रियों के फर्जी पोर्न क्लिप डाल दिए। इसके बाद से ऐसे वीडियो की बाढ़ आ गई।

डीपफेक तकनीक से वीडियो बनाना एक लम्बी प्रक्रिया है। सबसे पहले जिन दो लोगों के चेहरे आपस में बदले जाने हैं उनके हजारों फोटो वीडियो ‘एनकोडर’ नाम के एक AI आधारित प्रोग्राम पर चलाए जाते हैं। यह तकनीक इन दो चेहरों की समानताएँ परखती है। इसके बाद यह तकनीक इन चेहरों को केवल उनकी समानताओं के आधार पर सीमित कर देती है और एक कंप्रेस्ड इमेज बनाती है।

इसके पश्चात एक और AI तकनीक ‘डीकोडर’ से चेहरा तलाशने को कहा जाता है। आसान भाषा में समझे तो इनकोडर को ‘A’ का चेहरा पढ़ने के लिए तैयार किया जाता और डीकोडर को ‘B’ का चेहरा पढ़ने के लिए तैयार किया जाता है। इसके पश्चात दोनों मशीनों से यह चेहरा बनाने को कहा जाता है लेकिन इस स्थिति में इनकोडर को B का और डीकोडर को A का चेहरा बनाने को कहा जाएगा। ऐसे में मान लीजिए कि B उस फोटो में रो रहा है तो नई फोटो में A रोता हुआ दिखेगा।

इसके अलावा एक अन्य तकनीक जिसका नाम ‘जनरेटिव एड्वर्सियल नेटवर्क’ (GAN) है उसके जरिए भी बनाई जाती हैं। इसमें एक गड़बड़ तस्वीर और एक सही तस्वीर डाली जाती है। AI तकनीक इन दोनों के कोड डिकोड करके फोटो को आपस में मिलाती है। इसमें समय लगता है।

क्या इसे पहचानना नामुमकिन है?

यह बात इस निर्भर करती है कि डीपफेक के जरिए बनाई गई फोटो या वीडियो कितने कौशल से बनाए गए हैं। हालाँकि, इन वीडियो को ध्यान से देखने पर बोलते समय होंठों का मूवमेंट, हाथ-पैर का चलना और चेहरे पर आने वाले अन्य भाव को देख कर पता लगाया जा सकता है कि वीडियो असली है नकली।

समस्या यह है कि अब तकनीक इतनी ज्यादा मजबूत होती जा रही है कि सामान्य व्यक्तियों की पकड़ में कई वीडियो नहीं आने वाली। इनको बहुत ही उच्च क्षमता के कंप्यूटर और आधुनिक तकनीक से लम्बी मेहनत के बाद बनाया जाता है। डीपफेक की समस्या से लड़ने के लिए लगातार बड़े बड़े विश्वविद्यालयों समेत कई कंपनियां रिसर्च कर रही हैं। इसकी कमियों को ढूँढने का लगातार प्रयास किया जाता रहा है जिससे लोग जन सके कि कोई वीडियो फर्जी है नहीं।

Special coverage by OpIndia on Ram Mandir in Ayodhya

  सहयोग करें  

एनडीटीवी हो या 'द वायर', इन्हें कभी पैसों की कमी नहीं होती। देश-विदेश से क्रांति के नाम पर ख़ूब फ़ंडिग मिलती है इन्हें। इनसे लड़ने के लिए हमारे हाथ मज़बूत करें। जितना बन सके, सहयोग करें

ऑपइंडिया स्टाफ़
ऑपइंडिया स्टाफ़http://www.opindia.in
कार्यालय संवाददाता, ऑपइंडिया

संबंधित ख़बरें

ख़ास ख़बरें

रोहित शर्मा और विराट कोहली के बाद अब रवींद्र जडेजा ने T20I से लिया संन्यास, PM मोदी बोले – आपके स्टाइलिश स्ट्रोक प्ले, स्पिन...

T20 अंतरराष्ट्रीय में उनके आँकड़ों की बात करें तो उन्होंने अब तक 74 मैच खेले हैं, जिसमें से 41 में उन्हें बल्लेबाजी और 71 में गेंदबाजी का मौका मिला।

पश्चिम बंगाल ही नहीं, अब झारखंड में भी बांग्लादेशी घुसपैठियों के वोट बेतहाशा बढ़ने का शक: चुनाव आयोग से शिकायत, विधायक बोले- घट रहे...

झारखंड के पश्चिम बंगाल के सीमाई इलाकों में बेतहाशा वोट वृद्धि की शिकायत मिली है। इन बूथ पर बांग्लादेशी घुसपैठियों के नाम जुड़ने का शक है।

प्रचलित ख़बरें

- विज्ञापन -