Wednesday, November 13, 2024
Homeविविध विषयविज्ञान और प्रौद्योगिकीएक डीपफेक वीडियो के पीछे हजारों तस्वीरों की ट्रेनिंग: जानिए उस तकनीक के बारे...

एक डीपफेक वीडियो के पीछे हजारों तस्वीरों की ट्रेनिंग: जानिए उस तकनीक के बारे में जिससे बिकनी मॉडल को बना दिया रश्मिका मंदाना, पॉर्न इंडस्ट्री में भी इस्तेमाल

डीपफेक तकनीक से वीडियो बनाना एक लम्बी प्रक्रिया है। सबसे पहले जिन दो लोगों के चेहरे आपस में बदले जाने हैं उनके हजारों फोटो वीडियो 'एनकोडर' नाम के एक AI आधारित प्रोग्राम पर चलाए जाते हैं।

इन दिनों डीपफेक तकनीक की काफी चर्चा है। यह वही तकनीक है जिसके सहारे एक ब्रिटिश मॉडल ज़ारा पटेल की अंतरंग वीडियो पर भारतीय अभिनेत्री रश्मिका मंदाना का चेहरा लगाया गया। यह वीडियो बाद में खूब वायरल हुआ और रश्मिका ने स्वयं आगे आकर इसकी सच्चाई बताई।

इस वीडियो के बाद से ‘डीपफेक’ शब्द खूब चर्चा में है। डीपफेक दरअसल आर्टिफिशियल इंटेलिजेंस पर आधारित एक ऐसी तकनीक है जिसके जरिए किसी एक व्यक्ति के चेहरे पर दूसरे के चेहरे पर लगाया जाता है। इससे कई फर्जी फोटो, आडियो और वीडियो तैयार होते हैं।

डीपफेक तकनीक का अधिकतर उपयोग फर्जी पॉर्न वीडयो बनाने के लिए होता है। इस तकनीक के जरिए पॉपुलर महिला शख्सियतों की फर्जी पोर्न वीडियो बनाई गई हैं, इस तकनीक का सबसे ज्यादा इसी काम के लिए उपयोग होता है।

कहाँ से आया डीपफेक, कैसे करता है काम?

डीपफेक के सम्बन्ध में ‘द गार्जियन‘ के एक लेख में जानकारी दी गई है कि यह सबसे पहले सोशल मीडिया एप रेडिट (Reddit) पर सामने आया था। तब एक Deepfake नाम के यूजर ने टेलर स्विफ्ट, गल गडोट जैसी अभिनेत्रियों के फर्जी पोर्न क्लिप डाल दिए। इसके बाद से ऐसे वीडियो की बाढ़ आ गई।

डीपफेक तकनीक से वीडियो बनाना एक लम्बी प्रक्रिया है। सबसे पहले जिन दो लोगों के चेहरे आपस में बदले जाने हैं उनके हजारों फोटो वीडियो ‘एनकोडर’ नाम के एक AI आधारित प्रोग्राम पर चलाए जाते हैं। यह तकनीक इन दो चेहरों की समानताएँ परखती है। इसके बाद यह तकनीक इन चेहरों को केवल उनकी समानताओं के आधार पर सीमित कर देती है और एक कंप्रेस्ड इमेज बनाती है।

इसके पश्चात एक और AI तकनीक ‘डीकोडर’ से चेहरा तलाशने को कहा जाता है। आसान भाषा में समझे तो इनकोडर को ‘A’ का चेहरा पढ़ने के लिए तैयार किया जाता और डीकोडर को ‘B’ का चेहरा पढ़ने के लिए तैयार किया जाता है। इसके पश्चात दोनों मशीनों से यह चेहरा बनाने को कहा जाता है लेकिन इस स्थिति में इनकोडर को B का और डीकोडर को A का चेहरा बनाने को कहा जाएगा। ऐसे में मान लीजिए कि B उस फोटो में रो रहा है तो नई फोटो में A रोता हुआ दिखेगा।

इसके अलावा एक अन्य तकनीक जिसका नाम ‘जनरेटिव एड्वर्सियल नेटवर्क’ (GAN) है उसके जरिए भी बनाई जाती हैं। इसमें एक गड़बड़ तस्वीर और एक सही तस्वीर डाली जाती है। AI तकनीक इन दोनों के कोड डिकोड करके फोटो को आपस में मिलाती है। इसमें समय लगता है।

क्या इसे पहचानना नामुमकिन है?

यह बात इस निर्भर करती है कि डीपफेक के जरिए बनाई गई फोटो या वीडियो कितने कौशल से बनाए गए हैं। हालाँकि, इन वीडियो को ध्यान से देखने पर बोलते समय होंठों का मूवमेंट, हाथ-पैर का चलना और चेहरे पर आने वाले अन्य भाव को देख कर पता लगाया जा सकता है कि वीडियो असली है नकली।

समस्या यह है कि अब तकनीक इतनी ज्यादा मजबूत होती जा रही है कि सामान्य व्यक्तियों की पकड़ में कई वीडियो नहीं आने वाली। इनको बहुत ही उच्च क्षमता के कंप्यूटर और आधुनिक तकनीक से लम्बी मेहनत के बाद बनाया जाता है। डीपफेक की समस्या से लड़ने के लिए लगातार बड़े बड़े विश्वविद्यालयों समेत कई कंपनियां रिसर्च कर रही हैं। इसकी कमियों को ढूँढने का लगातार प्रयास किया जाता रहा है जिससे लोग जन सके कि कोई वीडियो फर्जी है नहीं।

Join OpIndia's official WhatsApp channel

  सहयोग करें  

एनडीटीवी हो या 'द वायर', इन्हें कभी पैसों की कमी नहीं होती। देश-विदेश से क्रांति के नाम पर ख़ूब फ़ंडिग मिलती है इन्हें। इनसे लड़ने के लिए हमारे हाथ मज़बूत करें। जितना बन सके, सहयोग करें

ऑपइंडिया स्टाफ़
ऑपइंडिया स्टाफ़http://www.opindia.in
कार्यालय संवाददाता, ऑपइंडिया

संबंधित ख़बरें

ख़ास ख़बरें

गैर मुस्लिमों को जबरन नहीं परोसा जाएगा ‘हलाल मांस’, एअर इंडिया का बड़ा फैसला: जानें यह कैसे सही दिशा में कदम

देश की प्रमुख एयरलाइन एअर इंडिया ने फैसला किया है कि वह अब गैर-मुस्लिम यात्रियों को हलाल माँस नहीं परोसेगी।

बढ़कर 21% हुए मुस्लिम, 54% तक घटेंगे हिंदू: बांग्लादेशी-रोहिंग्या बदल रहे मुंबई की डेमोग्राफी, TISS की जिस रिपोर्ट से घुसपैठ पर छिड़ी बहस उसके...

अवैध बांग्लादेशियों और रोहिंग्या मुस्लिमों का घुसपैठ मुंबई में बड़े पैमाने पर सामाजिक, आर्थिक एवं राजनीतिक बदलाव ला रहा है।

प्रचलित ख़बरें

- विज्ञापन -