Friday, November 22, 2024
Homeविविध विषयविज्ञान और प्रौद्योगिकीपरमाणु बम जैसा खतरनाक है ‘Deepfake’, आपके जीवन में ला सकता है भूचाल: जानिए...

परमाणु बम जैसा खतरनाक है ‘Deepfake’, आपके जीवन में ला सकता है भूचाल: जानिए इससे जुड़ी हर बात

विशेषज्ञों का यह मानना है कि डीपफेक का उपयोग करके अधिकांश वीडियो महिलाओं से संबंधित बनाए जा रहे हैं जहाँ या तो उनका स्पूफ बनाया जा रहा है अथवा उनसे किसी बात का बदला लेने के लिए पोर्न वीडियो में उनके चेहरे का उपयोग किया जा रहा है।

अक्सर व्हाट्सऐप या इंस्टाग्राम पर आपको कई ऐसे वीडियो मिले होंगे जिसमें डोनाल्ड ट्रम्प, नरेंद्र मोदी अथवा कोई अन्य राजनेता गाना गाते हुए दिखाई देते हैं या फेसबुक के संस्थापक मार्क जकरबर्ग और अमेरिका के पूर्व राष्ट्रपति बराक ओबामा कुछ ऐसी बातें कह रहे होते हैं, जो आपको आश्चर्य में डाल दें। ऐसे वीडियो आपको देखने में सामान्य लग सकते हैं और हो सकता है कि कभी-कभार आपको ये वीडियो फेक भी लगें, लेकिन यह एक ऐसी तकनीक है जिसके बारे में अभी हम बहुत कम जानते हैं। ऐसे वीडियो डीपफेक (Deepfake) तकनीकी की सहायता से बनाए जाते हैं और यकीन मानिए कि यह तकनीकी फेक न्यूज से भी अधिक घातक है। विशेषज्ञ इसे परमाणु बम की तरह ही खतरनाक मानते हैं, क्योंकि Deepfake की सहायता से किसी भी देश की राजनीति में भूचाल लाया जा सकता है। इस तकनीक का उपयोग करके पोर्न आदि के माध्यम से किसी के भी जीवन को बर्बाद किया जा सकता है।

क्या है Deepfake?

सबसे पहले इसका पता 2017 में चला था, जब Deepfake नाम के ही रेडिट एकाउंट में कुछ पोर्न क्लिप्स अपलोड कर दिए गए थे। इन क्लिप्स में जो वास्तविक लोग थे, उनके चेहरों को हॉलीवुड की गल गैडोट, टेलर स्विफ्ट और स्कारलेट जॉनसन जैसी अभिनेत्रियों के चेहरों से बदल दिया गया था।

डीपफेक के जरिए किसी की तस्वीर को पोर्न फोटो या वीडियो में बदला जा सकता है।

दरअसल डीपफेक (Deepfake)- ‘डीप लर्निंग’ (Deep Learning) और ‘फेक’ (Fake) से मिलकर बना एक शब्द है। डीपफेक, फोटोशॉप के जरिए फेक न्यूज फैलाने का सबसे आधुनिक माध्यम है और झूठे बयानों अथवा वीडियो क्लिप्स बनाने के लिए 21वीं सदी में सबसे अधिक उपयोग में आने वाला है।

याद होगा आपको इस वीडियो में भी डीपफेक तकनीक का उपयोग हुआ था

यह तकनीक मशीन लर्निंग (Machine Learning) और आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) के मिश्रण पर आधारित है। इसके अंतर्गत पावरफुल ग्राफिक्स वाले कंप्यूटरों की सहायता से उपलब्ध डाटा का ऐसा सम्मिश्रण किया जाता है कि आसानी से फेक वीडियो, फोटो अथवा ऑडियो तैयार किया जा सके। सीधी भाषा में कहें तो हाई क्वालिटी AI की सहायता से झूठे कंटेन्ट वाले वीडियो या दूसरे मटेरियल को तैयार करना ही डीपफेक (Deepfake) है। इसे डिटेक्ट करना अर्थात इसकी पहचान करना किसी भी आम इंसान के लिए बहुत मुश्किल है। नीचे एक ट्वीट एम्बेड किया जा रहा है जिसमें चीन के राष्ट्रपति का गाना गाते हुए एक वीडियो है। इससे डीपफेक की अवधारणा को समझने में आसानी होगी।

Deepfake को कैसे बनाया जाता है?

हालाँकि, आजकल कई ऐसे मोबाइल एप्लिकेशन (उदाहरण के लिए फेसऐप) उपलब्ध हैं, जो डीपफेक जैसी तकनीक पर काम करने का दावा करते हैं, लेकिन यह बिल्कुल वैसा है जैसे ‘टिप ऑफ अ आइसबर्ग’। डीपफेक के जरिए वीडियो बनाना कुछ जीबी रैम वाले मोबाइल फोन या लैपटॉप से संभव नहीं है। डीपफेक नवीनतम तकनीक, हाई क्वालिटी AI टूल्स से युक्त और बेहतरीन ग्राफिक कार्ड वाले डेस्कटॉप कंप्यूटर्स के जरिए ही बनाए जा सकते हैं। अगर चेहरे बदलने वाले वीडियो की बात करें (जो Deepfake से जुड़ी सबसे बड़ी चिंता का विषय है) तो इन्हें बनाने में दो तरह की विशेष प्रक्रियाओं का उपयोग किया जाता है।

पहली प्रक्रिया में सबसे पहले इनकोडर (Incoder) कहे जाने वाले AI एल्गोरिदम में हजारों फेस शॉट्स (चेहरे की गतिविधियों) को रन कराया जाता है। इनकोडर इन फेस शॉट्स में उन चुनिंदा शॉट्स का चयन करता है, जहाँ वह चेहरों को आपस में बदलने में सफल हो सके। इस प्रक्रिया के दौरान इनकोडर एक तरह के फ्रेम या फेस शॉट्स को कंप्रेस कर देता है। इसके बाद दूसरे AI एल्गोरिदम की जरूरत होती है, जिसे डिकोडर (Decoder) कहा जाता है। डिकोडर कंप्रेस किए गए फेस शॉट्स या फ्रेम में से चेहरों को सामने लाता है। इस प्रक्रिया में दो डिकोडर उपयोग में आते हैं। पहला डिकोडर पहले व्यक्ति की कंप्रेस किए गए फेस शॉट पर काम करता है और दूसरा डिकोडर दूसरे व्यक्ति के। अब चेहरों को बदलने की प्रक्रिया के आखिरी चरण में इनकोडर के द्वारा कंप्रेस किए गए दूसरे व्यक्ति के फेस शॉट्स को गलत डिकोडर में भेज दिया जाता है। इससे दो अलग-अलग व्यक्तियों के चेहरे बदल जाते हैं और यह काम डिकोडर करता है।

Deepfake से जुड़ी एक और तकनीकी है, जिसे Generative Adversarial Network (GAN) कहा जाता है। GAN के अंतर्गत दो AI एल्गोरिदम काम करते हैं, जनरेटर और डिसक्रिमिनेटर। जनरेटर में एक साधारण व्यक्ति के फेस शॉट या इमेज को रखा जाता है और डिसक्रिमिनेटर में उस सेलिब्रिटी को जिसके चेहरे को बदलना है। अब ये दोनों AI एल्गोरिदम उस प्रक्रिया को कुछ सेकंडों के अंदर हजारों बार अंजाम देते हैं, जिसमें साधारण व्यक्ति की इमेज को सेलिब्रिटी की इमेज या फेस शॉट से बदला जाता है। हजारों बार होने वाली इस प्रक्रिया में दोनों AI एल्गोरिदम को बेहतर होने का फीडबैक दिया जाता है। अब चूँकि इस तकनीकी में आर्टिफिशियल इंटेलिजेंस की भूमिका है ऐसे में दोनों एल्गोरिदम उस स्तर पर पहुँच जाते हैं जहाँ वो परफेक्ट कहे जा सकें। इस प्रक्रिया के पूरा होने पर जनरेटर ऐसी इमेज या वीडियो बना देता है, जो बिल्कुल असली मालूम होते हैं।

कौन बनाते हैं Deepfake?

वैसे तो हम सोशल मीडिया प्लेटफॉर्म्स में ऐसे वीडियो देखते हैं जो मनोरंजन के उद्देश्य से बनाए जाते हैं लेकिन यह उससे भी बढ़कर कुछ और है। द गार्जियन की रिपोर्ट के मुताबिक, AI फर्म डीपट्रेस ने सितंबर 2019 में लगभग 15,000 डीपफेक वीडियो की पहचान की थी जिनमें से लगभग 96% वीडियो पोर्नोग्राफिक थे। इन पोर्न वीडियो में 99% ऐसे डीपफेक वीडियो थे, जहाँ हॉलीवुड सेलिब्रिटी या पॉप स्टार के चेहरों का उपयोग किया गया था।

विशेषज्ञों का यह मानना है कि डीपफेक का उपयोग करके अधिकांश वीडियो महिलाओं से संबंधित बनाए जा रहे हैं जहाँ या तो उनका स्पूफ बनाया जा रहा है अथवा उनसे किसी बात का बदला लेने के लिए पोर्न वीडियो में उनके चेहरे का उपयोग किया जा रहा है।

पोर्न के अलावा शिक्षाविद, औद्योगिक फर्म, विजुअल इफेक्ट स्टूडियो और राजनीतिक प्रतिद्वंदी डीपफेक तकनीकी का उपयोग करते रहते हैं। डीपफेक का उपयोग करके कई ऐसे वीडियो बनाए जा सकते हैं, जो राजनीति में विभिन्न राजनेताओं और पार्टियों की दिशा को बदल सकते हैं। ये वीडियो इतने खतरनाक हैं कि इनके माध्यम से किसी भी व्यक्ति से मनचाहा बयान दिलवाया जा सकता है और एक्सपर्ट के अलावा एक आम इंसान इन बयानों के झाँसे में आ सकता है। यही कारण है कि इन डीपफेक वीडियो को परमाणु शक्ति के बराबर घातक माना जा रहा है।

यहाँ दो वीडियो दिए जा रहे हैं जिनके माध्यम से राजनीति में Deepfake के खतरों के बारे में बताया गया है।

Deepfake को पहचानना कितना मुश्किल, क्या कहता है कानून?

डीपफेक वीडियो को आम इंसान तो नहीं पहचान सकता है। इन मैनिपुलेटेड वीडियो की वास्तविकता को जानने के लिए भी उन विशेषज्ञों की आवश्यकता होती है, जो इन वीडियो को बनाने की प्रक्रिया में उपयोग होने वाली तकनीकी जरूरतों को पूरा करते हैं। हालाँकि, सामान्य फोन में उपलब्ध ऐसे कई एप्लीकेशन हैं जिनकी सहायता से बनाए गए वीडियो को पहचाना जा सकता है। जब बात उन वीडियो की आती है जिन्हें तकनीक का ज्ञान रखने वालों द्वारा और जो बड़े-बड़े राजनीतिक एवं कूटनीतिक उद्देश्यों की पूर्ति को ध्यान में रखकर बनाए जाते हैं तो ऐसे वीडियो को पहचानने के लिए किसी तकनीकी विशेषज्ञ की पारखी नजर ही चाहिए।

डीपफेक की पहचान के लिए तकनीक का इस्तेमाल

अब प्रश्न उठता है कि क्या डीपफेक पर कानूनी कार्रवाई नहीं की जा सकती है? डीपफेक ऐसे तो दुनिया भर में बैन नहीं है और न ही इसके संबंध में कोई कानून है, लेकिन इसकी सहायता से किसी व्यक्ति के सम्मान को ठेस पहुँचाने के लिए किया गया कार्य विभिन्न देशों के कानूनों के मुताबिक अपराध ही माना जाएगा। उदाहरण के लिए भारत की बात करते हैं तो यहाँ फेक न्यूज फैलाने और पोर्नोग्राफी जैसे अपराध के लिए सूचना एवं प्रौद्योगिकी (IT) अधिनियम- 2002, बच्चों से संबंधित अश्लील वीडियो या इमेज बनाने अथवा उसे शेयर करने के लिए POCSO ऐक्ट और भारतीय दंड संहिता (IPC) के तहत कार्रवाई की जाती है। अब भले ही Deepfake पर कोई कानून नहीं है, लेकिन अगर इसकी सहायता से कोई ऐसा कार्य किया जाता है जो किसी व्यक्ति की निजता का उल्लंघन करता है, उसके सम्मान को ठेस पहुँचाता, देश में सांप्रदायिक तनाव बढ़ाने या गलत बयानी से जुड़ा है तो उस पर भारत के इन्हीं कानूनों के अंतर्गत ही कार्रवाई की जाएगी।

हालाँकि, ट्विटर और फेसबुक जैसी सोशल मीडिया प्लेटफॉर्म्स ने डीपफेक वीडियो प्रतिबंधित किए हुए हैं। ये प्लेटफॉर्म्स दावा करते हैं कि डीपफेक वीडियो अपलोड किए जाने के बाद अगर उन्हें पता चलता है कि यह वीडियो डीपफेक है तो उसे हटा लिया जाता है, फिर भी सोशल मीडिया मंचों पर इन वीडियो का खतरा बना हुआ है। ऐसे वीडियो से बचने का एक ही उपाय है कि यदि कभी भी कोई ऐसा वीडियो या फोटो सामने आए, जिसमें कोई विवादित बात कही गई हो या ऐसा कुछ लिखा गया हो, जो दो वर्गों के बीच संघर्ष की स्थिति उत्पन्न करे तो उन्हें शेयर करने से बचना चाहिए और पहले उनकी जाँच कर लेनी चाहिए।

Join OpIndia's official WhatsApp channel

  सहयोग करें  

एनडीटीवी हो या 'द वायर', इन्हें कभी पैसों की कमी नहीं होती। देश-विदेश से क्रांति के नाम पर ख़ूब फ़ंडिग मिलती है इन्हें। इनसे लड़ने के लिए हमारे हाथ मज़बूत करें। जितना बन सके, सहयोग करें

ओम द्विवेदी
ओम द्विवेदी
Writer. Part time poet and photographer.

संबंधित ख़बरें

ख़ास ख़बरें

मुस्लिम लड़की और हिन्दू लड़के ने की मंदिर में शादी, अब्बू ने ‘दामाद’ पर ही करवा दी रेप की FIR: इलाहाबाद हाई कोर्ट ने...

इलाहाबाद हाई कोर्ट ने एक हिन्दू युवक को मुस्लिम लड़की से शादी करने के आधार पर जमानत दे दी। लड़के पर इसी लड़की के अपहरण और रेप का मामला दर्ज है।

कॉन्ग्रेस प्रवक्ता ने दिखानी चाही PM और गौतम अडानी की तस्वीर, दिखा दी अडानी और रॉबर्ट वाड्रा की फोटो: पैनलिस्ट ने कहा, ये ‘जीजा...

शो में शामिल OnlyFact India के संस्थापक विजय पटेल ने मजाक में कहा, "यह फोटो मोदी जी के साथ नहीं, जीजा जी (राहुल गाँधी के बहनोई) के साथ है।"
- विज्ञापन -