Saturday, July 27, 2024
Homeविविध विषयविज्ञान और प्रौद्योगिकीDeepfake से महिलाओं के फोटो-वीडियो बदले जा रहे न्यूड और पोर्न में, इस AI...

Deepfake से महिलाओं के फोटो-वीडियो बदले जा रहे न्यूड और पोर्न में, इस AI के आगे बेबस सिक्योरिटी एक्सपर्ट

द हफिंगटन पोस्ट ने एक ऐसी वेबसाइट के बारे में बताया है, जिसके द्वारा मशीन लर्निंग पर आधारित Deepfake तकनीक का उपयोग करके सिनेमा सेलिब्रिटी और आम महिलाओं के फोटो को न्यूड में बदला जा रहा था।

परमाणु हथियारों की तरह ही खतरनाक Deepfake तकनीक का उपयोग लगातार बढ़ता ही जा रहा है। इसके निशाने पर सबसे अधिक हैं, महिलाएँ जिनकी फोटो या वीडियो को ‘न्यूड’ बनाकर ऑनलाइन दुनिया में व्यू बढ़ाए जा रहे हैं और हिट्स कमाए जा रहे हैं। समस्या यह है कि साइबर सिक्योरिटी एक्सपर्ट्स भी इस Deepfake तकनीक को लेकर असमर्थ हैं। सेलिब्रिटी के फोटो और वीडियो को न्यूड में बदलने को लेकर शुरू हुई यह तकनीक अब आम महिलाओं के जीवन में भूचाल ला सकती है।

द हफिंगटन पोस्ट ने एक ऐसी वेबसाइट के बारे में बताया है, जिसके द्वारा मशीन लर्निंग पर आधारित Deepfake तकनीक का उपयोग करके सिनेमा सेलिब्रिटी और आम महिलाओं के फोटो को न्यूड में बदला जा रहा था। हफिंगटन पोस्ट की रिपोर्ट के मुताबिक, 2021 की शुरुआत से लेकर अब तक इस साइट को 38 मिलियन (3.8 करोड़) हिट मिल चुके हैं और बीबीसी की रिपोर्ट के मुताबिक, अकेले जून महीने में 5 मिलियन हिट (50 लाख)। Deepsukebe नाम की इस वेबसाइट का मिशन है, ‘पुरुषों के सपनों को साकार करना’ और यह वेबसाइट खुद को ‘आर्टिफिशियल इंटेलिजेंस (AI) आधारित न्यूडिफायर’ बताती है।

हालाँकि, फेसबुक और ट्विटर ने Deepsukebe को अपने प्लेटफॉर्म्स पर बैन कर रखा है, फिर भी यह वेबसाइट सिक्योरिटी संबंधी प्रोटोकॉल्स को दरकिनार करते हुए अलग-अलग आईपी एड्रेस के साथ काम कर रही है। Deepsukebe पर इस मामले में उसका बयान दिया हुआ है, जिसमें कहा गया है कि फोटो और वीडियो को न्यूड में बदलना ‘AI मॉडल पर आधारित एक कला’ है और इसे विकसित करने में सालों की मेहनत, पैसे और महीनों की AI मॉडल ट्रेनिंग की जरूरत पड़ती है।

Deepfake तकनीक का सबसे पहले पता 2017 में चला था, जब Deepfake नाम के ही रेडिट एकाउंट में कुछ पोर्न क्लिप्स अपलोड कर दिए गए थे। इन क्लिप्स में जो वास्तविक लोग थे, उनके चेहरों को हॉलीवुड की गल गैडोट, टेलर स्विफ्ट और स्कारलेट जॉनसन जैसी अभिनेत्रियों के चेहरों से बदल दिया गया था। वैसे तो हम सोशल मीडिया प्लेटफॉर्म्स में ऐसे वीडियो देखते हैं जो मनोरंजन के उद्देश्य से बनाए जाते हैं, लेकिन यह उससे भी बढ़कर कुछ और है। द गार्जियन की रिपोर्ट के मुताबिक, AI फर्म डीपट्रेस ने सितंबर 2019 में लगभग 15,000 डीपफेक वीडियो की पहचान की थी, जिनमें से लगभग 96% वीडियो पोर्नोग्राफिक थे।

इन पोर्न वीडियो में 99% ऐसे डीपफेक वीडियो थे, जहाँ हॉलीवुड सेलिब्रिटी या पॉप स्टार के चेहरों का उपयोग किया गया था। हालाँकि, तेजी से बढ़ती इस तकनीक का उपयोग अब आम महिलाओं के खिलाफ भी किया जा रहा है। इस तकनीक के विषय में चिंता की बात यह है कि ऐसे वीडियो को बनाने के लिए हाई क्वालिटी कंप्यूटर सिस्टम की आवश्यकता होती है और यही कारण है कि एक आम इंसान कभी भी इन वीडियो को आसानी से नहीं पहचान सकता है। चिंता की बात यह भी है कि Deepfake की संख्या लगातार बढ़ती ही जा रही है। इस पर रिसर्च करने वाली संस्था Sensity AI की रिपोर्ट के मुताबिक, 2018 के बाद से हर 6 महीने में Deepfake की संख्या दोगुनी हो रही है।

Join OpIndia's official WhatsApp channel

  सहयोग करें  

एनडीटीवी हो या 'द वायर', इन्हें कभी पैसों की कमी नहीं होती। देश-विदेश से क्रांति के नाम पर ख़ूब फ़ंडिग मिलती है इन्हें। इनसे लड़ने के लिए हमारे हाथ मज़बूत करें। जितना बन सके, सहयोग करें

ओम द्विवेदी
ओम द्विवेदी
Writer. Part time poet and photographer.

संबंधित ख़बरें

ख़ास ख़बरें

पुलिस ने की सिर्फ पूछताछ, गिरफ्तार नहीं: हज पर मुस्लिम महिलाओं के यौन शोषण की आवाज उठाने वाले दीपक शर्मा पर कट्टर इस्लामी फैला...

दीपक शर्मा कहते हैं कि उन्होंने हज पर महिलाओं के साथ होते व्यवहार पर जो ट्वीट किया, वो तथ्यों पर आधारित है। उन्होंने पुलिस को भी यही बताया है।

बांग्लादेशियों के खिलाफ प्रदर्शन करने पर झारखंड पुलिस ने हॉस्टल में घुसकर छात्रों को पीटा: BJP नेता बाबू लाल मरांडी का आरोप, साझा की...

भाजपा नेता बाबूलाल मरांडी ने कहा है कि बांग्लादेशी घुसपैठियों के खिलाफ प्रदर्शन करने पर हेमंत सरकार की पुलिस ने उन्हें बुरी तरह पीटा।

प्रचलित ख़बरें

- विज्ञापन -