Friday, November 22, 2024
Homeविविध विषयविज्ञान और प्रौद्योगिकीDeepfake से महिलाओं के फोटो-वीडियो बदले जा रहे न्यूड और पोर्न में, इस AI...

Deepfake से महिलाओं के फोटो-वीडियो बदले जा रहे न्यूड और पोर्न में, इस AI के आगे बेबस सिक्योरिटी एक्सपर्ट

द हफिंगटन पोस्ट ने एक ऐसी वेबसाइट के बारे में बताया है, जिसके द्वारा मशीन लर्निंग पर आधारित Deepfake तकनीक का उपयोग करके सिनेमा सेलिब्रिटी और आम महिलाओं के फोटो को न्यूड में बदला जा रहा था।

परमाणु हथियारों की तरह ही खतरनाक Deepfake तकनीक का उपयोग लगातार बढ़ता ही जा रहा है। इसके निशाने पर सबसे अधिक हैं, महिलाएँ जिनकी फोटो या वीडियो को ‘न्यूड’ बनाकर ऑनलाइन दुनिया में व्यू बढ़ाए जा रहे हैं और हिट्स कमाए जा रहे हैं। समस्या यह है कि साइबर सिक्योरिटी एक्सपर्ट्स भी इस Deepfake तकनीक को लेकर असमर्थ हैं। सेलिब्रिटी के फोटो और वीडियो को न्यूड में बदलने को लेकर शुरू हुई यह तकनीक अब आम महिलाओं के जीवन में भूचाल ला सकती है।

द हफिंगटन पोस्ट ने एक ऐसी वेबसाइट के बारे में बताया है, जिसके द्वारा मशीन लर्निंग पर आधारित Deepfake तकनीक का उपयोग करके सिनेमा सेलिब्रिटी और आम महिलाओं के फोटो को न्यूड में बदला जा रहा था। हफिंगटन पोस्ट की रिपोर्ट के मुताबिक, 2021 की शुरुआत से लेकर अब तक इस साइट को 38 मिलियन (3.8 करोड़) हिट मिल चुके हैं और बीबीसी की रिपोर्ट के मुताबिक, अकेले जून महीने में 5 मिलियन हिट (50 लाख)। Deepsukebe नाम की इस वेबसाइट का मिशन है, ‘पुरुषों के सपनों को साकार करना’ और यह वेबसाइट खुद को ‘आर्टिफिशियल इंटेलिजेंस (AI) आधारित न्यूडिफायर’ बताती है।

हालाँकि, फेसबुक और ट्विटर ने Deepsukebe को अपने प्लेटफॉर्म्स पर बैन कर रखा है, फिर भी यह वेबसाइट सिक्योरिटी संबंधी प्रोटोकॉल्स को दरकिनार करते हुए अलग-अलग आईपी एड्रेस के साथ काम कर रही है। Deepsukebe पर इस मामले में उसका बयान दिया हुआ है, जिसमें कहा गया है कि फोटो और वीडियो को न्यूड में बदलना ‘AI मॉडल पर आधारित एक कला’ है और इसे विकसित करने में सालों की मेहनत, पैसे और महीनों की AI मॉडल ट्रेनिंग की जरूरत पड़ती है।

Deepfake तकनीक का सबसे पहले पता 2017 में चला था, जब Deepfake नाम के ही रेडिट एकाउंट में कुछ पोर्न क्लिप्स अपलोड कर दिए गए थे। इन क्लिप्स में जो वास्तविक लोग थे, उनके चेहरों को हॉलीवुड की गल गैडोट, टेलर स्विफ्ट और स्कारलेट जॉनसन जैसी अभिनेत्रियों के चेहरों से बदल दिया गया था। वैसे तो हम सोशल मीडिया प्लेटफॉर्म्स में ऐसे वीडियो देखते हैं जो मनोरंजन के उद्देश्य से बनाए जाते हैं, लेकिन यह उससे भी बढ़कर कुछ और है। द गार्जियन की रिपोर्ट के मुताबिक, AI फर्म डीपट्रेस ने सितंबर 2019 में लगभग 15,000 डीपफेक वीडियो की पहचान की थी, जिनमें से लगभग 96% वीडियो पोर्नोग्राफिक थे।

इन पोर्न वीडियो में 99% ऐसे डीपफेक वीडियो थे, जहाँ हॉलीवुड सेलिब्रिटी या पॉप स्टार के चेहरों का उपयोग किया गया था। हालाँकि, तेजी से बढ़ती इस तकनीक का उपयोग अब आम महिलाओं के खिलाफ भी किया जा रहा है। इस तकनीक के विषय में चिंता की बात यह है कि ऐसे वीडियो को बनाने के लिए हाई क्वालिटी कंप्यूटर सिस्टम की आवश्यकता होती है और यही कारण है कि एक आम इंसान कभी भी इन वीडियो को आसानी से नहीं पहचान सकता है। चिंता की बात यह भी है कि Deepfake की संख्या लगातार बढ़ती ही जा रही है। इस पर रिसर्च करने वाली संस्था Sensity AI की रिपोर्ट के मुताबिक, 2018 के बाद से हर 6 महीने में Deepfake की संख्या दोगुनी हो रही है।

Join OpIndia's official WhatsApp channel

  सहयोग करें  

एनडीटीवी हो या 'द वायर', इन्हें कभी पैसों की कमी नहीं होती। देश-विदेश से क्रांति के नाम पर ख़ूब फ़ंडिग मिलती है इन्हें। इनसे लड़ने के लिए हमारे हाथ मज़बूत करें। जितना बन सके, सहयोग करें

ओम द्विवेदी
ओम द्विवेदी
Writer. Part time poet and photographer.

संबंधित ख़बरें

ख़ास ख़बरें

मुस्लिम लड़की और हिन्दू लड़के ने की मंदिर में शादी, अब्बू ने ‘दामाद’ पर ही करवा दी रेप की FIR: इलाहाबाद हाई कोर्ट ने...

इलाहाबाद हाई कोर्ट ने एक हिन्दू युवक को मुस्लिम लड़की से शादी करने के आधार पर जमानत दे दी। लड़के पर इसी लड़की के अपहरण और रेप का मामला दर्ज है।

कॉन्ग्रेस प्रवक्ता ने दिखानी चाही PM और गौतम अडानी की तस्वीर, दिखा दी अडानी और रॉबर्ट वाड्रा की फोटो: पैनलिस्ट ने कहा, ये ‘जीजा...

शो में शामिल OnlyFact India के संस्थापक विजय पटेल ने मजाक में कहा, "यह फोटो मोदी जी के साथ नहीं, जीजा जी (राहुल गाँधी के बहनोई) के साथ है।"
- विज्ञापन -