Thursday, April 24, 2025
Homeविविध विषयविज्ञान और प्रौद्योगिकीDeepfake से महिलाओं के फोटो-वीडियो बदले जा रहे न्यूड और पोर्न में, इस AI...

Deepfake से महिलाओं के फोटो-वीडियो बदले जा रहे न्यूड और पोर्न में, इस AI के आगे बेबस सिक्योरिटी एक्सपर्ट

द हफिंगटन पोस्ट ने एक ऐसी वेबसाइट के बारे में बताया है, जिसके द्वारा मशीन लर्निंग पर आधारित Deepfake तकनीक का उपयोग करके सिनेमा सेलिब्रिटी और आम महिलाओं के फोटो को न्यूड में बदला जा रहा था।

परमाणु हथियारों की तरह ही खतरनाक Deepfake तकनीक का उपयोग लगातार बढ़ता ही जा रहा है। इसके निशाने पर सबसे अधिक हैं, महिलाएँ जिनकी फोटो या वीडियो को ‘न्यूड’ बनाकर ऑनलाइन दुनिया में व्यू बढ़ाए जा रहे हैं और हिट्स कमाए जा रहे हैं। समस्या यह है कि साइबर सिक्योरिटी एक्सपर्ट्स भी इस Deepfake तकनीक को लेकर असमर्थ हैं। सेलिब्रिटी के फोटो और वीडियो को न्यूड में बदलने को लेकर शुरू हुई यह तकनीक अब आम महिलाओं के जीवन में भूचाल ला सकती है।

द हफिंगटन पोस्ट ने एक ऐसी वेबसाइट के बारे में बताया है, जिसके द्वारा मशीन लर्निंग पर आधारित Deepfake तकनीक का उपयोग करके सिनेमा सेलिब्रिटी और आम महिलाओं के फोटो को न्यूड में बदला जा रहा था। हफिंगटन पोस्ट की रिपोर्ट के मुताबिक, 2021 की शुरुआत से लेकर अब तक इस साइट को 38 मिलियन (3.8 करोड़) हिट मिल चुके हैं और बीबीसी की रिपोर्ट के मुताबिक, अकेले जून महीने में 5 मिलियन हिट (50 लाख)। Deepsukebe नाम की इस वेबसाइट का मिशन है, ‘पुरुषों के सपनों को साकार करना’ और यह वेबसाइट खुद को ‘आर्टिफिशियल इंटेलिजेंस (AI) आधारित न्यूडिफायर’ बताती है।

हालाँकि, फेसबुक और ट्विटर ने Deepsukebe को अपने प्लेटफॉर्म्स पर बैन कर रखा है, फिर भी यह वेबसाइट सिक्योरिटी संबंधी प्रोटोकॉल्स को दरकिनार करते हुए अलग-अलग आईपी एड्रेस के साथ काम कर रही है। Deepsukebe पर इस मामले में उसका बयान दिया हुआ है, जिसमें कहा गया है कि फोटो और वीडियो को न्यूड में बदलना ‘AI मॉडल पर आधारित एक कला’ है और इसे विकसित करने में सालों की मेहनत, पैसे और महीनों की AI मॉडल ट्रेनिंग की जरूरत पड़ती है।

Deepfake तकनीक का सबसे पहले पता 2017 में चला था, जब Deepfake नाम के ही रेडिट एकाउंट में कुछ पोर्न क्लिप्स अपलोड कर दिए गए थे। इन क्लिप्स में जो वास्तविक लोग थे, उनके चेहरों को हॉलीवुड की गल गैडोट, टेलर स्विफ्ट और स्कारलेट जॉनसन जैसी अभिनेत्रियों के चेहरों से बदल दिया गया था। वैसे तो हम सोशल मीडिया प्लेटफॉर्म्स में ऐसे वीडियो देखते हैं जो मनोरंजन के उद्देश्य से बनाए जाते हैं, लेकिन यह उससे भी बढ़कर कुछ और है। द गार्जियन की रिपोर्ट के मुताबिक, AI फर्म डीपट्रेस ने सितंबर 2019 में लगभग 15,000 डीपफेक वीडियो की पहचान की थी, जिनमें से लगभग 96% वीडियो पोर्नोग्राफिक थे।

इन पोर्न वीडियो में 99% ऐसे डीपफेक वीडियो थे, जहाँ हॉलीवुड सेलिब्रिटी या पॉप स्टार के चेहरों का उपयोग किया गया था। हालाँकि, तेजी से बढ़ती इस तकनीक का उपयोग अब आम महिलाओं के खिलाफ भी किया जा रहा है। इस तकनीक के विषय में चिंता की बात यह है कि ऐसे वीडियो को बनाने के लिए हाई क्वालिटी कंप्यूटर सिस्टम की आवश्यकता होती है और यही कारण है कि एक आम इंसान कभी भी इन वीडियो को आसानी से नहीं पहचान सकता है। चिंता की बात यह भी है कि Deepfake की संख्या लगातार बढ़ती ही जा रही है। इस पर रिसर्च करने वाली संस्था Sensity AI की रिपोर्ट के मुताबिक, 2018 के बाद से हर 6 महीने में Deepfake की संख्या दोगुनी हो रही है।

Join OpIndia's official WhatsApp channel

  सहयोग करें  

एनडीटीवी हो या 'द वायर', इन्हें कभी पैसों की कमी नहीं होती। देश-विदेश से क्रांति के नाम पर ख़ूब फ़ंडिग मिलती है इन्हें। इनसे लड़ने के लिए हमारे हाथ मज़बूत करें। जितना बन सके, सहयोग करें

ओम द्विवेदी
ओम द्विवेदी
Writer. Part time poet and photographer.

संबंधित ख़बरें

ख़ास ख़बरें

यूँ ही अडानी के पीछे नहीं पड़ा था हिंडनबर्ग, राहुल गाँधी के अंकल सैम पित्रोदा का हाथ होने का रिपोर्ट में दावा: मोसाद ने...

हिंडनबर्ग के हमले का जवाब देने में गौतम अडानी की मदद मोसाद और इजरायली प्रधानमन्त्री नेतन्याहू ने की थी। इसके चलते हिंडनबर्ग पर ताला पड़ गया।

मेरा नाम ‘भारत’ है… सुनते ही इस्लामी आतंकियों ने पत्नी और 3 साल के बेटे के सामने मार दी गोली, पहलगाम में सुशील की...

पहलगाम में आतंकियों ने लोगों से उनका धर्म पूछा और कुछ लोगों से कलमा पढ़ने को कहा। वो हिंदू मिले और जो कलमा नहीं पढ़ सके उन्हें गोली मार दी।
- विज्ञापन -