Saturday, April 27, 2024
Homeविविध विषयविज्ञान और प्रौद्योगिकीDeepfake से महिलाओं के फोटो-वीडियो बदले जा रहे न्यूड और पोर्न में, इस AI...

Deepfake से महिलाओं के फोटो-वीडियो बदले जा रहे न्यूड और पोर्न में, इस AI के आगे बेबस सिक्योरिटी एक्सपर्ट

द हफिंगटन पोस्ट ने एक ऐसी वेबसाइट के बारे में बताया है, जिसके द्वारा मशीन लर्निंग पर आधारित Deepfake तकनीक का उपयोग करके सिनेमा सेलिब्रिटी और आम महिलाओं के फोटो को न्यूड में बदला जा रहा था।

परमाणु हथियारों की तरह ही खतरनाक Deepfake तकनीक का उपयोग लगातार बढ़ता ही जा रहा है। इसके निशाने पर सबसे अधिक हैं, महिलाएँ जिनकी फोटो या वीडियो को ‘न्यूड’ बनाकर ऑनलाइन दुनिया में व्यू बढ़ाए जा रहे हैं और हिट्स कमाए जा रहे हैं। समस्या यह है कि साइबर सिक्योरिटी एक्सपर्ट्स भी इस Deepfake तकनीक को लेकर असमर्थ हैं। सेलिब्रिटी के फोटो और वीडियो को न्यूड में बदलने को लेकर शुरू हुई यह तकनीक अब आम महिलाओं के जीवन में भूचाल ला सकती है।

द हफिंगटन पोस्ट ने एक ऐसी वेबसाइट के बारे में बताया है, जिसके द्वारा मशीन लर्निंग पर आधारित Deepfake तकनीक का उपयोग करके सिनेमा सेलिब्रिटी और आम महिलाओं के फोटो को न्यूड में बदला जा रहा था। हफिंगटन पोस्ट की रिपोर्ट के मुताबिक, 2021 की शुरुआत से लेकर अब तक इस साइट को 38 मिलियन (3.8 करोड़) हिट मिल चुके हैं और बीबीसी की रिपोर्ट के मुताबिक, अकेले जून महीने में 5 मिलियन हिट (50 लाख)। Deepsukebe नाम की इस वेबसाइट का मिशन है, ‘पुरुषों के सपनों को साकार करना’ और यह वेबसाइट खुद को ‘आर्टिफिशियल इंटेलिजेंस (AI) आधारित न्यूडिफायर’ बताती है।

हालाँकि, फेसबुक और ट्विटर ने Deepsukebe को अपने प्लेटफॉर्म्स पर बैन कर रखा है, फिर भी यह वेबसाइट सिक्योरिटी संबंधी प्रोटोकॉल्स को दरकिनार करते हुए अलग-अलग आईपी एड्रेस के साथ काम कर रही है। Deepsukebe पर इस मामले में उसका बयान दिया हुआ है, जिसमें कहा गया है कि फोटो और वीडियो को न्यूड में बदलना ‘AI मॉडल पर आधारित एक कला’ है और इसे विकसित करने में सालों की मेहनत, पैसे और महीनों की AI मॉडल ट्रेनिंग की जरूरत पड़ती है।

Deepfake तकनीक का सबसे पहले पता 2017 में चला था, जब Deepfake नाम के ही रेडिट एकाउंट में कुछ पोर्न क्लिप्स अपलोड कर दिए गए थे। इन क्लिप्स में जो वास्तविक लोग थे, उनके चेहरों को हॉलीवुड की गल गैडोट, टेलर स्विफ्ट और स्कारलेट जॉनसन जैसी अभिनेत्रियों के चेहरों से बदल दिया गया था। वैसे तो हम सोशल मीडिया प्लेटफॉर्म्स में ऐसे वीडियो देखते हैं जो मनोरंजन के उद्देश्य से बनाए जाते हैं, लेकिन यह उससे भी बढ़कर कुछ और है। द गार्जियन की रिपोर्ट के मुताबिक, AI फर्म डीपट्रेस ने सितंबर 2019 में लगभग 15,000 डीपफेक वीडियो की पहचान की थी, जिनमें से लगभग 96% वीडियो पोर्नोग्राफिक थे।

इन पोर्न वीडियो में 99% ऐसे डीपफेक वीडियो थे, जहाँ हॉलीवुड सेलिब्रिटी या पॉप स्टार के चेहरों का उपयोग किया गया था। हालाँकि, तेजी से बढ़ती इस तकनीक का उपयोग अब आम महिलाओं के खिलाफ भी किया जा रहा है। इस तकनीक के विषय में चिंता की बात यह है कि ऐसे वीडियो को बनाने के लिए हाई क्वालिटी कंप्यूटर सिस्टम की आवश्यकता होती है और यही कारण है कि एक आम इंसान कभी भी इन वीडियो को आसानी से नहीं पहचान सकता है। चिंता की बात यह भी है कि Deepfake की संख्या लगातार बढ़ती ही जा रही है। इस पर रिसर्च करने वाली संस्था Sensity AI की रिपोर्ट के मुताबिक, 2018 के बाद से हर 6 महीने में Deepfake की संख्या दोगुनी हो रही है।

Special coverage by OpIndia on Ram Mandir in Ayodhya

  सहयोग करें  

एनडीटीवी हो या 'द वायर', इन्हें कभी पैसों की कमी नहीं होती। देश-विदेश से क्रांति के नाम पर ख़ूब फ़ंडिग मिलती है इन्हें। इनसे लड़ने के लिए हमारे हाथ मज़बूत करें। जितना बन सके, सहयोग करें

ओम द्विवेदी
ओम द्विवेदी
Writer. Part time poet and photographer.

संबंधित ख़बरें

ख़ास ख़बरें

लोकसभा चुनाव 2024: बंगाल में हिंसा के बीच देश भर में दूसरे चरण का मतदान संपन्न, 61%+ वोटिंग, नॉर्थ ईस्ट में सर्वाधिक डाले गए...

छत्तीसगढ़ के नक्सल प्रभावित बस्तर संभाग के 102 गाँवों में पहली बार लोकसभा के लिए मतदान हुआ।

‘इस्लाम में दूसरे का अंग लेना जायज, लेकिन अंगदान हराम’: पाकिस्तानी लड़की के भारत में दिल प्रत्यारोपण पर उठ रहे सवाल, ‘काफिर किडनी’ पर...

पाकिस्तानी लड़की को इतनी जल्दी प्रत्यारोपित करने के लिए दिल मिल जाने पर सोशल मीडिया यूजर ने हैरानी जताते हुए सवाल उठाया है।

प्रचलित ख़बरें

- विज्ञापन -

हमसे जुड़ें

295,307FansLike
282,677FollowersFollow
417,000SubscribersSubscribe