Wednesday, September 22, 2021
Homeविविध विषयविज्ञान और प्रौद्योगिकीDeepfake से महिलाओं के फोटो-वीडियो बदले जा रहे न्यूड और पोर्न में, इस AI...

Deepfake से महिलाओं के फोटो-वीडियो बदले जा रहे न्यूड और पोर्न में, इस AI के आगे बेबस सिक्योरिटी एक्सपर्ट

द हफिंगटन पोस्ट ने एक ऐसी वेबसाइट के बारे में बताया है, जिसके द्वारा मशीन लर्निंग पर आधारित Deepfake तकनीक का उपयोग करके सिनेमा सेलिब्रिटी और आम महिलाओं के फोटो को न्यूड में बदला जा रहा था।

परमाणु हथियारों की तरह ही खतरनाक Deepfake तकनीक का उपयोग लगातार बढ़ता ही जा रहा है। इसके निशाने पर सबसे अधिक हैं, महिलाएँ जिनकी फोटो या वीडियो को ‘न्यूड’ बनाकर ऑनलाइन दुनिया में व्यू बढ़ाए जा रहे हैं और हिट्स कमाए जा रहे हैं। समस्या यह है कि साइबर सिक्योरिटी एक्सपर्ट्स भी इस Deepfake तकनीक को लेकर असमर्थ हैं। सेलिब्रिटी के फोटो और वीडियो को न्यूड में बदलने को लेकर शुरू हुई यह तकनीक अब आम महिलाओं के जीवन में भूचाल ला सकती है।

द हफिंगटन पोस्ट ने एक ऐसी वेबसाइट के बारे में बताया है, जिसके द्वारा मशीन लर्निंग पर आधारित Deepfake तकनीक का उपयोग करके सिनेमा सेलिब्रिटी और आम महिलाओं के फोटो को न्यूड में बदला जा रहा था। हफिंगटन पोस्ट की रिपोर्ट के मुताबिक, 2021 की शुरुआत से लेकर अब तक इस साइट को 38 मिलियन (3.8 करोड़) हिट मिल चुके हैं और बीबीसी की रिपोर्ट के मुताबिक, अकेले जून महीने में 5 मिलियन हिट (50 लाख)। Deepsukebe नाम की इस वेबसाइट का मिशन है, ‘पुरुषों के सपनों को साकार करना’ और यह वेबसाइट खुद को ‘आर्टिफिशियल इंटेलिजेंस (AI) आधारित न्यूडिफायर’ बताती है।

हालाँकि, फेसबुक और ट्विटर ने Deepsukebe को अपने प्लेटफॉर्म्स पर बैन कर रखा है, फिर भी यह वेबसाइट सिक्योरिटी संबंधी प्रोटोकॉल्स को दरकिनार करते हुए अलग-अलग आईपी एड्रेस के साथ काम कर रही है। Deepsukebe पर इस मामले में उसका बयान दिया हुआ है, जिसमें कहा गया है कि फोटो और वीडियो को न्यूड में बदलना ‘AI मॉडल पर आधारित एक कला’ है और इसे विकसित करने में सालों की मेहनत, पैसे और महीनों की AI मॉडल ट्रेनिंग की जरूरत पड़ती है।

Deepfake तकनीक का सबसे पहले पता 2017 में चला था, जब Deepfake नाम के ही रेडिट एकाउंट में कुछ पोर्न क्लिप्स अपलोड कर दिए गए थे। इन क्लिप्स में जो वास्तविक लोग थे, उनके चेहरों को हॉलीवुड की गल गैडोट, टेलर स्विफ्ट और स्कारलेट जॉनसन जैसी अभिनेत्रियों के चेहरों से बदल दिया गया था। वैसे तो हम सोशल मीडिया प्लेटफॉर्म्स में ऐसे वीडियो देखते हैं जो मनोरंजन के उद्देश्य से बनाए जाते हैं, लेकिन यह उससे भी बढ़कर कुछ और है। द गार्जियन की रिपोर्ट के मुताबिक, AI फर्म डीपट्रेस ने सितंबर 2019 में लगभग 15,000 डीपफेक वीडियो की पहचान की थी, जिनमें से लगभग 96% वीडियो पोर्नोग्राफिक थे।

इन पोर्न वीडियो में 99% ऐसे डीपफेक वीडियो थे, जहाँ हॉलीवुड सेलिब्रिटी या पॉप स्टार के चेहरों का उपयोग किया गया था। हालाँकि, तेजी से बढ़ती इस तकनीक का उपयोग अब आम महिलाओं के खिलाफ भी किया जा रहा है। इस तकनीक के विषय में चिंता की बात यह है कि ऐसे वीडियो को बनाने के लिए हाई क्वालिटी कंप्यूटर सिस्टम की आवश्यकता होती है और यही कारण है कि एक आम इंसान कभी भी इन वीडियो को आसानी से नहीं पहचान सकता है। चिंता की बात यह भी है कि Deepfake की संख्या लगातार बढ़ती ही जा रही है। इस पर रिसर्च करने वाली संस्था Sensity AI की रिपोर्ट के मुताबिक, 2018 के बाद से हर 6 महीने में Deepfake की संख्या दोगुनी हो रही है।

  सहयोग करें  

एनडीटीवी हो या 'द वायर', इन्हें कभी पैसों की कमी नहीं होती। देश-विदेश से क्रांति के नाम पर ख़ूब फ़ंडिग मिलती है इन्हें। इनसे लड़ने के लिए हमारे हाथ मज़बूत करें। जितना बन सके, सहयोग करें

ओम द्विवेदी
Writer. Part time poet and photographer.

संबंधित ख़बरें

ख़ास ख़बरें

महंत नरेंद्र गिरी की संदिग्ध मौत की जाँच के लिए SIT गठित: CM योगी ने कहा – ‘जिस पर संदेह, उस पर सख्ती’

महंत नरेंद्र गिरी की मौत के मामले में गठित SIT में डेप्यूटी एसपी अजीत सिंह चौहान के साथ इंस्पेक्टर महेश को भी रखा गया है।

जिस राजस्थान में सबसे ज्यादा रेप, वहाँ की पुलिस भेज रही गंदे मैसेज-चौकी में भी हो रही दरिंदगी: कॉन्ग्रेस है तो चुप्पी है

NCRB 2020 की रिपोर्ट के मुताबिक राजस्थान में जहाँ 5,310 केस दुष्कर्म के आए तो वहीं उत्तर प्रेदश में ये आँकड़ा 2,769 का है।

प्रचलित ख़बरें

- विज्ञापन -

हमसे जुड़ें

295,307FansLike
123,642FollowersFollow
410,000SubscribersSubscribe