Friday, October 11, 2024
Homeसोशल ट्रेंड'अमीर कैसे बनें, आमिर खान के बारे में जानिए': अब रतन टाटा हुए डीपफेक...

‘अमीर कैसे बनें, आमिर खान के बारे में जानिए’: अब रतन टाटा हुए डीपफेक के शिकार, सट्टेबाजी को प्रमोट करते दिखाया

रश्मिका मंदाना, कैटरीना कैफ, सारा तेंदुलकर, ऐश्वर्या राय, काजोल सहित विभिन्न हस्तियों के बाद अब भारत के प्रसिद्ध उद्योगपति रतन टाटा का डीपफेक वीडियो सामने आया है। इस वीडियो में रतन टाटा को ऑनलाइन सट्टेबाजी का समर्थन करते दिखाया गया है।

AI तकनीक पर आधारित डीपफेक (DeepFake) अब दुनिया भर के लोगों के लिए मुसीबत बनता जा रहा है। रश्मिका मंदाना, कैटरीना कैफ, सारा तेंदुलकर, ऐश्वर्या राय, काजोल सहित विभिन्न हस्तियों के बाद अब रतन टाटा का डीपफेक वीडियो सामने आया है। इस वीडियो में भारत के प्रसिद्ध उद्योगपति रतन टाटा को ऑनलाइन सट्टेबाजी का समर्थन करते दिखाया गया है।

सोशल मीडिया पर वायरल हो रहे इस वीडियो में रतन टाटा को ऑनलाइन सट्टेबाजी कोच का समर्थन करते हुए दिखाया गया है। इसके साथ ही आमिर खान नाम के एक शख्स के टेलीग्राम चैनल से जुड़ने के लिए लोगों से कहा जा रहा है। इसके माध्यम से अधिक से अधिक लोगों को फँसाने की कोशिश की जा रही है।

इस फेक वीडियो में रतन टाटा कहते हुए दिख रहे हैं, “लोग मुझसे हर समय पूछते रहते हैं कि अमीर कैसे बनें और मैं उन्हें अपने दोस्त आमिर खान के बारे में बताना चाहता हूँ। भारत में कई लोगों ने एविएटर खेलकर लाखों रुपए कमाए हैं। उनके प्रोग्रामरों, विश्लेषकों, AI और Chat GPT को धन्यवाद कि इसमें जीतने की संभावना 90 प्रतिशत है।”

इस फर्जी वीडियो में रतन टाटा का वीडियो प्रयोग किया गया है और उसमें छेड़छाड़ करके उसे स्कैमर द्वारा अपने प्रयोग के लिए बनाया गया है। रतन टाटा का यह मूल वीडियो संभवत: जून 2015 का है। इसमें वे एचईसी पेरिस बिजनेस स्कूल में मानद डिग्री प्राप्त करने के बाद बोलते हुए नजर आए थे।

मीडिया रिपोर्ट के मुताबिक, आमिर खान एक घोटालेबाज है, जो @aviator_ultrawin नाम से टेलीग्राम चैनल चलाता है। आमिर खान का दावा है कि लोग उसका ‘एविएटर’ बेटिंग गेम खेलकर हर दिन कम से कम एक लाख रुपए कमा सकते हैं। गेम खेलने के लिए वह यूजर्स से ‘एविएटर’ पर रजिस्ट्रेशन करने के लिए बोलता है।

दिए गए लिंक पर क्लिक करने के बाद ‘1विन’ नाम का एक अलग खेल सट्टेबाजी और कैसीनो प्लेटफ़ॉर्म खुलता है। यहाँ पर यूजर का फोन नंबर और ईमेल आईडी माँगा जाता है। आमतौर पर मोबाइल और ईमेल आईडी जैसी व्यक्तिगत जानकारी हासिल करने के लिए घोटालेबाजों द्वारा इस तरह की रणनीति अपनाई जाती है।

बता दें कि कुछ दिन पहले ही बॉलीवुड अभिनेत्री काजोल का एक अश्लील वीडियो सामने आया था। डीपफेक तकनीक का इस्तेमाल करके बनाए गए इस वीडियो में वो कैमरे के सामने कपड़े बदलती नजर आ रही हैं। दरअसल, रोजी ब्रीन नाम की एक सोशल एंफ्लुएंसर का वीडियो में रोजी के चेहरे से छेड़छाड़ करके काजोल का चेहरा लगा दिया गया था।

इसी तरह बॉलीवुड अभिनेत्री रश्मिका मंदाना का वीडियो शेयर किया गया था। इसमें जारा पटेल नाम की एक ब्रिटिश-इंडियन इन्फ्लुएंसर के वीडियो में छेड़छाड़ करके रश्मिका का चेहरा लगा दिया गया था। जारा अक्सर अंतरंग वस्त्रों में तस्वीरें और वीडियो सोशल मीडिया पर अपलोड करती रहती हैं। इसके बाद रश्मिका ने दिल्ली पुलिस में प्राथमिकी दर्ज कराई थी।

रश्मिका मामले के बाद केंद्रीय इलेक्ट्रॉनिक्स एवं टेक्नोलॉजी राज्यमंत्री राजीव चंद्रशेखर ने भी कहा था कि इस वीडियो पर प्रतिक्रिया देते हुए कहा कि प्रधानमंत्री नरेंद्र मोदी की सरकार इंटरनेट का इस्तेमाल कर रहे सभी डिजिटल नागरिकों की सुरक्षा एवं भरोसे को सुनिश्चित करने के लिए प्रतिबद्ध है। पीएम मोदी ने भी दिवाली मिलन समारोह में डीपफेक पर चिंता जताई थी और देश के लिए खतरा बताया था।

अब केन्द्रीय रेल और सूचना प्रोद्यौगिकी मंत्री अश्विनी वैष्णव ने गुरुवार (23 नवंबर 2023) डीपफेक पर बढ़ती चिंताओं पर कहा है कि इन्हें रोकने के लिए केंद्र सरकार नया क़ानून लाएगी या फिर जरूरत के अनुसार पुराने क़ानून में संशोधन करेगी। उन्होंने ऐसे वीडियो बनाने वालों पर भी कार्रवाई करने की बात कही है।

अब, केंद्रीय इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्री राजीव चंद्रशेखर ने शुक्रवार (24 नवंबर 2023) को कहा कि सरकार ऑनलाइन प्लेटफार्मों पर डीपफेक कॉन्टेंट की निगरानी के लिए एक विशेष अधिकारी को नियुक्त करेगी। यह अधिकारी डीपफेक के मामलों में एफआईआर दर्ज करने में नागरिकों की सहायता करेगा।

डीपफेक क्या होता है?

डीपफेक तकनीक से वीडियो बनाना एक लम्बी प्रक्रिया है। सबसे पहले जिन दो लोगों के चेहरे आपस में बदले जाने हैं उनके हजारों फोटो वीडियो ‘एनकोडर’ नाम के एक AI आधारित प्रोग्राम पर चलाए जाते हैं। यह तकनीक इन दो चेहरों की समानताएँ परखती है। इसके बाद यह तकनीक इन चेहरों को केवल उनकी समानताओं के आधार पर सीमित कर देती है और एक कंप्रेस्ड इमेज बनाती है।

इसके पश्चात एक और AI तकनीक ‘डीकोडर’ से चेहरा तलाशने को कहा जाता है। आसान भाषा में समझे तो इनकोडर को ‘A’ का चेहरा पढ़ने के लिए तैयार किया जाता और डीकोडर को ‘B’ का चेहरा पढ़ने के लिए तैयार किया जाता है। इसके पश्चात दोनों मशीनों से यह चेहरा बनाने को कहा जाता है लेकिन इस स्थिति में इनकोडर को B का और डीकोडर को A का चेहरा बनाने को कहा जाएगा। ऐसे में मान लीजिए कि B उस फोटो में रो रहा है तो नई फोटो में A रोता हुआ दिखेगा।

इसके अलावा एक अन्य तकनीक जिसका नाम ‘जनरेटिव एड्वर्सियल नेटवर्क’ (GAN) है उसके जरिए भी बनाई जाती हैं। इसमें एक गड़बड़ तस्वीर और एक सही तस्वीर डाली जाती है। AI तकनीक इन दोनों के कोड डिकोड करके फोटो को आपस में मिलाती है। इसमें समय लगता है।

Join OpIndia's official WhatsApp channel

  सहयोग करें  

एनडीटीवी हो या 'द वायर', इन्हें कभी पैसों की कमी नहीं होती। देश-विदेश से क्रांति के नाम पर ख़ूब फ़ंडिग मिलती है इन्हें। इनसे लड़ने के लिए हमारे हाथ मज़बूत करें। जितना बन सके, सहयोग करें

ऑपइंडिया स्टाफ़
ऑपइंडिया स्टाफ़http://www.opindia.in
कार्यालय संवाददाता, ऑपइंडिया

संबंधित ख़बरें

ख़ास ख़बरें

अल्पसंख्यक हैं मिजोरम में हिंदू, फिर भी हरि मंदिर को बचाने में जुटे: असम राइफल्स के जाने के बाद राज्य सरकार के कब्जे में...

पूर्वोत्तर भारत के राज्य मिजोरम में हिन्दू असम राइफल्स की कैंटोनमेंट में स्थित अपना एक मंदिर सरकारी नियंत्रण में जाने से बचाने को लड़ रहे हैं।

बिहार में ईसाई धर्मांतरण की ग्राउंड रिपोर्ट, YouTube ने डिलीट किया वीडियो: क्या फेसबुक भी उड़ा देगा, बिग टेक कंपनियों की वामपंथी पॉलिसी कब...

पहली बार नहीं है कि किसी मामले को लेकर बड़ी टेक कंपनियों के वामपंथी रवैये पर सवाल खड़ा किया जा रहा हो। इनका प्रभाव फेसबुक पोस्ट से लेकर इंस्टा की रीच तक पर आप देख सकते हैं।

प्रचलित ख़बरें

- विज्ञापन -