पूर्व क्रिकेटर सचिन तेंदुलकर भी डीपफेक का शिकार हुए हैं। उनकी एक इंटरव्यू की वीडियो को उठा कर एक गेमिंग एप को प्रमोट करने वाली वीडियो बना ली गई है। मास्टर ब्लास्टर ने एक्स (पहले ट्विटर) पर इस वीडियो को फर्जी बताया है और ऐसे मामलों पर कार्रवाई की माँग की है।
सचिन तेंदुलकर ने 15 जनवरी, 2024 को अपने एक्स अकाउंट पर 30 सेकेंड लंबी यह वीडियो साझा की है। उन्होंने इस वीडियो के साथ लिखा, “ये वीडियो नकली है और आपको धोखा देने के लिए बनाया गया है। टेक्नोलॉजी का इस प्रकार का दुरुपयोग बिल्कुल गलत है। आप सब से विनती है कि ऐसे वीडियो या एप या विज्ञापन आपको अगर नजर आए तो उन्हें तुरंत रिपोर्ट करें।”
These videos are fake. It is disturbing to see rampant misuse of technology. Request everyone to report videos, ads & apps like these in large numbers.
— Sachin Tendulkar (@sachin_rt) January 15, 2024
Social Media platforms need to be alert and responsive to complaints. Swift action from their end is crucial to stopping the… pic.twitter.com/4MwXthxSOM
आगे उन्होंने लिखा, “सोशल मीडिया प्लेटफार्मों को भी सावधान रहना चाहिए और इनके खिलाफ की गई शिकायत पर जल्द से जल्द एक्शन लेना चाहिए। उनकी भूमिका इस बारे में बहुत जरूरी है ताकि गलत सूचना और खबरों को रोका जा सके और डीपफेक का दुरुपयोग खत्म हो।”
दरअसल में वायरल वीडियो में एआई तकनीक का इस्तेमाल करते हुए सचिन तेंदुलकर को एक गेमिंग एप की बात करते हुए दिखाया गया है। सचिन के चेहरे और आवाज वाली वीडियो में कहा गया है, “मेरी बेटी इस समय यह गेम खेल रही है, जिसके बारे में हर कोई बात कर रहा है- एविएटर। वह स्काईवड एविटर क्वेस्ट एप खेल कर हर दिन 180 हजार रुपए निकालती है। मुझे कभी आश्चर्य होता है कि अच्छा पैसा कमाना कितना आसान हो गया है और सबसे दिलचस्प बात यह है कि यह एप मुफ्त है। कोई भी आईफोन मालिक इसे डाउनलोड कर सकता है।”
ऑपइंडिया ने अपनी जाँच में यह पाया कि जिस वीडियो से सचिन की यह फर्जी क्लिप बनाई गई है वह उनके आठ महीने पुराने एक इंटरव्यू में से निकाली गई है। यह वीडियो 24 अप्रैल 2023 को कामिया जानी नाम की एक लाइफस्टाइल व्लागर के यूट्यूब चैनल कर्ली टेल्स पर डाला गया है।
ध्यान देने वाली बात है कि यहाँ जब सचिन सामने नहीं दिखते तो पीछे से आ रही आवाज भी बिल्कुल उनके जैसी है। किसी एप या गेम का प्रचार करने के लिए किसी बड़ी हस्ती का डीपफेक बनाने का यह पहला मामला नहीं है। इससे पहले नवम्बर 2024 में कारोबारी रतन टाटा का एक डीपफेक वीडियो बनाया गया था। इसमें उन्हें सट्टेबाजी को प्रमोट करते हुए दिखाया गया था। इसमें भी एविएटर नाम के ही एप को बढ़ावा दिया जा रहा था। उन्होंने इसकी सच्चाई ट्विटर पर लोगों को बताई थी।
गौरतलब है कि लोगों को पैसे का लालच देने वाले कई एप का प्रचार किया जाता है। कभी-कभी इन एप में लोगों से पैसा डालकर उनसे कमाई की बात कही जाती है तो कभी कुछ सवाल के जवाब देकर पैसा कमाने का झाँसा दिया जाता है। बहुत बार ऐसे एप के नाम से लोगों को ठगा भी जाता है।
गौरतलब है कि सचिन तेंदुलकर से पहले अभिनेत्री रश्मिका मंदाना और कैटरीना कैफ के साथ भी ऐसा हो चुका है। उनके भी डीपफेक के जरिए वीडियो बनाकर वायरल किए गए थे। इसके बाद भारत में डीपफेक को लेकर नई बहस भी छिड़ी थी।
कैसे काम करता है डीपफेक, जिससे सचिन की वीडियो बनाई गई?
डीपफेक तकनीक से वीडियो बनाना एक लम्बी प्रक्रिया है। सबसे पहले जिन दो लोगों के चेहरे आपस में बदले जाने हैं उनके हजारों फोटो वीडियो ‘एनकोडर’ नाम के एक AI आधारित प्रोग्राम पर चलाए जाते हैं। यह तकनीक इन दो चेहरों की समानताएँ परखती है। इसके बाद यह तकनीक इन चेहरों को केवल उनकी समानताओं के आधार पर सीमित कर देती है और एक कंप्रेस्ड इमेज बनाती है।
इसके पश्चात एक और AI तकनीक ‘डीकोडर’ से चेहरा तलाशने को कहा जाता है। आसान भाषा में समझे तो इनकोडर को ‘A’ का चेहरा पढ़ने के लिए तैयार किया जाता और डीकोडर को ‘B’ का चेहरा पढ़ने के लिए तैयार किया जाता है। इसके पश्चात दोनों मशीनों से यह चेहरा बनाने को कहा जाता है, लेकिन इस स्थिति में इनकोडर को B का और डीकोडर को A का चेहरा बनाने को कहा जाएगा। ऐसे में मान लीजिए कि B उस फोटो में रो रहा है तो नई फोटो में A रोता हुआ दिखेगा।
इसके अलावा एक अन्य तकनीक जिसका नाम ‘जनरेटिव एड्वर्सियल नेटवर्क’ (GAN) है उसके जरिए भी इस तरह का फर्जीवाड़ा किया जाता है। इसमें एक गड़बड़ तस्वीर और एक सही तस्वीर डाली जाती है। AI तकनीक इन दोनों के कोड डिकोड करके फोटो को आपस में मिलाती है। इसमें समय लगता है।