Rajat Sharma

‘डीप फेक’ वीडियो : एक नया खतरा

AKB30 आज आपको एक खतरे के बारे में आगाह करना चाहता हूं। ये खतरा है, डीप फेक वीडियो का। प्रधानमंत्री नरेन्द्र मोदी ने शुक्रवार को इस बारे में चेतावनी भी दी। मोदी ने कहा कि एक तरफ नई-नई टैक्नोलॉजी जिंदगी को जहां आसान बना रही है, वहीं नई टैक्नोलॉजी के अपने खतरे भी हैं। ऐसे खतरे, जो किसी की जिंदगी बर्बाद कर सकते हैं, सामाजिक ताने-बाने को खराब कर सकते हैं, समाज में तनाव पैदा कर सकते हैं, इसलिए इससे सावधान रहने की ज़रूरत है। मोदी ने कहा कि आर्टिफिशियल इंटैलीजेंस के आने के बाद अब जागरूकता जरूरी है क्योंकि आर्टिफीशियल इंटैलीजेंस असली-नकली का फर्क खत्म कर देती है, पता ही नहीं चलता कि क्या सच्चा है और क्या नकली। मोदी ने फेक वीडियो की बात की। कहा कि आजकल सबके हाथ में फोन है, हर फोन में तमाम तरह के एप हैं, सबमें सोशल मीडिया एप हैं और अगर एक फेक वीडियो आता है तो वो कुछ ही मिनटों में सोशल मीडिया के जरिए लाखों लोगों तक पहुंच जाता है, लोग उसे सही समझ लेते हैं। इससे किसी व्यक्ति या समाज का बड़ा नुकसान हो सकता है।

मोदी ने जो कहा वो बात सुनने में छोटी लग सकती है लेकिन ये खतरा वाकई में बहुत बड़ा है। मोदी शुक्रवार को पत्रकारों के साथ एक दीपावली मिलन समारोह में बोल रहे थे। उन्होंने बताया कि कैसे एक नकली वीडियो में उन्हें महिलाओं के साथ गरबा डांस करते हुए दिखाया गया। मोदी ने बताया कि स्कूल के दिनों के बाद से उन्होंने कभी गरबा डांस किया ही नहीं। लेकिन इस वीडियो को देखकर कोई नहीं कह सकता कि वीडियो में जो व्यक्ति गरबा कर रहा है, वो प्रधानमंत्री नहीं। ये एक डीप फेक वीडियो है। चूंकि टैकनोलॉजी इतनी आगे बढ़ गई है कि किसी भी व्यक्ति को कुछ भी करते हुए, कहते हुए दिखाया जा सकता है। चेहरा भी उसी का होगा, आवाज़ भी उसी की होगी, लेकिन सब नकली। और क्या असली है, क्या नकली है, इसकी पुष्टि करने के लिए आम लोगों के पास कोई ज़रिया नहीं है। इसलिए जो दिखता है, लोग उसी पर भरोसा कर लेते हैं। मोदी ने कहा कि अभी भले समझ में न आए लेकिन आर्टिफिशियल इंटैलीजेंस का खतरा भविष्य में बड़ी परेशानियां पैदा कर सकता है, इसलिए इसके प्रति लोगों को सावधान करने की जरूरत है।

फेक वीडियो का कैसे दुरूपयोग हो सकता है, इसका उदाहरण मध्य प्रदेश के चुनाव में हुआ। चुनाव के दौरान फेक वीडियो का खूब इस्तेमाल हुआ। कांग्रेस और बीजेपी ने इसको लेकर चुनाव आयोग में एक दूसरे के खिलाफ खूब शिकायतें कीं। शुक्रवार को वोटिंग खत्म होने के बाद मुख्यमंत्री शिवराज चौहान ने आरोप लगाया कि कांग्रेस ने चुनाव के दौरान नकली, झूठे वीडियो दिखाए और जनता को गुमराह करने की कोशिश की। दरअसल, बीजेपी ने झूठे प्रचार और गलत तरीकों से प्रचार के करीब दो दर्जन शिकायतें की हैं, इनमें ज्यादातर शिकायतें उन वीडियो की है, जो दूसरे वीडियो पर नकली आवाज़ और ग्राफिक्स सुपरइंपोज करके बनाए गए हैं। इस तरह के कई वीडियो मध्य प्रदेश में सोशल मीडिया के जरिए खूब फैलाए गए। एक वीडियो में दिखाया गया कि शिवराज सिंह कैबिनेट की मीटिंग के दौरान मंत्रियों और अफसरों से कह रहे है कि ‘जनता बहुत नाराज है.. बीजेपी भारी अंतर से हार सकती है…इसलिए कुछ भी करो…हर गांव में जाओ, बूथ पर जाओ…जो करना है करो…अभी वक्त है…सब ठीक करो…मैनेज करो…’ असली वीडियो चुनाव के एलान से पहले शिवराज सिंह चौहान की आखिरी कैबिनेट मीटिंग का है। वीडियो असली था, लेकिन इसमें आवाज शिवराज सिंह चौहान की नहीं है। चौहान की आवाज की हुबहू नकल करके इसे वीडियो पर सुपर इंपोज किया गया। इस वीडियो को जिन व्हॉट्सऐप ग्रुप्स के जरिए फैलाया गया, उनकी शिकायत पुलिस से की गई। पुलिस ने जांच करके इस तरह के वीडियो को तमाम सोशल मीडिया प्लेटफॉर्म्स से हटवाया। इस तरह के वीडियो कांग्रेस से जुड़े लोगों की तरफ से सर्कुलेट किए गए। ऐसे दर्जनों वीडियो बनाए गए।

‘कौन बनेगा करोड़पति’ की ओरिजनल क्लिप से छेड़छाड़ की गई। होस्ट और कंटेस्टेंट की आवाज़ बदलकर सारा कटेंट बदल दिया गया। इस वीडियो से ये मैसेज देने की कोशिश की गई कि शिवराज सिंह सिर्फ घोषणाएं करते हैं, उन पर अमल नहीं करते। कौन बनेगा करोड़पति शो के होस्ट अमिताभ बच्चन थे, लेकिन आवाज सबकी नकली थी। आवाज सुपरइंपोज करके, ग्राफिक्स डालकर ऐसा दिखाने की कोशिश की गई जैसे वाकई में ‘कौन बनेगा करोड़पति’ में सवाल पूछा गया और शिवराज सिंह चौहान को घोषणा मुख्यमंत्री बताया गया। कांग्रेस के नेताओं और कार्यकर्ताओं ने इसे मध्य प्रदेश में खूब सर्कुलेट किया। ‘कौन बनेगा करोड़पति’ को टेलीकास्ट करने वाली कंपनी सोनी टीवी को सफाई देनी पड़ी जिसमें कहा गया कि ये नकली वीडियो है, होस्ट और कंटेस्टेंट्स की आवाज़ से छेड़छाड़ की गई है, साइबर क्राइम सेल में शिकायत की गई है। सोनी टीवी ने लोगों से अपील की कि इस तरह के वीडियो शेयर न करें। इसी तरह मशहूर एक्टर कार्तिक आर्यन को भी इस तरह के गुमराह करने वाले एक नकली कैम्पेन में लपेट लिया गया। कांग्रेस के ब्लू टिक वाले किसी समर्थक ने कार्तिक आर्यन का एक वीडियो शेयर कर दिया और उसके साथ कैप्शन लिखा कि अब तो कार्तिक आर्यन भी कांग्रेस का समर्थन करने लगे हैं। चूंकि कार्तिक आर्यन मध्यप्रदेश के ही रहने वाले हैं, इसलिए जानबूझकर उनका वीडियो इस फर्जी कैम्पेन के लिए इस्तेमाल किया गया। इस वीडियो की खास बात ये थी कि इसमें कांग्रेस का चुनाव निशान पंजा भी लगाया गया था। कार्तिक आर्यन ने अगले ही दिन स्पष्टीकरण जारी कर दिया और कहा कि जिस वीडियो से छेड़छाड़ कर सियासत की जा रही है वो तो एक OTT प्लेटफॉर्म का एड है, जिसे डॉक्टर्ड करके कांग्रेस का विज्ञापन बना दिया गया।

नकली वीडियो की समस्या गंभीर है। अब AI से, DEEP FAKE से ये खतरा और भी बढ़ गया है। चुनाव के दौरान शिवराज सिंह को बदनाम करने के लिए अमिताभ बच्चन की लोकप्रियता का गलत इस्तेमाल किया गया, KBC जैसे बड़े शो की विश्सनीयता का बेजा इस्तेमाल हुआ, ये खतरनाक प्रवृत्ति है। जब तक चुनाव आयोग के पास शिकायतें पहुंची, पुलिस में FIR हुई तब तक काफी नुकसान हो चुका था। ये तो कुछ मिसालें हैं। आजकल सबके फोन में नकली वीडियो हर रोज़ आते हैं लेकिन ज्यादातर लोग इन्हें गंभीरता से नहीं लेते। जो गंभीरता से लेते हैं, उनके पास इन वीडियो की सच्चाई जानने का कोई तरीका नहीं है। मुझे हर रोज पांच-छह लोग वीडियो भेजकर पूछते हैं, क्या ये सही है या fake है? इंडिया टीवी के पास एक टीम है जो ऐसे वीडियो को वैरिफाई करती है लेकिन इंटरनेट तो एक महासागर है, इसका जाल कोने-कोने में फैला है। सारे वीडियो को वैरिफाई कर पाना असंभव है। दूसरी बात ये है कि दो तीन साल पहले एक नकली वीडियो तैयार करने में दो-तीन दिन लग जाते थे, उसके लिए बहुत सारी हाई डेफिनेशन फुटेज की जरुरत होती थी, अब तो एक से एक सॉफ्टवेयर उपलब्ध है। चार-पांच घंटे में फर्जी वीडियो तैयार हो जाते हैं। किसी वीडियो पर नकली आवाज़ लगाना, लिप सिंक मैच करना तो और भी आसान हो गया है। नकली वीडियो से रातों रात किसी की बदनामी हो सकती है, लोगों की भावनाएं भड़काई जा सकती हैं, इसलिए ये समाज के लिए बड़ा खतरा है। इसका एक और पहलू है। वो ये कि अगर किसी नेता का वीडियो असली हो, वो रिश्वत लेते भी पकड़ा जाए, सिफारिश करते उसका वीडियो रिकॉर्ड हो जाए, तो वो बड़ी आसानी से कह देगा कि ये वीडियो नकली है। फॉरेंसिक जांच करवा लो, जांच होते होते, रिपोर्ट आते-आते महीनों लग जाएंगे। अगर रिपोर्ट खिलाफ आई तो रिपोर्ट पर सवाल उठा दिए जाएंगे, इसलिए इस खतरे को समझना जरूरी है। साइबर एक्सपर्ट्स की मदद से इसके बारे में लोगों को जागरूक करना ज़रुरी है,और हम सबको सावधान रहना है कि बिना वैरिफाई करे, किसी भी वीडियो को forward न करें और जैसा प्रधानमंत्री मोदी ने कहा, fake video और deep fake पर, AI पर, नकली होने का, फेक होने का, फर्जी होने का ठप्पा लगाना पहला कदम है। जैसे-जैसे technology और आगे जाएगी, ये खतरा और बढ़ेगा और हम सबको और ज्यादा सतर्क रहने की जरूरत पड़ेगी।। इस पूरे मसले में मीडिया की जिम्मेदारी बहुत अहम है। हम लोगों को INFORMED रखें, AI को और CHAT GPT को विश्वसनीयता देने की बजाए जहां-जहां इसका इस्तेमाल करें उसे फेक बताना न भूलें। ये हम सबकी जिम्मेदारी है। टेक्नोलॉजी का बेजा इस्तेमाल न हो। कोई किसी की इज्जत उछालने के लिए फर्जी वीडियो और DEEP FAKE का इस्तेमाल न कर पाए। एक और बात कहना चाहता हूं। मुझे शिकायतें मिलती है कि कोई मेरी तस्वीर लगाकर दवाई बेच रहा है, कोई मेरे नाम से मीडिया में नौकरियां देने की बात कर रहा है, किसी ने तो मेरे नाम से फर्जी फोन मैसेज भी भेज दिए। मेरे ऑफिस ने इन सबके बारे में पुलिस में शिकायत की है। आप भी सावधान रहें, किसी फर्जी विज्ञापन पर भरोसा न करें, जब ज़रूरत हो तो इंडिया टीवी से संपर्क करें। ऐसी किसी भी जानकारी को वैरिफाई करें। मेरे बारे में कोई भी सूचना, मेरे अपने या इंडिया टीवी के ऑफिशियल हैंडल से पोस्ट की जाती है। वही verified है, उसी पर यकीन करें।

Get connected on Twitter, Instagram & Facebook

Comments are closed.