scorecardresearch
 

Deepfake: 2024 के चुनाव में विरोधियों को बदनाम करने के लिए AI कंटेंट बन सकता है हथियार, कैमरे पर बेनकाब कई किरदार!

इंडिया टुडे ने 2024 के लोकसभा चुनावों के लिए संभावित उम्मीदवारों पर जनता की राय को प्रभावित करने के लिए डिजिटल मैनिपुलेटर्स की गतिविधियों का खुलासा किया है.

Advertisement
X
सांकेतिक तस्वीर (इंडिया टुडे)
सांकेतिक तस्वीर (इंडिया टुडे)

कुछ दिन पहले तक जो अजूबा विज्ञान की कल्पना में दिख रहा था, वह आज देश के राजनीतिक परिदृश्य में एक खतरनाक हथियार बना नजर आ रहा है. 

Advertisement

इंडिया टुडे की एक जांच ने डिजिटल मैनिपुलेटर्स के खुफिया ऑपरेशन का खुलासा किया है. जो 2024 के आम चुनावों से पहले डीपफेक तकनीक का प्रयोग करके जनमत को प्रभावित करने की कोशिश कर रहे हैं. 

डिजिटल फर्जीवाडे का भंडाफोड़: डीपफेक कैम्पेन की शुरुआत

हमारे इंवेस्टिगेशन की शुरुआत नोएडा के रोहित पाल के साथ हुई. रोहित पाल ने डिजिटल पब्लिसिटी नाम के आउटलेट की स्थापना की है. 

उन्होंने अपनी गतिविधियों का ब्यौरा दिया. जिसमें 2024 आम चुनाव के लिए संभावित उम्मीदवारों की पहचान करना और रणनीतिक तरीके से उनके चुनाव अभियान को तैयार करना है. 

डीपफेक प्रक्रिया को ऐसे समझें

रोहित पाल का मुख्य फोकस डीपफेक वीडियोज बनाना है ताकि विपक्षी उम्मीदवारों को बदनाम किया जा सके.  

रोहित पाल ने इंडिया टुडे के खुफिया रिपोर्टर को बताया, "हम उनकी ऑनलाइन इमेज को चमकाएंगे, पॉजिटिव इमेज बनाएंगे, एनीमेटेड वीडियो बनाएंगे, अन्य पार्टियों के उम्मीदवारों की ग़लतियों को उजागर करेंगे, और उन्हें मूर्ख दिखाएंगे. मौजूदा संदर्भ में यह पूरी कवायद विपक्षी उम्मीदवारों को मूर्ख दिखाने के बारे में है." 

Advertisement

बाद की बातचीत में पाल ने सब्सक्रिप्शन आधारित एप के जरिये डीपफेकस बनाने की प्रक्रिया को समझाया, साथ ही बताया कि कैसे इसकी प्रमाणिकता पर भी जोर दिया जाएगा. 

Digital Publicity का संस्थापक रोहित पाल.

जब हमने उनसे पूछा कि क्या AI से बने ये वीडियो खुलासे में नहीं आ जाएंगे. तो उन्होंने वादा किया कि ये फुलप्रुफ कंटेट होगा. उन्होंने कहा, "हम इसे इस तरह से तैयार करते हैं कि लोग इसके नकली होने पर बहस तो कर सकते हैं, लेकिन इसका पता लगाना बहुत चुनौतीपूर्ण है. एक औसत व्यक्ति इसे पहचानने में सक्षम नहीं होगा; यह पूरी तरह से ऑरिजिनल और प्रामाणिक प्रतीत होता है."

रोहित पाल ने डीपफेक मैटेरियल बनाने में लगने वाले ज्यादा वक्त से जुड़ी चिंताओं को भी दूर किया. उन्होंने स्पष्ट किया, "इसमें अधिक समय की आवश्यकता नहीं है क्योंकि AI सभी काम को मैनेज करता है; हम केवल आदेश जारी करते हैं. हां, हम निर्देश देते हैं, और टूल्स ऑटोमैटिक रूप से बाकी काम संभालते हैं."

उन्होंने इस काम के बाकी तकनीकी पहलुओं को भी समझाया और बताया कि उनके कंटेट कैसे सुपर क्वालिटी के होते हैं. उन्होंने कहा- "सर हमारी चीजें हाई डेफिनेशन क्वालिटी की होती है, ये शानदार होता है."
 
फिर उन्होंने डीपफेक बनाने में उपयोग किए जाने वाले ऐप्स की सब्सक्रिप्शन कॉस्ट के बारे में जानकारी दी. 
 
"यह लगभग $25 से $30 है. यह टूल के लिए है, उनके इस्तेमाल के लिए है. सदस्यता की सीमा एक महीने, 45 दिन, 6 महीने, 30 दिन से 60 दिन तक अलग-अलग होती है."

Advertisement

खतरनाक इलूजन बनाना

इस जांच में हमें पाल के बिजनेस डील का भी पता चला. उन्होंने हर उम्मीदवार के लिए हर महीने 5 लाख की फीस बताई.   

उन्होंने विरोधियों की प्रतिष्ठा को नुकसान पहुंचाने के इरादे से डीपफेक के अंतरंग वीडियो बनाने की भी पेशकश की.

रोहित पाल ने हमें समझाया. "सबसे पहले हम इन्हें सोशल मीडिया पर यूटीलाइज करेंगे, रणनीतिक रुप से डीपफेक्स जारी करेंगे, समय समय पर कॉल रिकॉर्डिंग्स रिलीज करेंगे. हमें आपकी गाइडेंस की जरूरत होगी कि हम उन्हें कब रिलीज करें."

जब हमने अपलोड किए जाने वाले इन कंटेंट्स की ऑरिजिन के पता चलने को लेकर चिंता जताई तो उन्होंने हिम्मत से जवाब दिया- "हम इन सारी चीजों को मैनेज करेंगे, हम अपना आईपी एड्रेस बदल देंगे ताकि लोगों को ये लगे कि हम अमेरिका में हैं और वहां से भारत के लिए काम कर रहे हैं."
इन सारी कारगुजारियों के लिए कैश की चर्चा करते हुए रोहित पाल ने हर कैंडिडेट के लिए 5 लाख रुपये की डिमांड की. उन्होंने कहा कि पेमेंट के लिए किसी भी तरीके का इस्तेमाल किया जा सकता है लेकिन नगदी रहे तो ज्यादा अच्छा रहेगा." 

डीपफेक की भयावह क्षमता तब और अधिक स्पष्ट हो गई जब उन्होंने वॉयस रिकॉर्डिंग में हेरफेर करने की क्षमता के बारे में विस्तार से बताया- "हम आपकी आवाज को लेकर कमांड जारी करेंगे, और उसका उपयोग करके, मैं आपकी आवाज़ में कुछ भी बना सकता हूं. यह चुनाव के दौरान लीक हुई वॉयस कॉल के समान है! यदि यह रिकॉर्डिंग लीक हो जाती है, तो हम इस प्रक्रिया को दोहरा सकते हैं."

Advertisement

जैसे-जैसे बातचीत आगे बढ़ती गई, पाल ने आगे अपनी क्षमताओं की गहराई के बारे में खुलासा किया- डीपफेक विशेष रूप से वीडियो के लिए इस्तेमाल किया जाता है. इसमें तस्वीर आपकी और किसी और का वीडियो शामिल होता है; मैं उनके डांस के वीडियो को निकालता हूं, फिर आपकी तस्वीर को उसके ऊपर इम्पोज करता हूं. पांच से दस मिनट के भीतर, आपका चेहरा उनकी जगह ले लेगा."
 
चुनावी भाषणों से छेड़छाड़

ओबियान इन्फोटेक नामक कंपनी के पॉलिटिकल मैनेजर रोहित कुमार ने अपने नई दिल्ली कार्यालय में इंडिया टुडे के खोजी रिपोर्टर से मुलाकात की.
 
उन्होंने चुनाव से जुड़े डीपपेक भाषणों को तैयार करने की अपनी रणनीति बताई.

उन्होंने कहा, "सच कहूं तो इस पर कुछ भी किया जा सकता है. देखिए,अब क्या बनाया जा रहा है. ज्यादातर बातें भाषणों को बदलने के इर्द-गिर्द केंद्रित की जा रही हैं. जैसा कि मैंने कहा- बात कुछ और है, हमने एक लाइन को हटा दिया, उसकी जगह पर कुछ और लाइन जोड़ दी. प्रतिद्वंद्वी उम्मीदवार की आवाज का टोन वही रहता है, बिल्कुल उनका. उनकी आवाज की फ्रीक्वेंसी AI से मैच कराई जाएगी."

Obiyan Infotech के रोहित कुमार.

रोहित कुमार ने अब हमारे अंडरकवर रिपोर्टर को अपनी कंपनी के ऐसे काम कर सकने करने की क्षमता के बारे में विश्वास दिलाया. 

Advertisement

"अगर आप सोच रहे हैं कि यह बहुत मुश्किल काम है, तो हमारे लिए यह करना बहुत आसान है. यह हमारे लिए बहुत आसान काम है. कानूनी पहलू और पकड़ा जाना दो अलग-अलग चीजें हैं. तय ये होगा कि क्या यह वीडियो गलत है या सही? यदि आप पहचान में नहीं आना चाहते हैं, तो हम यहां के आईपी का उपयोग नहीं करेंगे; इसके बजाय, हम बाहरी आईपी का उपयोग करेंगे."

सियासी डीपफेक्स की हाई डिमांड

कुमार ने जोर देकर कहा कि AI से बने फेक कंटेंट का चलन काफी नया है लेकिन इसकी मांग अधिक है. उन्होंने कहा- देखिए, इसकी डिमांड बहुत हाई है, हां ये मांग बहुत ज्यादा है, लेकिन अगर सच कहूं तो वोट परसेंटेंज पर कितना असर पड़ता है, इसे जानने के लिए अभी तक कोई सर्वे नहीं किया गया है. यह बहुत नया है. 

रोहित कुमार के अनुसार, ऐसे कंटेट चार महीने से चलन में है. लोग समझ नहीं पा रहे हैं, फर्क नहीं कर पा रहे हैं कि ये असली है या नहीं; विपक्ष को मात देने के लिए राजनीतिक दलों में ऐसे वीडियो की मांग उठ रही है. अगर आप किसी दूसरे की आवाज से छेड़छाड़ करेंगे तो वह पकड़ा जा सकता है. पूरी तरह से एआई-जनरेटेड वीडियो को पकड़ना आसान नहीं होगा.
 
इसके बाद की जांच में इस डिजिटल धोखा-धड़ी में शामिल और भी खिलाड़ियों का पता चला.

Advertisement

सियासी हमले के लिए डीपफेक का तानाबाना

मेराकी ग्रुप के पृथ्वी राज कसाना और भाग्यश्री सिंह नोएडा स्थित मेराकी समूह में निदेशक हैं, ये कंपनी खुद को एक इंटीगरेटेड कम्युनिकेशन मार्केटिंग फर्म बताती है. 

"आजकल एआई-जनरेटेड वीडियो का जोर है, है ना?" हमारे रिपोर्टर ने बातचीत की शुरुआत की.

कसाना ने जवाब दिया, "देखिए, यह कानूनी अपराध है."
 
भाग्यश्री सिंह ने कहा, "तो यह करना ही होगा, बॉस.ये सिस्टम-जनरेटेड वीडियो हैं, ठीक है. ये एआई टूल्स हैं. हमें स्क्रिप्ट देनी होगी; स्क्रिप्ट में कुछ भी अपलोड करना कोई समस्या नहीं है. आप इसे क्षेत्रीय भाषाओं में भी प्राप्त कर सकते हैं- कोई भी चुनें, इतालवी, भोजपुरी, कुछ भी."

Merakii Group के निदेशक पृथ्वीराज कसाना.

सिंह और कसाना के साथ उनके नोएडा ऑफिस में एक अन्य मीटिंग में उन्होंने कैम्पेन की रणनीति तैयार की.

इस दौरान सिंह ने कहा, "देखिए, हर कोई नकारात्मक प्रचार में लगा हुआ है. सकारात्मक प्रचार करना होगा. क्राइसिस मैनेजमेंट भी जरूरी है. मीडिया की अन्य प्राथमिकताएं हैं. आपको समझना चाहिए कि सब कुछ करने की जरूरत है."

Merakii Group की डायरेक्टर भाग्यश्री सिंह.

जब उनसे वीडियो की गुणवत्ता के बारे में पूछा गया, तो उन्होंने हाई क्वालिटी कंटेंट की गारंटी दी और कहा- “एक्सपर्ट को अपना काम करने दें. आपको रणनीति, बजट और सामग्री को मंजूरी देनी होगी. हम आपको अपडेट रखेंगे. जहां तक क्रियान्वयन की बात है, इसे हम पर छोड़ दें; आपको पूरी शांति के साथ आपका काम किया हुआ मिलेगा. आप सुझाव दे सकते हैं, हम हमेशा सुझावों के लिए खुले हैं."

Advertisement

इसके बाद मेराकी ग्रुप ने एक बजट प्रस्ताव भेजा, जिसमें 11 संभावित उम्मीदवारों के लिए 30 लाख रुपये की मांग की गई.

उनके प्रपोजल में राजनीतिक हमले के लिए AI से बने वीडियो भी शामिल थे.

Live TV

Advertisement
Advertisement