Deepfake Fraud: दुनिया भर के लोग अपने जीवन को आसान बनाने के लिए टेक्नोलॉजी का इस्तेमाल करने के नए-नए तरीके खोज रहे हैं. आर्टिफिशियल इंटेलिजेंस (AI) भी ऐसी ही एक टेक्नोलॉजी है. इसे एक क्रांति के तौर पर देखा जा रहा है लेकिन इस टेक्नोलॉजी का गलत इस्तेमाल भी शुरू हो गया है. डीपफेक (Deepfake) इमेज और वीडियो टूल ऑनलाइन फ्रॉड का एक बड़ा जरिया बनता जा रहा है. इसके जरिए ठगी का एक मामला चीन में सामने आया है. यहां के उत्तरी चीन में एक व्यक्ति ने Deepfake तकनीक का इस्तेमाल कर 5 करोड़ रुपये से ज्यादा की ठगी को अंजाम दे दिया.
डीपफेक यानी फेक डिजिटल तस्वीरें और वीडियो, जो दिखने में बिल्कुल असली लगते हैं. इसके जरिए गलत सूचना फैलाई जा सकती है. रॉयटर्स की एक रिपोर्ट के अनुसार, उत्तरी चीन में एक ठग ने 'डीपफेक' तकनीक का इस्तेमाल कर एक शख्स से अपने खाते में करोड़ों रुपये ट्रांसफर करा लिए. स्कैमर ने एआई-पावर्ड फेस-स्वैपिंग तकनीक के जरिए यह फ्रॉड किया.
AI ने बदले अपराध के तरीके, कहीं बम की अफवाह, कहीं किडनैपिंग को दिया अंजाम, ऐसे बचें
रिपोर्ट के अनुसार, बाओटौ सिटी की पुलिस ने बताया कि जालसाज ने वीडियो कॉल पर पीड़ित के दोस्त का रूप धारण किया और फिर उसे 4.3 मिलियन युआन (लगभग 5 करोड़ रुपये) ट्रांसफर करने के लिए कहा.
पीड़ित ने बताया कि उसे लगा कि उसके दोस्त को पैसे की सख्त जरूरत है इसलिए उसने रकम ट्रांसफर कर दी. पुलिस ने यह भी खुलासा किया कि पीड़ित को इस बात का एहसास तब हुआ जब उसके दोस्त ने ऐसी किसी बात से इनकार कर दिया. बहरहाल पुलिस ने कार्रवाई करते हुए ठगी की ज्यादातर राशि बरामद कर ली है, बाकी राशि का पता लगाया जा रहा है.
- पिछले महीने स्कैमर्स ने एआई का इस्तेमाल एक किशोरी की आवाज का क्लोन बनाने और उसकी मां से फिरौती मांगने के लिए किया था. CBS न्यूज से जुड़े एक यूएस-आधारित समाचार चैनल WKYT की एक रिपोर्ट ने खुलासा किया था कि एरिजोना की एक महिला जेनिफर डेसेफानो ने बताया था कि उसकी 15 साल की बेटी स्कीइंग ट्रिप पर गई हुई थी, तभी उसे एक अज्ञात नंबर से कॉल आया था. जैसे ही उसने फोन उठाया, उसने दूसरी तरफ से अपनी बेटी की 'मॉम' कहने की आवाज सुनी और इसके बाद वह सिसकने लगी. फिर एक आदमी की आवाज आई जो महिला को पुलिस के पास न जाने की धमकी दे रहा था.
महिला ने कहा कि वह बैकग्राउंड में अपनी बेटी की आवाज सुन सकती थी, जो मदद के लिए आवाज लगा रही थी. इसके बाद उस व्यक्ति ने किशोरी को छोड़ने के लिए 10 लाख डॉलर की मांग की.
इंसानों जैसी इंटेलिजेंस की रेस! फ्रॉड का मायाजाल, AI के किन खतरों से डर रही दुनिया?
महिला ने बताया कि आवाज सुनकर शक नहीं किया जा सकता था क्योंकि वह पूरी तरह से उसकी बेटी की आवाज लग रही थी. वह उसी तरह की रोती थी. पूरी बातचीत के दौरान मुझे एक सेकंड के लिए भी शक नहीं हुआ कि यह वह नहीं है. हालांकि, बाद में पुलिस ने अपराधी को पकड़ लिया. पूछताछ के दौरान अपराधी ने बताया कि एआई की मदद से उसने पूरी घटना को अंजाम दिया गया. उनकी बेटी सुरक्षित और स्वस्थ थी. उसका अपहरण नहीं हुआ था.
- चीन में एक इंसान ने चैट जीपीटी की मदद से ट्रेन ब्लास्ट की फेक न्यूज फैलाई थी, जिससे हड़कंप मच गया था. इस फेक न्यूज की वजह से लोग रेलवे स्टेशन की तरफ भागने लगे थे. पुलिस को स्थिति नियंत्रण करने के लिए न्यूज में सफाई देनी पड़ी थी कि यह फेक न्यूज थी.
ऑनलाइन सिक्योरिटी फर्म McAfee के हाल में सामने आए सर्वे में दावा किया गया है कि 83 फीसदी भारतीय ऐसे हैं, जो फेक कॉल्स की वजह से अपना पैसे डूब चुके हैं. सर्वे में 48 फीसदी ने माना कि AI कॉल के ट्रैप में फंसकर 50,000 रुपये से ज्यादा की राशि गंवा चुके हैं. सर्वे में सात देशों के 7,054 लोगों से सवाल पूछे गए थे, जिनमें 1,010 भारतीय शामिल थे. वहीं 69 भारतीय असली और AI फेक वॉयस कॉल में फर्क नहीं कर पाते हैं. वहीं 47 फीसदी भारतीय या तो खुद एआई कॉल स्कैम का शिकार हुए हैं या फिर उनका जानने वाला इस फ्रॉड का शिकार हुआ है.