
पूरी दुनिया में इंटरनेट पर आज के समय में करीब 1 लाख Deepfake पोर्न वीडियो मौजूद हैं. इतना ही नहीं, अब डेली सैकड़ों deepfake पोर्न वीडियो क्लिप इंटरनेट पर अपलोड हो रही हैं. इतना नहीं कई प्लेटफॉर्म तो सिर्फ 40 रुपये में डीपफेक वीडियो तैयार करके देते हैं. अब सवाल आता है कि आखिर कई लोग इतने ज्यादा वीडियो क्यों अपलोड कर रहे हैं? क्या यह सिर्फ मौज-मस्ती तक सीमित है.
दरअसल, इंडिया टुडे के ओपेन सोर्स इंटेलीजेंस (OSINT) को लेकर जांच की और पाया कि कैसे इस आर्टिफिशियल इंटेलिजेंस (AI) तकनीक की वजह से Deepfake pornography एक बिजनेस में तब्दील होता जा रहा है.
सिंथेटिक पोर्न कई साल से मौजूद हैं, जबकि AI और टेक्नोलॉजी की मदद से अब यह काम काफी आसान हो गया है. इससे वे ज्यादा कमाई भी कर रहे हैं. कई लोग इसे क्रिएट और डिस्ट्रीब्यूट करके कमाई कर रहे हैं.
Home Security Heroes की रिपोर्ट, 2023 स्टेट ऑफ डीपफेक रिपोर्ट में बताया, 2023 में 2019 की तुलना में 550 पर्सेंट का इजाफा देखा गया है. अमेरिका बेस्ड ऑनलाइन ट्रैफिक एनालिटिक्स सर्विस Semrush के मुताबिक, जुलाई और अगस्त के बीच में टॉप 10 वेबसाइट्स ने एक्सक्लुसिवली डीपफेक पोर्न को होस्ट किया और 30 करोड़ ज्यादा व्यूज हासिल किए. इसमें सबसे आगे MrDeepFakes रहा, जिसपर अक्टूबर 2023 के दौरान 11.18 करोड़ यूजर्स ने विजिट किया है.
डीपफेक की वजह से कई लोगों और कंपनियों को कमाई करने का मौका मिल रहा है. अब ऐसे में सवाल आता है कि इन फेक वीडियो से प्रोब्लम क्या है? दरअसल, Deepfake के फेक वीडियो की वजह से असली दुनिया में रहने वाले लोगों को काफी नुकसान हो सकता है. इसकी मदद से कई लोग ब्लैकमेलिंग का काम कर रहे हैं. इसका एक बड़ा उदाहरण Sextortion है.
ये भी पढ़ेंः रश्मिका मंदाना Deepfake Video: आप भी हो सकते हैं शिकार, ऐसे करें अपना बचाव और Deepfake की पहचान
भारत में हाल ही में Deepfake का इस्तेमाल करके लोगों को ठगने का काम किया जा रहा है. इसका एक उदाहरण उत्तर प्रदेश के गाजियाबाद जिले में सामने आया था. जहां एक व्यक्ति ने फेसबुक ऐप पर एक कॉल रिसीव की और फिर उसने खुदखुशी कर ली.
दरअसल, वीडियो कॉल में सामने एक बिना कपड़ों के एक महिला दिखाई दी. इसके बाद उसे एक डीपफेक वीडियो रिसीव हुआ और एक व्यक्ति ने फर्जी पुलिस ऑफिसर बनकर 74 हजार रुपये मांगे. दरअसल, इस मामले में व्यक्ति को इतना अधिक प्रताड़ित किया कि उसने खुदखुशी कर ली. 2023 स्टेट ऑफ डीपफेक रिपोर्ट में बताया कि करीब 98 पर्सेंट deepfakes पोर्न से संबंधित होती हैं. 99 पर्सेंट वीडियो में एक महिला को फेक विक्टिम बनाया जाता है.
Deepfake की मदद से तैयार होने वाले वीडियो मुख्य दो टाइप के होते हैं. पहले प्रकार के डीपफेक वीडियो में इंसान के चेहरे को फीचर किया जाता है. दूसरे प्रकार में एक कंप्यूटर हाइपर रियलिस्टिक फेस का यूज़ होता है, जो मौजूद नहीं हैं. पहली कैटेगरी में
एक असली व्यक्ति का चेहरा, किसी इमेज या वीडियो में लगा सकते हैं. AI टूल्स से यह काम काफी आसान हो गया है.
ये भी पढ़ेंः रश्मिका मंदाना के Deepfake वीडियो से मचा बवाल, क्या है ये तकनीक जिससे नकली भी असली लगता है
दरअसल, OSINT ने पाया कुछ ऐप ऐसे भी हैं, जो सिर्फ 40 रुपये और कुछ मिनट में 15 सेकेंड का फेक पोर्न वीडियो तैयार कर देते हैं. इस तरह की वीडियो जनरेट करने के लिए कई सॉफ्टवेयर मौजूद हैं. साथ ही कई ने डिसक्लेयर दिया है कि वे ये फीचर सिर्फ मनोरंजन के लिए दे रहे हैं.
रिपोर्टः सुभम तिवारी