Artificial Intelligence (AI) तेजी से हमारी जिंदगी में शामिल हो रहा है. कुछ लिखना हो, फोटो एडिट या वीडियो एडिट करना हो, वो सब कुछ अब AI से किया जा सकता है. इतना ही नहीं, कंपनियां अपने-अपने मॉडल और प्लेटफॉर्म को लगातार एडवांस बनाने का प्रयास कर रही हैं. ऐसे में एक नया खतरा भी पनप रहा है, जहां किसी भोले-भाले यूजर्स की फोटो को एडिट उसके साथ फर्जीवाड़ा या फिर उसके खिलाफ गलत जानकारी को फैलाया जा सकता है.
अब आम लोगों और सेलिब्रिटी आदि को ऐसे ही फर्जीवाड़े से बचाने के लिए एक नया टूल तैयार किया है. Engadget की रिपोर्ट के मुताबिक, MIT के Computer Science And AI Lab ने एक ऐसी तकनीक तैयार की है, जिसे PhotoGuard नाम दिया है. यह इमेज के लिए सेफ गार्ड का काम करेगी. यह टूल इमेज के कुछ सिलेक्टेड पिक्सल को बदलकर AI को फोटो एडिट करने से रोक सकती है.
ये भी पढ़ेंः AI फेस स्वैपिंग से ठगी, वीडियो कॉल पर दोस्त का चेहरा रखकर 5 करोड़ का लगा दिया चूना
रिसर्च टीम ने बताया कि पिक्सल चेंज में Perturbations को बदला जाता है, जिसे इंसानी आंखे नहीं देख सकती है. इसे सिर्फ मशीन ही पढ़ सकती है. रिसर्च टीम के मुताबिक, 'Encoder' मैथेड से पिक्सल की पॉजिशन और कलर को बदला जा सकता है, जबकि MIT का टूल AI को यह समझने से रोकता है कि इसे कैसे बदला जा सकता है.
ये भी पढ़ेंः WhatsApp पर दरियादिली दिखाना पड़ा महंगा, पुलिस ने बताया कैसे पहचानें फर्जी कॉल
एडवांस एंड इनटेंसिव कंप्यूटेशन मेथेड से किसी इमेज को कॉपी करने की कोशिश की जाती है तो यह टूल वास्तिवक इमेज की जगह AI को दूसरी इमेज दिखाना शुरू कर देगा. ऐसे में वह फोटो थोड़ी अजीब सी नजर आएगी, जिसे कोई भी पहचान सकेगा. हालांकि यह आम लोगों के लिए कब तक आएगा, उसके बारे में अभी कोई जानकारी नहीं है.
बीते महीने आनंद महिंद्रा की एक AI जनरेटेड फोटो वायरल हुई थी, जिसमें वे होली खेलते हुए नजर आए आ रहे थे. उस फोटो को आनंद महिंद्रा ने ट्वीट करके कैप्शन लिखा था, जिसमें उन्होंने फ्यूचर को डरावना बताया था. उन्होंने इशारा किया था कि AI कैसे फेक फोटो तैयार कर सकता है.