
दुनिया के सबसे बड़े सोशल नेटवर्क फेसबुक ने इस साल की शुरुआत में एक आर्टिफिशियल इंटेलिजेंस टूल लॉन्च किया था, जो यूजर के रिपोर्ट करने से पहले ही रिवेंज पोर्न को स्पॉट कर सकता है. इसे नॉनकनसेंसुअल इंटीमेट इमेजेज के नाम से भी जाना जाता है. साल 2017 में कंपनी ने एक पायलट प्रोग्राम भी लॉन्च किया था. इस प्रोग्राम के तहत फेसबुक ने यूजर्स से अपनी इंटीमेट फोटोज कंपनी को देने के लिए कहा था, ताकि कंपनी ऐसी तस्वीरों को भविष्य में सोशल नेटवर्क पर फैलने से रोक सके.
हालांकि, फेसबुक के राधा प्लंब ने एनबीसी न्यूज को बताया कि पायलट का शुरुआती स्पष्टीकरण पर्याप्त रूप से स्पष्ट नहीं था और नकारात्मक प्रतिक्रिया के बाद कंपनी ने 2018 में एक रिसर्च प्रोग्राम शुरू किया. ये प्रोग्राम इसलिए शुरू किया गया ताकि ये पता लगाया जा सके कि रिवेंज पोर्न को कैसे रोका जा सकता है और पीड़ितों की कैसे मदद की जा सकती है.
फेसबुक में प्रोडक्ट पॉलिसी रिसर्च के हेड प्लंब ने NBC न्यूज को बताया कि लोगों की फोटोज सोशल नेटवर्क में शेयर होने के एक्सपीरियंस को सुनने के बाद प्रोडक्ट टीम इस बात को पता लगाने की कोशिश में थी कि हम ऐसा क्या कर सकते हैं जो केवल रिपोर्ट्स पर रिप्लाई करने से बेहतर हो.
रिपोर्ट्स के मुताबिक कंटेंट मॉडरेटर्स को छोड़कर फेसबुक के पास अब 25 लोगों की टीम है जो इंटीमेट फोटोज और वीडियोज के नॉनकनसेंसुअल शेयरिंग को रोकने के लिए बनाई गई है.