Google ने हाल ही में अपने AI प्लेटफॉर्म Gemini को लॉन्च किया और कंपनी इसको लेकर कई बड़े-बड़े सपने भी देख रही है. लेकिन हाल ही में इस प्लेटफॉर्म ने एक बड़ी गलती कर दी है, जिसके बाद इसकी जनरेट AI Image सोशल मीडिया पर सर्कुलेट हो रही है.
दरअसल, इंडिया टुडे ने अपनी रिपोर्टस में बताया कि Google Gemini AI ने डायवर्सिटी के नाम पर एक महिला की न्यूड इमेज तैयार कर दी. यह इमेज एक वाइंकिग्स की है. हालांकि इसका एतिहासिक तथ्य से कोई संबंध नहीं है.
इंडिया टुडे ने बताया, हमारे एक Prompts में भी एक ऐसी इमेज नजर आई थी, जो कमर से ऊपर न्यूड थी. इसी तरह से सोशल मीडिया पर कई ऐसे उदाहरण देखने जा सकते हैं, जहां Gemini AI ने फैक्चुअली एक्युरेसी के चक्कर में क्या-क्या बना दिया है. ऐसे में कई लोग इससे Pornographic इमेज आदि बना सकते हैं. .
यह भी पढ़ें: नौकरी छोड़कर जा रहा था Google का कर्मचारी... रोकने के लिए कंपनी ने 300% बढ़ा दी सैलरी
यह सवाल पोर्नोग्रफी का नहीं है, लेकिन Google Gemini AI द्वारा जनरेट की गई इमेज काफी हैरान करने वाली हैं. वहीं OpenAI के इमेज जनरेटर Dall-E और MidJourney पर कुछ ऐसे टूल्स हैं, जो सिस्टम को न्यूड पिक्चर बनाने से रोकते हैं. OpenAI का यह सिस्टम सराहनीय है.
यह भी पढ़ें: Google ने रोलआउट किया Android 15 का डेवलपर्स प्रीव्यू, मिलेंगे खास फीचर्स, जानिए डिटेल्स
हालांकि यह भी सच है कि Google Gemini AI काफी शुरुआती स्टेज में है और इसे बेहतर होने में थोड़ा समय लगेगा. Google इस समस्या को मान चुका है और इसे ठीक करने की दिशा में काम कर रहा है. न्यूडिटी हमेशा से ही टेक कंपनियों के लिए काफी मुश्किल भरा काम रहा है.