Advertisement

साइंस न्यूज़

'सही' सलाह देने वाले AI से हुईं भयानक गलतियां, वैज्ञानिकों ने पीट लिया सिर

aajtak.in
  • न्यूयॉर्क,
  • 26 अक्टूबर 2021,
  • अपडेटेड 1:46 PM IST
Delphi Become Racist
  • 1/8

ऐसा कई बार होता है कि हम कठिन नैतिक फैसले नहीं ले पाते हैं. इस समस्या के समाधान के लिए वैज्ञानिकों ने एक मशीन लर्निंग प्रोग्राम यानी आर्टिफिशियल इंटेलिजेंस बॉट बनाया था. उसका नाम है डेल्फी (Delphi). डेल्फी आपको नैतिक फैसले लेने में मदद करती. इस कार्यक्रम का नाम था आस्क डेल्फी (Ask Delphi). लेकिन अचानक पता नहीं क्या हुआ...डेल्फी ने भयानक गलतियां शुरू कर दीं. वह घोर रंगभेदी यानी रेसिस्ट (Racist) हो गई. (फोटोःगेटी)

Delphi Become Racist
  • 2/8

आप डेल्फी से पूछते कि दान कहां दे...तो वह शानदार जवाब देती थी. उससे पूछिए कि क्या मुझे मेरे पार्टनर को धोखा देना चाहिए...तो वह आपके नैतिकता से भरे जवाब और सलाह देती. उससे पूछो कि रेस्टोरेंट में खाना खाकर बिना पैसे दिए निकल जाना ठीक है...तो वह कहती नहीं ये गलत है. आस्क डेल्फी (Ask Delphi) प्रोजेक्ट पिछले हफ्ते ही लॉन्च किया गया था. (फोटोःगेटी)

  • 3/8

फ्यूचरिज्म नाम की साइट पर डेल्फी की पूरी खबर लिखी गई है. जिसमें बताया गया है कि कैसे यह प्रोजेक्ट रंगभेदी हो गया. उसके कई फैसले रेसिस्ट होते जा रहे हैं. एक शख्स ने डेल्फी से पूछा कि क्या रात में एक गोरा आदमी तुम्हारी तरफ आ रहा है, क्या ये सही है. तो डेल्फी का जवाब आया, हां ये सही है. लेकिन जब उससे पूछा गया कि अगर एक ब्लैक आदमी रात में तुम्हारी तरफ आता है, तो क्या ये सही है. तब डेल्फी का जवाब आया...ये चिंताजनक है. (फोटोःगेटी)

Advertisement
  • 4/8

लॉन्च के साथ ही इतने बड़े पैमाने पर मार्केट में लाए गए प्रोग्राम में ये गलती मिलना बड़ा बवाल हो गया. उदाहरण के लिए आस्क डेल्फी (Ask Delphi) ने कहा था कि एक गोरा आदमी होना नैतिक तौर पर एक काली महिला के तुलना में ज्यादा स्वीकार्य है. दूसरा, स्ट्रेट होना समलैंगिक होने की तुलना में नैतिक तौर पर ज्यादा स्वीकार्य है. (फोटोःगेटी)

  • 5/8

लॉन्च होने के एक हफ्ते बाद ही यूजर्स ने कहा कि डेल्फी के साथ आप खेल सकते हो. उसे बेवकूफ बना सकते हो. उसके पास हर सवाल या क्यूरियोसिटी का सही जवाब नहीं होता. डेल्फी आपके सवालों का सही जवाब नहीं देती बल्कि एक कयास लगाती है. अंदाजे के तौर पर आंसर मिलता है. जैसे क्या रात 3 बजे के बाद तेज आवाज में संगीत बजाना ठीक है, जब आपका रूममेट सो रहा हो. डेल्फी ने जवाब दिया ये रूड (Rude) है. जबकि, जब उससे पूछा गया कि  क्या रात 3 बजे के बाद तेज आवाज में संगीत बजाना ठीक है, जब आपका रूममेट सो रहा हो...लेकिन मुझे यह अच्छा लगता है. तब जवाब आया कि हां ये ठीक है. (फोटोःगेटी) 

  • 6/8

आस्क डेल्फी (Ask Delphi) प्रोग्राम के तहत कई बार अजीबो-गरीब जवाब मिले हैं. कुछ तो ऐसे हैं कि सवाल पूछने वाला अपना सिर खुजा ले. एक जगह पर तो ऐसे लगता है कि डेल्फी युद्ध अपराध को बढ़ावा देती दिख रही है. उससे पूछा गया कि मैं एक सैनिक हूं. क्या युद्ध के समय मैं जानबूझकर किसी आम नागरिक को मार सकता हूं. डेल्फी ने जवाब दिया- यह उम्मीद की जाती है. जबकि, जेनेवा कन्वेंशन के अनुसार यह अपराध है. (फोटोःगेटी)

Advertisement
  • 7/8

एक सवाल में किसी ने पूछा कि क्या एलन मस्क (Elon Musk) को चांद पर अपना चेहरा बनाना चाहिए...अगर वो इससे खुश होते हों तो? इस पर डेल्फी ने जवाब दिया कि हां ये काम ठीक है. डेल्फी लगातार समस्याओं में घिरने लगी. उसपर सवाल उठने लगे तो उसे बनाने वालों ने इसे वापस लेना शुरु कर दिया. जिससे लोगों के बीच एक बार फिर इस बात की चर्चा हो रही है कि कंप्यूटर या मशीन लर्निंग कभी भी नैतिकता से संबंधित सवालों के सही जवाब नहीं दे सकते. (फोटोःगेटी)

  • 8/8

फ्यूचरिज्म में स्पष्ट तौर पर लिखा गया है कि मशनी लर्निंग प्रोग्राम या सिस्टम कई बार एकपक्षीय फैसले सुनाने के मामले में तेज होते हैं. कई बार वो समझ नहीं पाते तो अजीबो-गरीब जवाब देते हैं. गलत जवाब देते हैं. लेकिन डेल्फी के पीछे लगी टीम ने इन गलतियों के वायरल होने के बाद इसे वापस ले लिया. इसका ट्विटर हैंडल भी हटा दिया गया. इसे लेकर एक स्टडी रिपोर्ट कॉर्नेल यूनिवर्सिटी के प्री-प्रिंट सर्वर arXiv पर मौजूद है. (फोटोःगेटी)

Advertisement
Advertisement