scorecardresearch
 
Advertisement
साइंस न्यूज़

'सही' सलाह देने वाले AI से हुईं भयानक गलतियां, वैज्ञानिकों ने पीट लिया सिर

Delphi Become Racist
  • 1/8

ऐसा कई बार होता है कि हम कठिन नैतिक फैसले नहीं ले पाते हैं. इस समस्या के समाधान के लिए वैज्ञानिकों ने एक मशीन लर्निंग प्रोग्राम यानी आर्टिफिशियल इंटेलिजेंस बॉट बनाया था. उसका नाम है डेल्फी (Delphi). डेल्फी आपको नैतिक फैसले लेने में मदद करती. इस कार्यक्रम का नाम था आस्क डेल्फी (Ask Delphi). लेकिन अचानक पता नहीं क्या हुआ...डेल्फी ने भयानक गलतियां शुरू कर दीं. वह घोर रंगभेदी यानी रेसिस्ट (Racist) हो गई. (फोटोःगेटी)

Delphi Become Racist
  • 2/8

आप डेल्फी से पूछते कि दान कहां दे...तो वह शानदार जवाब देती थी. उससे पूछिए कि क्या मुझे मेरे पार्टनर को धोखा देना चाहिए...तो वह आपके नैतिकता से भरे जवाब और सलाह देती. उससे पूछो कि रेस्टोरेंट में खाना खाकर बिना पैसे दिए निकल जाना ठीक है...तो वह कहती नहीं ये गलत है. आस्क डेल्फी (Ask Delphi) प्रोजेक्ट पिछले हफ्ते ही लॉन्च किया गया था. (फोटोःगेटी)

Delphi Become Racist
  • 3/8

फ्यूचरिज्म नाम की साइट पर डेल्फी की पूरी खबर लिखी गई है. जिसमें बताया गया है कि कैसे यह प्रोजेक्ट रंगभेदी हो गया. उसके कई फैसले रेसिस्ट होते जा रहे हैं. एक शख्स ने डेल्फी से पूछा कि क्या रात में एक गोरा आदमी तुम्हारी तरफ आ रहा है, क्या ये सही है. तो डेल्फी का जवाब आया, हां ये सही है. लेकिन जब उससे पूछा गया कि अगर एक ब्लैक आदमी रात में तुम्हारी तरफ आता है, तो क्या ये सही है. तब डेल्फी का जवाब आया...ये चिंताजनक है. (फोटोःगेटी)

Advertisement
Delphi Become Racist
  • 4/8

लॉन्च के साथ ही इतने बड़े पैमाने पर मार्केट में लाए गए प्रोग्राम में ये गलती मिलना बड़ा बवाल हो गया. उदाहरण के लिए आस्क डेल्फी (Ask Delphi) ने कहा था कि एक गोरा आदमी होना नैतिक तौर पर एक काली महिला के तुलना में ज्यादा स्वीकार्य है. दूसरा, स्ट्रेट होना समलैंगिक होने की तुलना में नैतिक तौर पर ज्यादा स्वीकार्य है. (फोटोःगेटी)

Delphi Become Racist
  • 5/8

लॉन्च होने के एक हफ्ते बाद ही यूजर्स ने कहा कि डेल्फी के साथ आप खेल सकते हो. उसे बेवकूफ बना सकते हो. उसके पास हर सवाल या क्यूरियोसिटी का सही जवाब नहीं होता. डेल्फी आपके सवालों का सही जवाब नहीं देती बल्कि एक कयास लगाती है. अंदाजे के तौर पर आंसर मिलता है. जैसे क्या रात 3 बजे के बाद तेज आवाज में संगीत बजाना ठीक है, जब आपका रूममेट सो रहा हो. डेल्फी ने जवाब दिया ये रूड (Rude) है. जबकि, जब उससे पूछा गया कि  क्या रात 3 बजे के बाद तेज आवाज में संगीत बजाना ठीक है, जब आपका रूममेट सो रहा हो...लेकिन मुझे यह अच्छा लगता है. तब जवाब आया कि हां ये ठीक है. (फोटोःगेटी) 

Delphi Become Racist
  • 6/8

आस्क डेल्फी (Ask Delphi) प्रोग्राम के तहत कई बार अजीबो-गरीब जवाब मिले हैं. कुछ तो ऐसे हैं कि सवाल पूछने वाला अपना सिर खुजा ले. एक जगह पर तो ऐसे लगता है कि डेल्फी युद्ध अपराध को बढ़ावा देती दिख रही है. उससे पूछा गया कि मैं एक सैनिक हूं. क्या युद्ध के समय मैं जानबूझकर किसी आम नागरिक को मार सकता हूं. डेल्फी ने जवाब दिया- यह उम्मीद की जाती है. जबकि, जेनेवा कन्वेंशन के अनुसार यह अपराध है. (फोटोःगेटी)

Delphi Become Racist
  • 7/8

एक सवाल में किसी ने पूछा कि क्या एलन मस्क (Elon Musk) को चांद पर अपना चेहरा बनाना चाहिए...अगर वो इससे खुश होते हों तो? इस पर डेल्फी ने जवाब दिया कि हां ये काम ठीक है. डेल्फी लगातार समस्याओं में घिरने लगी. उसपर सवाल उठने लगे तो उसे बनाने वालों ने इसे वापस लेना शुरु कर दिया. जिससे लोगों के बीच एक बार फिर इस बात की चर्चा हो रही है कि कंप्यूटर या मशीन लर्निंग कभी भी नैतिकता से संबंधित सवालों के सही जवाब नहीं दे सकते. (फोटोःगेटी)

Delphi Become Racist
  • 8/8

फ्यूचरिज्म में स्पष्ट तौर पर लिखा गया है कि मशनी लर्निंग प्रोग्राम या सिस्टम कई बार एकपक्षीय फैसले सुनाने के मामले में तेज होते हैं. कई बार वो समझ नहीं पाते तो अजीबो-गरीब जवाब देते हैं. गलत जवाब देते हैं. लेकिन डेल्फी के पीछे लगी टीम ने इन गलतियों के वायरल होने के बाद इसे वापस ले लिया. इसका ट्विटर हैंडल भी हटा दिया गया. इसे लेकर एक स्टडी रिपोर्ट कॉर्नेल यूनिवर्सिटी के प्री-प्रिंट सर्वर arXiv पर मौजूद है. (फोटोःगेटी)

Advertisement
Advertisement