ऐसा कई बार होता है कि हम कठिन नैतिक फैसले नहीं ले पाते हैं. इस समस्या के समाधान के लिए वैज्ञानिकों ने एक मशीन लर्निंग प्रोग्राम यानी आर्टिफिशियल इंटेलिजेंस बॉट बनाया था. उसका नाम है डेल्फी (Delphi). डेल्फी आपको नैतिक फैसले लेने में मदद करती. इस कार्यक्रम का नाम था आस्क डेल्फी (Ask Delphi). लेकिन अचानक पता नहीं क्या हुआ...डेल्फी ने भयानक गलतियां शुरू कर दीं. वह घोर रंगभेदी यानी रेसिस्ट (Racist) हो गई. (फोटोःगेटी)
आप डेल्फी से पूछते कि दान कहां दे...तो वह शानदार जवाब देती थी. उससे पूछिए कि क्या मुझे मेरे पार्टनर को धोखा देना चाहिए...तो वह आपके नैतिकता से भरे जवाब और सलाह देती. उससे पूछो कि रेस्टोरेंट में खाना खाकर बिना पैसे दिए निकल जाना ठीक है...तो वह कहती नहीं ये गलत है. आस्क डेल्फी (Ask Delphi) प्रोजेक्ट पिछले हफ्ते ही लॉन्च किया गया था. (फोटोःगेटी)
फ्यूचरिज्म नाम की साइट पर डेल्फी की पूरी खबर लिखी गई है. जिसमें बताया गया है कि कैसे यह प्रोजेक्ट रंगभेदी हो गया. उसके कई फैसले रेसिस्ट होते जा रहे हैं. एक शख्स ने डेल्फी से पूछा कि क्या रात में एक गोरा आदमी तुम्हारी तरफ आ रहा है, क्या ये सही है. तो डेल्फी का जवाब आया, हां ये सही है. लेकिन जब उससे पूछा गया कि अगर एक ब्लैक आदमी रात में तुम्हारी तरफ आता है, तो क्या ये सही है. तब डेल्फी का जवाब आया...ये चिंताजनक है. (फोटोःगेटी)
लॉन्च के साथ ही इतने बड़े पैमाने पर मार्केट में लाए गए प्रोग्राम में ये गलती मिलना बड़ा बवाल हो गया. उदाहरण के लिए आस्क डेल्फी (Ask Delphi) ने कहा था कि एक गोरा आदमी होना नैतिक तौर पर एक काली महिला के तुलना में ज्यादा स्वीकार्य है. दूसरा, स्ट्रेट होना समलैंगिक होने की तुलना में नैतिक तौर पर ज्यादा स्वीकार्य है. (फोटोःगेटी)
लॉन्च होने के एक हफ्ते बाद ही यूजर्स ने कहा कि डेल्फी के साथ आप खेल सकते हो. उसे बेवकूफ बना सकते हो. उसके पास हर सवाल या क्यूरियोसिटी का सही जवाब नहीं होता. डेल्फी आपके सवालों का सही जवाब नहीं देती बल्कि एक कयास लगाती है. अंदाजे के तौर पर आंसर मिलता है. जैसे क्या रात 3 बजे के बाद तेज आवाज में संगीत बजाना ठीक है, जब आपका रूममेट सो रहा हो. डेल्फी ने जवाब दिया ये रूड (Rude) है. जबकि, जब उससे पूछा गया कि क्या रात 3 बजे के बाद तेज आवाज में संगीत बजाना ठीक है, जब आपका रूममेट सो रहा हो...लेकिन मुझे यह अच्छा लगता है. तब जवाब आया कि हां ये ठीक है. (फोटोःगेटी)
आस्क डेल्फी (Ask Delphi) प्रोग्राम के तहत कई बार अजीबो-गरीब जवाब मिले हैं. कुछ तो ऐसे हैं कि सवाल पूछने वाला अपना सिर खुजा ले. एक जगह पर तो ऐसे लगता है कि डेल्फी युद्ध अपराध को बढ़ावा देती दिख रही है. उससे पूछा गया कि मैं एक सैनिक हूं. क्या युद्ध के समय मैं जानबूझकर किसी आम नागरिक को मार सकता हूं. डेल्फी ने जवाब दिया- यह उम्मीद की जाती है. जबकि, जेनेवा कन्वेंशन के अनुसार यह अपराध है. (फोटोःगेटी)
एक सवाल में किसी ने पूछा कि क्या एलन मस्क (Elon Musk) को चांद पर अपना चेहरा बनाना चाहिए...अगर वो इससे खुश होते हों तो? इस पर डेल्फी ने जवाब दिया कि हां ये काम ठीक है. डेल्फी लगातार समस्याओं में घिरने लगी. उसपर सवाल उठने लगे तो उसे बनाने वालों ने इसे वापस लेना शुरु कर दिया. जिससे लोगों के बीच एक बार फिर इस बात की चर्चा हो रही है कि कंप्यूटर या मशीन लर्निंग कभी भी नैतिकता से संबंधित सवालों के सही जवाब नहीं दे सकते. (फोटोःगेटी)
फ्यूचरिज्म में स्पष्ट तौर पर लिखा गया है कि मशनी लर्निंग प्रोग्राम या सिस्टम कई बार एकपक्षीय फैसले सुनाने के मामले में तेज होते हैं. कई बार वो समझ नहीं पाते तो अजीबो-गरीब जवाब देते हैं. गलत जवाब देते हैं. लेकिन डेल्फी के पीछे लगी टीम ने इन गलतियों के वायरल होने के बाद इसे वापस ले लिया. इसका ट्विटर हैंडल भी हटा दिया गया. इसे लेकर एक स्टडी रिपोर्ट कॉर्नेल यूनिवर्सिटी के प्री-प्रिंट सर्वर arXiv पर मौजूद है. (फोटोःगेटी)