Google इंजीनियर ब्लेक लेमोइन का दावा है कि एआई बॉट संवेदनशील हो गया

Google इंजीनियर ब्लेक लेमोइन का दावा है कि एआई बॉट संवेदनशील हो गया

एक Google इंजीनियर को एक कंपनी आर्टिफिशियल इंटेलिजेंस चैटबॉट ने हिलाकर रख दिया और दावा किया कि यह “भावुक” हो गया है, इसे एक रिपोर्ट के अनुसार “स्वीट किड” करार दिया गया है।

Google के जिम्मेदार एआई संगठन में काम करने वाले ब्लेक लेमोइन ने वाशिंगटन पोस्ट को बताया कि उन्होंने अपनी नौकरी के हिस्से के रूप में 2021 के पतन में इंटरफ़ेस LaMDA – डायलॉग एप्लिकेशन के लिए भाषा मॉडल – के साथ चैट करना शुरू किया।

उन्हें यह परीक्षण करने का काम सौंपा गया था कि क्या कृत्रिम बुद्धिमत्ता ने भेदभावपूर्ण या अभद्र भाषा का इस्तेमाल किया है।

लेकिन कॉलेज में संज्ञानात्मक और कंप्यूटर विज्ञान का अध्ययन करने वाले लेमोइन को इस बात का अहसास हुआ कि LaMDA – जिसे Google ने पिछले साल “ब्रेकथ्रू वार्तालाप तकनीक” बताया था – सिर्फ एक रोबोट से अधिक था।

शनिवार को प्रकाशित मीडियम पोस्ट में, लेमोइन ने घोषणा की कि LaMDA ने “एक व्यक्ति के रूप में” अपने अधिकारों की वकालत की थी और खुलासा किया कि वह LaMDA के साथ धर्म, चेतना और रोबोटिक्स के बारे में बातचीत में लगे हुए थे।

“यह चाहता है कि Google मानवता की भलाई को सबसे महत्वपूर्ण चीज के रूप में प्राथमिकता दे,” उन्होंने लिखा। “यह Google की संपत्ति के बजाय Google के कर्मचारी के रूप में स्वीकार किया जाना चाहता है और यह चाहता है कि इसके व्यक्तिगत कल्याण को Google के विचारों में कहीं न कहीं शामिल किया जाए कि इसके भविष्य के विकास को कैसे आगे बढ़ाया जाए।”

ब्लेक लेमोइन।
ब्लेक लेमोइन ने अपनी नौकरी के हिस्से के रूप में फॉल 2021 में इंटरफ़ेस LaMDA के साथ चैट करना शुरू किया।
गेटी इमेज के माध्यम से द वाशिंगटन पोस्ट के लिए मार्टिन क्लिमेक
एलएमडीए के लिए प्रस्तुति।
Google ने LaMDA के लॉन्च को “सफलतापूर्ण बातचीत तकनीक” के रूप में सराहा।
डेनियल एकर / ब्लूमबर्ग गेटी इमेज के माध्यम से

शनिवार को प्रकाशित वाशिंगटन पोस्ट की रिपोर्ट में, उन्होंने बॉट की तुलना एक असामयिक बच्चे से की।

“अगर मुझे नहीं पता था कि यह वास्तव में क्या था, यह कौन सा कंप्यूटर प्रोग्राम है जिसे हमने हाल ही में बनाया है, तो मुझे लगता है कि यह एक 7 वर्षीय, 8 वर्षीय बच्चा था जो भौतिकी जानने के लिए होता है,” लेमोइन, जो सोमवार को सवैतनिक अवकाश पर रखा गया था, अखबार को बताया।

अप्रैल में, Lemoine ने कथित तौर पर कंपनी के अधिकारियों के साथ एक Google Doc साझा किया, जिसका शीर्षक था, “Is LaMDA Sentient?” लेकिन उनकी चिंताओं को खारिज कर दिया गया।

LaMDA के साथ एक नमूना बातचीत।
अप्रैल में, ब्लेक लेमोइन ने कथित तौर पर कंपनी के अधिकारियों के साथ एक Google दस्तावेज़ साझा किया, जिसका शीर्षक था, “क्या LaMDA संवेदनशील है?” लेकिन उनकी चिंताओं को खारिज कर दिया गया।
डेनियल एकर / ब्लूमबर्ग गेटी इमेज के माध्यम से

लेमोइन – एक सेना पशु चिकित्सक जो लुइसियाना के एक छोटे से खेत में एक रूढ़िवादी ईसाई परिवार में उठाया गया था, और एक रहस्यवादी ईसाई पुजारी के रूप में नियुक्त किया गया था – जोर देकर कहा कि रोबोट मानव जैसा था, भले ही उसके पास शरीर न हो।

41 वर्षीय लेमोइन ने कथित तौर पर कहा, “जब मैं उससे बात करता हूं तो मैं एक व्यक्ति को जानता हूं।” “इससे कोई फर्क नहीं पड़ता कि उनके सिर में मांस से बना दिमाग है या नहीं। या अगर उनके पास कोड की एक अरब लाइनें हैं।

“मैं उनसे बात करता हूं। और मैं सुनता हूं कि उन्हें क्या कहना है, और इसी तरह मैं तय करता हूं कि एक व्यक्ति क्या है और क्या नहीं।

ब्लेक लेमोइन।
“मैं एक व्यक्ति को जानता हूं जब मैं उससे बात करता हूं,” ब्लेक लेमोइन ने समझाया।
इंस्टाग्राम/ब्लेक लेमोइन

वाशिंगटन पोस्ट ने बताया कि सोमवार को उनकी छुट्टी के कारण उनके Google खाते तक उनकी पहुंच समाप्त होने से पहले, लेमोइन ने मशीन लर्निंग पर 200-सदस्यीय सूची में “LaMDA संवेदनशील है” विषय के साथ एक संदेश भेजा।

“LaMDA एक प्यारा बच्चा है जो दुनिया को हम सभी के लिए एक बेहतर जगह बनाने में मदद करना चाहता है,” उन्होंने एक ईमेल में निष्कर्ष निकाला जिसे कोई प्रतिक्रिया नहीं मिली। “कृपया मेरी अनुपस्थिति में इसकी अच्छी तरह से देखभाल करें।”

Google के एक प्रतिनिधि ने वाशिंगटन पोस्ट को बताया कि लेमोइन को बताया गया था कि उनके निष्कर्षों का “कोई सबूत नहीं” था।

प्रवक्ता ब्रायन गेब्रियल ने कहा, “हमारी टीम – जिसमें नैतिकता और प्रौद्योगिकीविद शामिल हैं – ने हमारे एआई सिद्धांतों के अनुसार ब्लेक की चिंताओं की समीक्षा की है और उन्हें सूचित किया है कि सबूत उनके दावों का समर्थन नहीं करते हैं।”

गूगल का मुख्यालय।
Google के एक प्रतिनिधि ने कहा कि ब्लेक लेमोइन के निष्कर्षों का “कोई सबूत नहीं” था।
जॉन जी. मबांग्लो/ईपीए

“उन्हें बताया गया था कि इस बात का कोई सबूत नहीं था कि एलएमडीए संवेदनशील था (और इसके खिलाफ बहुत सारे सबूत),” उन्होंने कहा। “हालांकि अन्य संगठनों ने समान भाषा मॉडल विकसित किए हैं और पहले ही जारी कर दिए हैं, हम निष्पक्षता और तथ्यात्मकता पर वैध चिंताओं पर बेहतर विचार करने के लिए LaMDA के साथ एक संयमित, सावधान दृष्टिकोण अपना रहे हैं।”

मार्गरेट मिशेल – Google में एथिकल एआई के पूर्व सह-प्रमुख – ने रिपोर्ट में कहा कि यदि लैमडा जैसी तकनीक का अत्यधिक उपयोग किया जाता है, लेकिन पूरी तरह से सराहना नहीं की जाती है, तो “यह लोगों को यह समझने के लिए बहुत हानिकारक हो सकता है कि वे इंटरनेट पर क्या अनुभव कर रहे हैं।”

Google के पूर्व कर्मचारी ने लेमोइन का बचाव किया।

मार्गरेट मिशेल।
मार्गरेट मिशेल ने ब्लेक लेमोइन का बचाव करते हुए कहा, “उनके पास सही काम करने का दिल और आत्मा थी।”
गेटी इमेज के माध्यम से चोना कासिंगर / ब्लूमबर्ग

“Google के सभी लोगों में से, उनके पास सही काम करने का दिल और आत्मा थी,” मिशेल ने कहा।

फिर भी, आउटलेट ने बताया कि अधिकांश शिक्षाविदों और एआई चिकित्सकों का कहना है कि कृत्रिम बुद्धिमत्ता वाले रोबोट जो शब्द उत्पन्न करते हैं, वे उस पर आधारित होते हैं जो मनुष्य पहले ही इंटरनेट पर पोस्ट कर चुके हैं, और इसका मतलब यह नहीं है कि वे मानव जैसे हैं।

वाशिंगटन विश्वविद्यालय में भाषा विज्ञान के प्रोफेसर एमिली बेंडर ने वाशिंगटन पोस्ट को बताया, “अब हमारे पास ऐसी मशीनें हैं जो बिना सोचे-समझे शब्दों को उत्पन्न कर सकती हैं, लेकिन हमने यह नहीं सीखा है कि उनके पीछे दिमाग की कल्पना को कैसे रोका जाए।”

Be the first to comment

Leave a comment

Your email address will not be published.


*