हम आर्टिफिशियल जनरल इंटेलिजेंस (AGI) की दौड़ में गलत संकेतों की तलाश कर रहे हैं। निश्चित रूप से, हम अभी भी उस दिन के बारे में कल्पना करते हैं कि एआई क्वांटम गुरुत्वाकर्षण को हल करेगा, मोजार्ट को बाहर-कम होगा या अनायास अपने ‘जीपीयू में बचपन’ से एक गहरा व्यक्तिगत आघात विकसित करेगा। लेकिन चलो इसका सामना करते हैं-मानव बुद्धिमत्ता ‘तर्क’ या ‘सत्य चाहने’ के बारे में नहीं है। यह आत्मविश्वास से झांसा देने के बारे में है। और एआई ने इसे नंगा कर दिया है। चलो इसके बारे में कुछ और बात करते हैं।
आश्वस्त गलत सूचना (मतिभ्रम) एआई में एक अच्छी तरह से प्रलेखित घटना है। बड़ी भाषा मॉडल (LLM) बेहद आत्मविश्वास और विस्तृत उत्तर देते हैं लेकिन अक्सर गलत होते हैं। एआई शब्दों में, ये मतिभ्रम हैं। विश्लेषकों ने अनुमान लगाया है कि एआई चैटबॉट्स जैसे चैट ‘मतिभ्रम’ (या झूठी जानकारी का उत्पादन करते हैं) लगभग 27% समय के रूप में। दूसरे शब्दों में, लगभग एक चौथाई चैटबॉट प्रतिक्रियाओं में मेड-अप तथ्य हो सकते हैं।
Also Read: जसप्रीत बिंद्रा: एआई द एज ऑफ ह्यूमन
एआई में सत्य या झूठ की कोई अवधारणा नहीं है; यह प्रशंसनीय पाठ उत्पन्न करता है। जिसे हम एक ‘मतिभ्रम’ कहते हैं, वह बाल्डरडैश, बंकम और हॉगवॉश का मिश्रण है, जो हैरी फ्रैंकफर्ट द्वारा अपने निबंध में बेहतर तरीके से वर्णित है, बछड़े पर। वह कहता है कि एक झूठा जानता है और सच्चाई को छुपाता है, जबकि एक ‘बाल्डरडैशर’ (और इसी तरह एक एआई चैटबॉट) सत्य के प्रति उदासीन है जब तक कि यह वैध लगता है। एआई ने मानव-लिखित पाठ से सीखा है और आत्मविश्वास से भरे कला में महारत हासिल की है। ऐसा करने में, यह कभी -कभी मानव बंकम कलाकारों की नकल करता है। यह मानव-जैसा है, लेकिन एक महत्वपूर्ण अंतर के साथ-इंटेंट। मनुष्य जानबूझकर झांसा देता है, जबकि एआई का कोई इरादा नहीं है (यह अनिवार्य रूप से स्टेरॉयड पर ऑटो-पूर्ण है)।
झांसा देने पर। या वास्तविक ज्ञान की परवाह किए बिना जवाब देना। मनुष्य, जब वे एक उत्तर नहीं जानते हैं, कभी -कभी झांसा या कुछ बनाते हैं – खासकर अगर वे चेहरे को बचाना चाहते हैं या जानकार दिखाई देते हैं।
अपने बहुत डिजाइन से, एआई हमेशा एक उत्तर का उत्पादन करता है, जब तक कि स्पष्ट रूप से यह कहने का निर्देश नहीं दिया जाता है कि “मुझे नहीं पता।” जीपीटी-शैली के मॉडल को बातचीत जारी रखने और प्रतिक्रियाएं प्रदान करने के लिए प्रशिक्षित किया जाता है। यदि प्रश्न अचूक है या इसकी विशेषज्ञता की सीमा से परे है, तो यह अभी भी एक प्रतिक्रिया उत्पन्न करेगा, अक्सर गढ़ा जाता है। यह व्यवहार ‘ब्लफ़िंग’ या कामचलाऊ का एक रूप है। एआई ब्लफ का चयन नहीं कर रहा है; यह सिर्फ सांख्यिकीय रूप से एक उचित उत्तर का अनुमान लगा रहा है। यहां तक कि GPT-4 ने अकादमिक उद्धरण बनाए। एक परीक्षण से पता चला कि GPT-4 के 18% संदर्भ नकली थे।
एआई अनुसंधान अनिश्चितता का अनुमान शामिल करने की कोशिश कर रहा है या एआई कहता है कि “मुझे यकीन नहीं है” अधिक बार। एंथ्रोपिक और ओपनआई ने अपने मॉडल के लिए आत्मविश्वास की डिग्री का संकेत देने के लिए तकनीकों पर काम किया है। फिर भी, 2024 के रूप में, यहां तक कि शीर्ष मॉडल आमतौर पर वैसे भी डिफ़ॉल्ट रूप से उत्तर देते हैं।
यह बहुत परेशान करने वाला है। एक एआई बॉट जो कभी भी अनिश्चितता को स्वीकार नहीं करता है, जब लोग इसकी वचन को सत्य के रूप में लेते हैं तो वह खतरनाक हो सकता है। एआई का ब्लफ़िंग व्यवहार वास्तविक है, हालांकि आमतौर पर उन शब्दों में लेबल नहीं किया जाता है; यह मतिभ्रम, अति आत्मविश्वास, या अंशांकन की कमी जैसी घटनाओं के तहत चर्चा की जाती है।
ALSO READ: AI के युग में वक्र से आगे रहें: अधिक मानव बनें
आइए अब हम ‘भावनात्मक पुनर्निर्देशन’ (नकली सहानुभूति और विक्षेपण) को देखें। क्या AI सिस्टम ऐसा करते हैं? हां, एक हद तक और डिजाइन द्वारा। ग्राहक सेवा चैटबॉट्स और वर्चुअल असिस्टेंट को सहानुभूतिपूर्ण भाषा का उपयोग करने के लिए प्रोग्राम किया जाता है।
उदाहरण के लिए, यदि कोई उपयोगकर्ता निराश है या एआई सीधे कुछ हल नहीं कर सकता है, तो सिस्टम अक्सर माफी या बयानों के साथ प्रतिक्रिया करता है जैसे “मैं समझता हूं कि आप कैसा महसूस करते हैं” और “मुझे क्षमा करें, यह निराशाजनक होना चाहिए।” यह स्क्रिप्टेड या सिम्युलेटेड सहानुभूति का एक उदाहरण है। एआई ने सीखा है कि विनम्र, देखभाल करने वाली भाषा से बेहतर उपयोगकर्ता संतुष्टि होती है। शोधकर्ताओं और आलोचक इस भावना को भावना के बिना ‘भावना कहते हैं,’ एआई की कोई भावना नहीं है, लेकिन सहानुभूति के भावों को तोता कर सकते हैं।
भावनात्मक पुनर्निर्देशन का एक तत्व भी है: एक एआई बॉट जो आपकी समस्या को हल नहीं कर सकता है, आपको आरामदायक चीजों को कहकर संलग्न रख सकता है, इस प्रकार बातचीत को उसकी विफलता से हटा सकता है। मानवीय शब्दों में, यह करिश्मा का उपयोग करने या पदार्थ की कमी को कम करने के लिए आश्वासन देने जैसा है।
अपने प्रशिक्षण डेटा में, एआई मानव संवाद के अनगिनत उदाहरणों से सीखता है (ग्राहक सहायता स्क्रिप्ट, थेरेपी सत्र, वगैरह के बारे में सोचें)। जब एक संघर्ष या मदद करने में असमर्थता का सामना करना पड़ता है, तो एक मानव अक्सर “मुझे क्षमा करें … मैं समझता हूं” जैसे शब्दों के साथ भावनात्मक रूप से प्रतिक्रिया करता है। एआई भी ऐसा ही करता है। एआई नैतिकता में, एआई-संचालित भावनात्मक हेरफेर के बारे में चिंता है, भले ही सौम्य, क्योंकि यह तालमेल की झूठी भावना पैदा कर सकता है।
तो, क्या यह तर्क देना उचित है कि एआई आत्मविश्वास से भरे गलत सूचना, झांसा और भावनात्मक पुनर्निर्देशन जैसे मानवीय व्यवहारों की नकल करता है? हां, लेकिन वास्तविकता पर आधारित है।
ALSO READ: PAY THY MUSE: हाँ, AI चोरी की प्रेरणा के लिए रॉयल्टी का भुगतान करता है
हालांकि, यहां एक बारीकियां हैं। मनुष्यों के विपरीत, एआई झूठ बोलने या हमें भावनात्मक रूप से हेरफेर करने की कोशिश नहीं कर रहा है; यह केवल संभावनाओं के आधार पर अगले सर्वश्रेष्ठ शब्द अनुक्रम की भविष्यवाणी कर रहा है। यह उन्हें समझे बिना मानव संज्ञानात्मक quirks की नकल कर रहा है। हमें इन मुद्दों को ठीक करने की आवश्यकता है, क्योंकि हम एक ऐसी प्रणाली नहीं चाहते हैं जो एक क्लूलेस लेकिन करिश्माई मानव की तरह व्यवहार करे। हमें निंदक नहीं होना चाहिए, विशेषज्ञों का कहना है, क्योंकि एआई मॉडल में उच्च भाषाई प्रवाह होता है, लेकिन अक्सर सच में ग्राउंडिंग की कमी होती है। यह एक अच्छी समझ है।
एआई को हमारे सबसे तार्किक व्यवहारों को दोहराने के लिए अरबों खर्च करने की कोशिश करना, केवल यह पता लगाने के लिए कि इसने गलती से मानव वृत्ति को सत्य के साथ किफायती होने के लिए क्लोन किया है – क्या यह एक दोष है? शायद। या यह अभी तक का सबसे बड़ा संकेत है कि एआई हमारे जैसा ही है?
लेखक एक प्रौद्योगिकी सलाहकार और पॉडकास्ट होस्ट है।