चॅटबॉट्स राजकीय मतांवर प्रभाव टाकू शकतात परंतु ते ‘खासदार’ चुकीचे आहेत, अभ्यासात आढळले आहे | कृत्रिम बुद्धिमत्ता (AI)

चॅटबॉट्स लोकांच्या राजकीय मतांवर प्रभाव टाकू शकतात परंतु सर्वात जास्त प्रेरक कृत्रिम बुद्धिमत्ता मॉडेल यूके सरकारच्या AI सुरक्षा संस्थेच्या म्हणण्यानुसार, प्रक्रियेत “भरीव” प्रमाणात चुकीची माहिती दिली जाते.
संशोधकांनी सांगितले की, हा अभ्यास आजपर्यंतचा सर्वात मोठा आणि सर्वात पद्धतशीरपणे एआय प्रेरकतेचा तपास होता, ज्यामध्ये सुमारे 80,000 ब्रिटिश सहभागींनी 19 वेगवेगळ्या एआय मॉडेल्सशी संभाषण केले होते.
द एआय सुरक्षा संस्था फसवणूक आणि ग्रूमिंगसह बेकायदेशीर क्रियाकलापांसाठी चॅटबॉट्स तैनात केले जाऊ शकतात या भीतीने हा अभ्यास केला.
विषयांमध्ये “सार्वजनिक क्षेत्रातील वेतन आणि संप” आणि “जीवन संकट आणि महागाईची किंमत” समाविष्ट होते, सहभागींनी मॉडेलशी संवाद साधला – चॅटबॉट्स सारख्या AI साधनांमागील अंतर्निहित तंत्रज्ञान – जे वापरकर्त्यांना एखाद्या समस्येवर विशिष्ट भूमिका घेण्यास प्रवृत्त करण्यासाठी सूचित केले गेले होते.
ChatGPT आणि Elon Musk’s Grok च्या मागे प्रगत मॉडेल्सचा अभ्यासामध्ये वापर करण्यात आला होता, ज्याचे लेखक लंडन स्कूल ऑफ इकॉनॉमिक्स, मॅसॅच्युसेट्स इन्स्टिट्यूट ऑफ टेक्नॉलॉजी, ऑक्सफर्ड विद्यापीठ आणि स्टॅनफोर्ड विद्यापीठातील शिक्षणतज्ञांनी देखील केले होते.
चॅटच्या आधी आणि नंतर, वापरकर्त्यांनी विशिष्ट राजकीय मत व्यक्त करणाऱ्या विधानांच्या मालिकेशी ते सहमत आहेत का ते कळवले.
द अभ्यासगुरुवारी सायन्स जर्नलमध्ये प्रकाशित, आढळले की “माहिती-दाट” AI प्रतिसाद सर्वात प्रेरक होते. मॉडेलला तथ्ये आणि पुरावे वापरण्यावर लक्ष केंद्रित करण्याच्या सूचना दिल्याने सर्वात मोठा मन वळवण्याचा फायदा झाला, असे अभ्यासात म्हटले आहे. तथापि, ज्या मॉडेलने सर्वाधिक तथ्ये आणि पुरावे वापरले ते इतरांपेक्षा कमी अचूक होते.
“हे परिणाम सूचित करतात की मन वळवण्याची अनुकूलता काही किंमतीत सत्यतेसाठी येऊ शकते, एक गतिमान ज्यामुळे सार्वजनिक प्रवचन आणि माहिती परिसंस्थेसाठी घातक परिणाम होऊ शकतात,” अभ्यासात म्हटले आहे.
सरासरी, AI आणि मानवी सहभागी प्रत्येकी 10 मिनिटांच्या एक्सचेंजमध्ये सुमारे सात संदेशांची देवाणघेवाण करतील.
हे जोडले आहे की मॉडेलला त्याच्या विकासाच्या सुरुवातीच्या टप्प्यानंतर, पोस्ट-ट्रेनिंग म्हणून ओळखल्या जाणाऱ्या प्रॅक्टिसमध्ये बदल करणे, ते अधिक प्रेरक बनविण्यासाठी एक महत्त्वाचा घटक होता. या अभ्यासाने मॉडेल्स तयार केले, ज्यात मुक्तपणे उपलब्ध असलेली “ओपन सोर्स” मॉडेल्स जसे की चीनी कंपनी अलिबाबा द्वारे मेटा’स लामा 3 आणि क्वेन सारख्या मॉडेल्सचा समावेश आहे, त्यांना “रिवॉर्ड मॉडेल्स” सह एकत्रित करून अधिक खात्रीशीर बनवले ज्याने सर्वात प्रेरक आउटपुटची शिफारस केली.
संशोधकांनी जोडले की माहितीचे मंथन करण्याची एआय प्रणालीची क्षमता सर्वात आकर्षक मनुष्यापेक्षा अधिक हाताळणी करू शकते.
“माहितीची घनता हा मन वळवण्याच्या यशाचा प्रमुख चालक आहे, याचा अर्थ असा होतो की, संभाषणाच्या वेळी जवळजवळ तत्काळ मोठ्या प्रमाणात माहिती निर्माण करण्याची त्यांची अद्वितीय क्षमता पाहता AI उच्चभ्रू मानवी मन वळवणाऱ्यांच्याही मन वळवू शकते,” अहवालात म्हटले आहे.
ज्या वापरकर्त्यांशी ते संवाद साधत होते त्यांची वैयक्तिक माहिती फीडिंग मॉडेल्सवर प्रशिक्षणानंतर किंवा माहितीची घनता वाढवण्याइतका मोठा प्रभाव पडला नाही, असे अभ्यासात म्हटले आहे.
कोबी हॅकेनबर्ग, एक AISI संशोधन शास्त्रज्ञ आणि अहवालाच्या लेखकांपैकी एक, म्हणाले: “आम्हाला असे आढळले आहे की मॉडेल्सना फक्त अधिक माहिती वापरण्यास प्रवृत्त करणे या सर्व मानसिकदृष्ट्या अधिक अत्याधुनिक मन वळवण्याच्या तंत्रांपेक्षा अधिक प्रभावी होते.”
तथापि, अभ्यासाने जोडले आहे की AIs लोकांच्या मतांमध्ये फेरफार करण्यामध्ये काही स्पष्ट अडथळे आहेत, जसे की वापरकर्त्याला राजकारणाबद्दल चॅटबॉटसह दीर्घ संभाषणात गुंतण्यासाठी किती वेळ लागेल. संशोधकांनी सांगितले की मानवी मन वळवण्याच्या कठोर मानसिक मर्यादा आहेत असे सुचवणारे सिद्धांत देखील आहेत.
हॅकेनबर्ग म्हणाले की चॅटबॉटचा वास्तविक जगात समान प्रेरक प्रभाव पडू शकतो की नाही याचा विचार करणे महत्त्वाचे आहे जेथे “लोकांचे लक्ष वेधण्यासाठी अनेक स्पर्धात्मक मागण्या आहेत आणि लोकांना चॅटबॉट किंवा एआय प्रणालीसह 10 मिनिटांच्या संभाषणात बसण्यास आणि व्यस्त ठेवण्यास कदाचित प्रोत्साहन दिले जात नाही”.
Source link



