World

AI वरील संरक्षक दृष्टिकोन: सुरक्षा कर्मचारी निर्गमन सर्व खर्चात नफा मिळवण्याच्या उद्योगाबद्दल चिंता वाढवतात | संपादकीय

एचएआय ग्रॅन्डी या तंत्रज्ञानामुळे मानवतेसाठी अस्तित्वाला धोका निर्माण झाला आहे याची खबरदारी न घेता साधारणपणे एक महिना निघून जातो. यापैकी बरेच इशारे अस्पष्ट किंवा भोळे असू शकतात. इतरांना स्वारस्य असू शकते. शांत, पातळीवरील छाननी आवश्यक आहे. काही इशारे, तथापि, गांभीर्याने घेण्यासारखे आहेत.

गेल्या आठवड्यात, काही उल्लेखनीय भू-स्तरीय AI सुरक्षा संशोधकांनी सोडले, चेतावणी नफ्याचा पाठलाग करणाऱ्या कंपन्या सुरक्षिततेला बगल देत आहेत आणि धोकादायक उत्पादने पुढे ढकलत आहेत. नजीकच्या काळात, हे अल्प-मुदतीचा पाठपुरावा करण्यासाठी वेगवान “एनशिटिफिकेशन” सूचित करते महसूल. नियमन न करता, सार्वजनिक उद्देश नफ्याचा मार्ग देतो. निश्चितपणे सरकार आणि दैनंदिन जीवनात AI ची विस्तारणारी भूमिका – तसेच अब्जाधीश मालकांची नफ्याची इच्छा – जबाबदारीची मागणी करते.

एआयसाठी मुख्य ग्राहक इंटरफेस म्हणून एजंट – चॅटबॉट्स – वापरण्याची निवड प्रामुख्याने व्यावसायिक होती. संभाषण आणि परस्परसंवादाचे स्वरूप Google शोध बारपेक्षा वापरकर्त्याच्या सखोल परस्परसंवादाला प्रोत्साहन देते. OpenAI संशोधक Zoë Hitzig यांनी केले आहे चेतावणी दिली त्या डायनॅमिक जोखीम हाताळणीमध्ये जाहिराती सादर करणे. OpenAI म्हणते की जाहिराती ChatGPT च्या उत्तरांवर प्रभाव टाकत नाहीत. परंतु, सोशल मीडियाप्रमाणे, ते कमी दृश्यमान आणि अधिक मनोवैज्ञानिक लक्ष्यित होऊ शकतात – विस्तृत खाजगी देवाणघेवाणांवर रेखाचित्र.

हे लक्षात घेण्यासारखे आहे सिमो खंडणीज्याने Facebook च्या जाहिरात व्यवसायाची उभारणी केली, ते गेल्या वर्षी OpenAI मध्ये सामील झाले. आणि ओपनएआयने अलीकडेच त्याच्या कार्यकारिणीला काढून टाकले रायन बेयरमेस्टर “लैंगिक भेदभाव” साठी. अनेक अहवालांमध्ये असे म्हटले आहे की तिने प्रौढ सामग्रीच्या रोलआउटला कडाडून विरोध केला होता. एकत्रितपणे, या हालचाली सूचित करतात की व्यावसायिक दबाव फर्मची दिशा – आणि कदाचित व्यापक उद्योगाच्या दिशेने आकार घेत आहेत. एलोन मस्कची एआय ग्रोक टूल्स ज्या प्रकारे सोडली गेली सक्रिय गैरवापर व्युत्पन्न करण्यासाठी पुरेसा, नंतर UK आणि EU मधील तपासानंतर थांबवण्याआधी सशुल्क प्रवेशाच्या मागे प्रतिबंधित, कमाईच्या हानीबद्दल प्रश्न उपस्थित करते.

शिक्षण आणि सरकार यांसारख्या सामाजिक हेतूंसाठी बनवलेल्या अधिक विशेष प्रणालींचे मूल्यांकन करणे कठीण आहे. परंतु फायद्याचा उन्मादी प्रयत्न आपल्याकडील प्रत्येक मानवी प्रणालीमध्ये अप्रतिरोधक पूर्वाग्रह दाखवतो, AI च्या बाबतीतही असेच असेल.

एका कंपनीत ही समस्या नाही. मानववंशीय सुरक्षा संशोधकाचे अधिक अस्पष्ट राजीनामा पत्र मृणांक शर्मा यांनी “जग धोक्यात” असल्याचा इशारा दिलाआणि त्याने “आपल्या मूल्यांना आपल्या कृतींवर शासन करू देणे किती कठीण आहे हे वारंवार पाहिले होते”. ओपनएआय एकेकाळी पूर्णपणे ना-नफा होता; 2019 पासून व्यावसायिकीकरणासाठी वचनबद्ध झाल्यानंतर, अँथ्रोपिक अधिक सुरक्षित, अधिक सावध पर्याय असल्याचे आश्वासन देत उदयास आले. श्री शर्मा यांच्या जाण्यावरून असे सूचित होते की संयमावर स्थापन झालेल्या कंपन्या देखील नफ्याच्या समान खेचण्याचा प्रतिकार करण्यासाठी संघर्ष करत आहेत.

या पुनर्संरचनाचे कारण स्पष्ट आहे. कंपन्या ऐतिहासिक दरांवर गुंतवणूक भांडवलाद्वारे जळत आहेत, त्यांचे उत्पन्न पुरेसे वेगाने वाढत नाही आणि, प्रभावी तांत्रिक परिणाम असूनही, नफा मिळविण्यासाठी AI काय “करू शकते” हे अद्याप स्पष्ट नाही. तंबाखू पासून फार्मास्युटिकल्सआम्ही पाहिले आहे की नफा प्रोत्साहन कसे निर्णय विकृत करू शकतात. 2008 च्या आर्थिक संकटाने हे दाखवून दिले की जेव्हा अत्यावश्यक प्रणाली अल्पकालीन गरजा आणि कमकुवत देखरेखीमुळे चालतात तेव्हा काय होते.

या समस्येचे निराकरण करण्यासाठी राज्याच्या मजबूत नियमांची आवश्यकता आहे. अलीकडील आंतरराष्ट्रीय AI सुरक्षा अहवाल 2026 सदोष ऑटोमेशनपासून चुकीच्या माहितीपर्यंत – वास्तविक जोखमींचे एक शांत मूल्यांकन आणि नियमनासाठी स्पष्ट ब्लूप्रिंट ऑफर केले. तरीही 60 देशांनी, यूएस आणि यूके सरकारांनी याला मान्यता दिली आहे त्यावर स्वाक्षरी करण्यास नकार दिला. उद्योगाला बांधून ठेवण्याऐवजी ढाल बनवणे ते निवडत असल्याचे ते चिंताजनक लक्षण आहे.


Source link

Related Articles

प्रतिक्रिया व्यक्त करा

आपला ई-मेल अड्रेस प्रकाशित केला जाणार नाही. आवश्यक फील्डस् * मार्क केले आहेत

Back to top button