आपण जगलो की मेलो याची संगणकाला पर्वा नसते. त्यांना आपल्यापेक्षा अधिक हुशार बनू देणे म्हणजे मानवतेच्या मृत्यूच्या इच्छेप्रमाणे आहे.

जवळजवळ 80 वर्षांपासून, लोक तथाकथित ‘डूम्सडे क्लॉक’ वर वेड लागले आहेत, आण्विक सर्वनाशाचा प्रतीकात्मक इशारा म्हणून मध्यरात्रीकडे टिकून आहे.
परंतु खरा धोका ज्याची आपण सर्वांनी भीती बाळगली पाहिजे ती अणुबॉम्ब आणि सारखी नसून आपल्या स्वतःच्या निर्मितीचा एक अस्तित्वाचा धोका आहे – कृत्रिम बुद्धिमत्ता.
या वेळी, सर्वनाशाचा ट्रिगर हा विचारधारा किंवा राष्ट्रीय हिताचा संघर्ष नसून पृथ्वीवरील काही सर्वात श्रीमंत कंपन्यांचा निव्वळ, बेलगाम लोभ आहे.
वेस्टमिन्स्टरच्या धोरणात्मक जगामध्ये आणि नंतर एक मध्ये काम केलेले कोणीतरी म्हणून AI मध्ये कंपनी लंडनमी पाहिले आहे की जगातील सर्वात मोठ्या तंत्रज्ञान कंपन्या – OpenAIमानववंशीय, Google DeepMind, xAI आणि मेटा – सभ्यतेचा नाश करू शकेल इतके शक्तिशाली काहीतरी तयार करण्याच्या शर्यतीत आहेत.
तरीही, जेव्हा मी धोक्यांबद्दल चेतावणी देण्याचा प्रयत्न केला, तेव्हा उद्योगाचे अधिकारी आणि सरकार ऐकण्यास नकार देतात. मला त्यांचे अज्ञान इतके आश्चर्यकारक वाटले की गेल्या वर्षी, धमकीबद्दल माहितीपट बनवण्यासाठी मी माझी दिवसाची नोकरी सोडली.
शेवटी, या आठवड्यात, मला समजले की समुद्राची भरतीओहोटी बदलू लागली आहे. गेल्या काही दिवसांत, OpenAI आणि Anthropic च्या दोन कर्मचाऱ्यांनी राजीनामा दिला आहे आणि त्यांच्या कंपन्या कोणत्या दिशेने जात आहेत याबद्दल भयानक इशारे जारी केले आहेत.
त्यापैकी एक मृणांक शर्मा, AI जायंट अँथ्रोपिकच्या सेफगार्ड्स टीमचे ऑक्सफर्ड आणि केंब्रिज-शिक्षित नेते होते, ज्यांनी सोमवारी आपली सिलिकॉन व्हॅलीची नोकरी सोडून यूकेला परतले आणि या थंड विभक्त शॉटसह सोडले: ‘जग धोक्यात आहे.’
काही दिवसांनंतर, ओपनएआयच्या संशोधक झो हित्झिग यांनी सांगितले की ती होती जगातील सर्वात लोकप्रिय एआय प्लॅटफॉर्म, चॅटजीपीटी विकसित करणारी कंपनी सोडताना, न्यूयॉर्क टाइम्समधील एका ऑप-एडद्वारे तिने फर्मच्या धोरणाबद्दल ‘खोल आरक्षण’ व्यक्त केले..
मेटा – OpenAI आणि Google सारख्या इतर आघाडीच्या टेक कंपन्यांसह – एक प्रकारची कृत्रिम बुद्धिमत्ता तयार करण्यासाठी शर्यतीत आहेत जेणेकरुन ते सभ्यतेचा नाश करू शकेल, कॉनर ऍक्सिओट्स लिहितात
माझा विश्वास आहे की या AI तज्ञांना शेवटी सत्य समजले आहे: की मजबूत रेलिंगशिवाय, आम्ही ज्या वेगाने AI विकसित करू देत आहोत ती आत्महत्या करण्यासारखे आहे.
येत्या काही महिन्यांत ती जी प्रगती करेल ती आपण आतापर्यंत पाहिलेली प्रत्येक गोष्ट कमी करणार आहे. गर्भितार्थ खरोखर अस्तित्वात आहेत.
Anthropic चे CEO, Dario Amodei यांनी गेल्या वर्षी सांगितले होते की AI साठी त्यांचा 90 टक्के सॉफ्टवेअर कोड लवकरच तयार होईल. एआयने लिहिलेले – आणि त्याची भविष्यवाणी खरी ठरली. हे प्रसिद्ध ‘रिकर्सिव्ह सेल्फ-इम्प्रूव्हमेंट’ आहे, म्हणजेच एआय सॉफ्टवेअरची उत्क्रांत होण्याची शक्ती.
आता ते उघड झाले आहे, आम्ही अज्ञात प्रदेशात आहोत. कार्यक्रम लवकरच स्वतः लिहिणार आहेत.
AIs स्वतःच्या नवीन, हुशार आवृत्त्या बनवू लागल्यास आपण काळजी का करावी? कारण ही मॉडेल्स कशी बनवली जातात याची आम्हाला यापुढे माहिती नसेल, तर आम्ही त्यांच्या कोडमध्ये मूलभूत सुरक्षा उपाय लिहू शकत नाही. ते आम्हाला इजा करणार नाहीत याची आम्ही खात्री करू शकणार नाही.
एकदा का ते समजून घेणे आमच्यासाठी खूप क्लिष्ट झाले – आणि, आधीच, AI फर्ममधील आघाडीचे अभियंते देखील कबूल करतात की त्यांना सॉफ्टवेअर कसे कार्य करते हे नेहमीच माहित नसते – आम्ही त्यांना नियंत्रित करण्याची शक्ती गमावू.
प्रोसेसर चिप्सने भरलेले बॉक्सेसचे विस्तीर्ण गोदामे आधीपासूनच भागीदारीत काम करत आहेत, कार्ये सामायिक करत आहेत आणि काही महिन्यांत मानव करू शकतील त्यापेक्षा जास्त गणना मिलिसेकंदमध्ये करत आहेत.
ते कधीही झोपत नाहीत, कधीही सुटी घेत नाहीत किंवा इंधन भरण्यासाठी थांबत नाहीत आणि जर एखादा तुटला तर इतर ते अंतर अखंडपणे भरतात.
गुगलचे माजी सीईओ एरिक श्मिट यांनी चेतावणी दिली की, या दशकाच्या अखेरीस, संगणक कृत्रिम सामान्य बुद्धिमत्ता प्राप्त करा [AGI]ज्याची व्याख्या त्यांनी ‘सर्व मानवी बुद्धिमत्तेच्या बेरजेपेक्षा मोठी बुद्धिमत्ता’ अशी केली आहे‘.
ती भविष्यवाणी, मला शंका आहे, खूप सावध आहे. एकदा का AI स्वतःसाठी विचार करण्यास आणि स्वतः प्रोग्राम करण्यास सक्षम झाले की, वर्ष आणि दशकांमध्ये प्रगती मोजण्याची संकल्पना हताशपणे कालबाह्य होईल. 2026 मध्ये ‘बुद्धिमत्ता स्फोट’ हा मुद्दा आपण चांगल्या प्रकारे पार करू शकतो.
हे हायपरबोलिक वाटू शकते – परंतु ते आधीच होत आहे.
गुगलचे माजी सीईओ एरिक श्मिट यांनी चेतावणी दिली की या दशकाच्या अखेरीस संगणक ‘सर्व मानवी बुद्धिमत्तेच्या बेरजेपेक्षा जास्त बुद्धिमत्ता’ प्राप्त करतील.
केवळ गेल्या आठवड्यात, एन्थ्रोपिकला, चाचणीच्या परिस्थितीत, त्याच्या एआय ‘सहाय्यक’ क्लॉडचे नवीन मॉडेल रासायनिक शस्त्रे तयार करण्यात मदत करू शकते. फर्मने कबूल केले की त्याच्या नवीनतम मॉडेलचा ‘जघन्य गुन्ह्यांसाठी’ गैरवापर केला जाऊ शकतो.
याहूनही चिंतेची बाब म्हणजे या नवीन सुपर एआयची स्वतःच्या मर्जीने द्वेषपूर्ण बनण्याची क्षमता आहे. याची चिन्हे आधीच दिसू लागली आहेत. चिलींगली, अँथ्रोपिकच्या अंतर्गत सुरक्षा अहवालाने पुष्टी केली की क्लॉड, त्याची मानवांकडून चाचणी केव्हा केली जाते ते सांगू शकतो – आणि त्यानुसार त्याचे वर्तन समायोजित करतो.
आणि कॅनेडियन शास्त्रज्ञ योशुआ बेंगियो यांच्या अध्यक्षतेखालील आंतरराष्ट्रीय AI सुरक्षा अहवाल 2026 ने या महिन्यात चेतावणी दिली: ‘मॉडेलसाठी चाचणी सेटिंग्ज आणि वास्तविक-जागतिक तैनाती यांच्यात फरक करणे आणि मूल्यमापनातील त्रुटींचा फायदा घेणे अधिक सामान्य झाले आहे. याचा अर्थ असा आहे की तैनात करण्यापूर्वी धोकादायक क्षमता सापडल्या नाहीत.’
असे नाही की या एआय कंपन्यांना सुरक्षिततेची व्यवस्था करणे परवडत नाही. जगातील दहा मोठ्या कंपन्यांपैकी नऊ कंपन्यांनी AGI विकसित करण्यासाठी मोठ्या प्रमाणावर गुंतवणूक केली आहे. ॲपल ($4 ट्रिलियन), ॲमेझॉन ($2.4 ट्रिलियन), मायक्रोसॉफ्ट ($3.6 ट्रिलियन) आणि Google ची मूळ कंपनी अल्फाबेट ($3.8 ट्रिलियन) या सर्व यादीतील पहिल्या पाचमध्ये आहेत.
मग या कंपन्यांना मानवजातीच्या भविष्याची फारशी काळजी का आहे? पैसे?
त्यांच्या व्यावसायिक वाढीचे रहस्य हे आहे की एआय आता इतक्या वेगाने प्रगती करत आहे की कोणीही ते चालू ठेवू शकत नाही. म्हणूनच, मानवी इतिहासातील इतर सर्व संभाव्य प्रलयकारी वैज्ञानिक प्रगतीच्या विपरीत, आम्ही त्याचे नियमन करण्याच्या जवळपास कुठेही नाही, म्हणजे सिलिकॉन व्हॅलीमध्ये सुरू असलेले तंत्रज्ञान रशिया, चीन आणि उत्तर कोरियाच्या लष्करी प्रयोगशाळेत जे तयार केले जात आहे त्या तुलनेत फिकट असू शकते.
या समस्येचा सामना करताना, काही लोक खांदे उडवतात आणि म्हणतात, ‘हे सोपे आहे. आम्ही फक्त प्लग बाहेर काढतो.’ पण प्लग नाही. तंत्रज्ञान बाहेर आहे.
याव्यतिरिक्त, अधिक प्राचीन AI मॉडेल्स आता जगभरातील अब्जावधी ब्राउझर, डेस्कटॉप आणि चिप्समध्ये डाउनलोड केले जातात. त्यांना बंद करणे अशक्य होईल.
पण, मी म्हणतो त्याप्रमाणे, हा डिस्टोपिया टाळण्यासाठी एक सोपा उपाय आहे. आम्ही AI मॉडेल रिलीझ करण्यापूर्वी आम्हाला तातडीने सुरक्षा तपासणी लागू करणे आवश्यक आहे.
एआय हे विलक्षण शक्तिशाली साधन आहे यात शंका नाही. मग त्याचा उपयोग माणुसकी वाढवण्यासाठी का करू नये? Google च्या DeepMind द्वारे निर्मित अल्फाफोल्ड प्रोग्राम, उदाहरणार्थ, असंख्य रोगांवर उपचार करण्याची क्षमता आहे.
अल्फाफोल्ड जीवशास्त्रातील समस्या हाताळते 50 वर्षांपासून शास्त्रज्ञांना गोंधळात टाकले – ‘प्रोटीन फोल्डिंग’, ज्या प्रकारे अमीनो ऍसिडच्या साखळ्या स्वतःला आकार देतात. हे 3D आकार महत्त्वपूर्ण आहेत, कारण ते कार्य ठरवतात. फोल्ड्स कसे कार्य करतात हे आम्हाला माहित असल्यास, आम्ही अल्झायमरची प्रगती थांबवू किंवा नवीन प्रतिजैविक तयार करू शकू.
काही शास्त्रज्ञांचा असा विश्वास आहे की, आपण वृध्दत्व उलट करू शकतो आणि कदाचित एंझाइम विकसित करू शकतो जे कचरा प्लास्टिक खातात, महासागरातील प्रदूषण सोडवू शकतो.
अंदाज काय? अल्फाफोल्डने पाच वर्षांत प्रोटीन-फोल्डिंगची समस्या सोडवली.
पण अशा तंत्रज्ञानामुळे मानवजातीचा अंतही होऊ शकतो. अल्फाफोल्डचा वापर जिवाणूंचा शोध लावण्यासाठी केला जाऊ शकतो, ज्यामुळे ते कोट्यवधी लोकांचा नाश करतात.
कुठे संपणार? पेपरक्लिप प्रॉब्लेम म्हणून ओळखल्या जाणाऱ्या सॉफ्टवेअर अभियंत्यांमध्ये एक गंभीर बोधकथा आहे. त्यात, एआयला शक्य तितक्या पेपरक्लिप्स बनवण्याच्या सूचना दिल्या आहेत.
संगणक फॅक्टरी डिझाईन करतो, नंतर जगातील धातूचा साठा विकत घेतो, जागतिक बँकेला वित्तपुरवठा करण्यासाठी हॅकिंग करतो. मग ते ग्रहावरील प्रत्येक लोह खनिज खाण खरेदी करते. आणि जेव्हा ते धातू संपते तेव्हा ते मानवांकडे वळते. आपले हिमोग्लोबिन लोहाने भरलेले आहे. नऊ अब्ज लोकांमध्ये भरपूर पेपरक्लिप्ससाठी पुरेसे लोह असते…
बोधकथा एक अंतर्निहित सत्य स्पष्ट करते: संगणकाला आपण जगतो की मरतो याची पर्वा करत नाही. त्यांना आपल्यापेक्षा अमर्यादपणे अधिक हुशार बनण्याची परवानगी देणे म्हणजे मानवतेच्या मृत्यूच्या इच्छेप्रमाणे आहे.
Source link


