AI कामगारांना भेटा जे त्यांचे मित्र आणि कुटुंबीयांना AI पासून दूर राहण्यास सांगतात | कृत्रिम बुद्धिमत्ता (AI)

केरिस्टा पावलोस्कीला एकच निर्णायक क्षण आठवतो ज्याने तिच्या नैतिकतेबद्दलच्या मताला आकार दिला कृत्रिम बुद्धिमत्ता. Amazon Mechanical Turk वर AI वर्कर म्हणून – एक मार्केटप्लेस जे कंपन्यांना डेटा एंटर करणे किंवा AI प्रॉम्प्ट त्याच्या आउटपुटशी जुळवणे यासारखी कामे करण्यासाठी कामगारांना कामावर ठेवू देते – पावलोस्की आपला वेळ AI-व्युत्पन्न केलेल्या मजकूर, प्रतिमा आणि व्हिडिओंच्या गुणवत्तेचे नियंत्रण आणि मूल्यांकन तसेच काही तथ्य तपासण्यात घालवते.
सुमारे दोन वर्षांपूर्वी, तिच्या जेवणाच्या खोलीच्या टेबलावर घरून काम करत असताना, तिने ट्विटस वर्णद्वेषी किंवा नाही म्हणून नियुक्त करण्याचे काम हाती घेतले. जेव्हा तिला “तो मूनक्रिकेट गाणे ऐका” असे ट्विट सादर केले गेले, तेव्हा तिने “मूनक्रिकेट” या शब्दाचा अर्थ तपासण्याचा निर्णय घेण्यापूर्वी जवळजवळ “नाही” बटणावर क्लिक केले, जे तिला आश्चर्यचकित करून, कृष्णवर्णीय अमेरिकन लोकांविरूद्ध जातीय कलंक होते.
पावलोस्की म्हणाला, “मी तीच चूक किती वेळा केली असेल आणि मी स्वतःला पकडले नाही याचा विचार करत मी तिथे बसलो.
तिच्या स्वतःच्या चुका आणि तिच्यासारख्या इतर हजारो कामगारांच्या संभाव्य प्रमाणाने पावलोस्कीला सर्पिल बनवले. इतर किती जणांनी नकळत आक्षेपार्ह साहित्य घसरू दिले? किंवा वाईट, परवानगी देण्यासाठी निवडले?
एआय मॉडेल्सच्या अंतर्गत कामकाजाची अनेक वर्षे साक्ष दिल्यानंतर, पावलोस्कीने यापुढे जनरेटिव्ह एआय उत्पादने वैयक्तिकरित्या न वापरण्याचा निर्णय घेतला आणि तिच्या कुटुंबाला त्यापासून दूर राहण्यास सांगितले.
“माझ्या घरात हे पूर्णपणे नाही,” पावलोस्की म्हणाली, ती तिच्या किशोरवयीन मुलीला यासारखी साधने कशी वापरू देत नाही याचा संदर्भ देते. चॅटजीपीटी. आणि ती सामाजिकरित्या भेटलेल्या लोकांसोबत, ती त्यांना AI ला अशा गोष्टीबद्दल विचारण्यास प्रोत्साहित करते ज्याबद्दल त्यांना खूप माहिती आहे जेणेकरून ते त्यातील त्रुटी शोधू शकतील आणि तंत्रज्ञान किती चुकीचे आहे हे त्यांना स्वतःला समजेल. पावलोस्की म्हणाली की प्रत्येक वेळी जेव्हा ती मेकॅनिकल तुर्क साइटवर निवडण्यासाठी नवीन कार्यांचा मेनू पाहते तेव्हा ती स्वतःला विचारते की ती काय करत आहे याचा उपयोग लोकांना त्रास देण्यासाठी केला जाऊ शकतो का – अनेक वेळा, ती म्हणते, उत्तर होय आहे.
कडून निवेदन ऍमेझॉन म्हणाले की कामगार कोणते कार्य त्यांच्या विवेकबुद्धीनुसार पूर्ण करायचे ते निवडू शकतात आणि ते स्वीकारण्यापूर्वी कार्याच्या तपशीलांचे पुनरावलोकन करू शकतात. ॲमेझॉननुसार, विनंतीकर्ते कोणत्याही दिलेल्या कार्याचे तपशील सेट करतात, जसे की दिलेला वेळ, वेतन आणि सूचना पातळी.
“अमेझॉन मेकॅनिकल तुर्क हे एक मार्केटप्लेस आहे जे व्यवसाय आणि संशोधकांना जोडते, ज्यांना विनंती करणारे म्हणतात, कामगारांशी ऑनलाइन कार्ये पूर्ण करण्यासाठी, जसे की प्रतिमा लेबल करणे, सर्वेक्षणांना उत्तरे देणे, मजकूर लिप्यंतरण करणे किंवा AI आउटपुटचे पुनरावलोकन करणे,” मॉन्टाना मॅकलाचलान, ॲमेझॉन प्रवक्त्याने सांगितले.
पावलोस्की एकटा नाही. डझनभर एआय रेटर्सअचूकता आणि ग्राउंडनेससाठी AI चे प्रतिसाद तपासणाऱ्या कामगारांनी गार्डियनला सांगितले की, चॅटबॉट्स आणि इमेज जनरेटर कसे कार्य करतात आणि त्यांचे आउटपुट किती चुकीचे असू शकते याची जाणीव झाल्यानंतर, त्यांनी त्यांच्या मित्रांना आणि कुटुंबाला जनरेटिव्ह AI अजिबात वापरू नये – किंवा कमीतकमी त्यांच्या प्रियजनांना ते वापरण्याबद्दल शिक्षित करण्याचा प्रयत्न करण्यास सुरुवात केली आहे. हे प्रशिक्षक AI मॉडेल्सच्या श्रेणीवर काम करतात – Google चे Gemini, Elon Musk’s Grok, इतर लोकप्रिय मॉडेल्स आणि अनेक लहान किंवा कमी ज्ञात बॉट्स.
एक कामगार, एक AI रेटर Google Google Search च्या AI Overviews द्वारे व्युत्पन्न केलेल्या प्रतिसादांचे मूल्यमापन करणारी, म्हणाली की ती शक्य तितक्या कमी प्रमाणात AI वापरण्याचा प्रयत्न करते. आरोग्याच्या प्रश्नांना AI-व्युत्पन्न प्रतिसादांकडे कंपनीच्या दृष्टिकोनाने, विशेषतः, तिला विराम दिला, तिने व्यावसायिक बदलाच्या भीतीने नाव न सांगण्याची विनंती केली. तिने सांगितले की तिने तिच्या सहकाऱ्यांना वैद्यकीय बाबींवर AI-व्युत्पन्न प्रतिसादांचे अविवेकीपणे मूल्यांकन करताना पाहिले आणि वैद्यकीय प्रशिक्षणाचा अभाव असूनही अशा प्रश्नांचे स्वतः मूल्यांकन करण्याचे काम तिला सोपवण्यात आले.
घरी, तिने तिच्या 10 वर्षांच्या मुलीला चॅटबॉट्स वापरण्यास मनाई केली आहे. “तिला प्रथम क्रिटिकल थिंकिंग स्किल्स शिकावे लागतील नाहीतर आउटपुट चांगले आहे की नाही हे ती सांगू शकणार नाही,” रेटर म्हणाली.
“रेटिंग हे अनेक एकत्रित डेटा पॉइंट्सपैकी एक आहेत जे आम्हाला आमच्या सिस्टम किती चांगले काम करत आहेत हे मोजण्यात मदत करतात, परंतु आमच्या अल्गोरिदम किंवा मॉडेलवर थेट परिणाम करत नाहीत,” Google कडून एक विधान वाचले आहे. “आमच्या उत्पादनांमध्ये उच्च दर्जाची माहिती समोर आणण्यासाठी आमच्याकडे अनेक मजबूत संरक्षणे देखील आहेत.”
बॉट वॉचर्स अलार्म वाजवतात
हे लोक हजारो लोकांच्या जागतिक कर्मचाऱ्यांचा भाग आहेत जे चॅटबॉट्सला अधिक मानवी आवाजात मदत करतात. AI प्रतिसाद तपासताना, चॅटबॉट चुकीची किंवा हानीकारक माहिती पसरत नाही याची खात्री करण्यासाठी ते सर्वतोपरी प्रयत्न करतात.
जे लोक एआयला विश्वासार्ह वाटतात ते ज्यांना त्यावर कमीत कमी विश्वास आहे, तथापि, तज्ञांचा असा विश्वास आहे की ते खूप मोठ्या समस्येचे संकेत देते.
“हे दर्शविते की कदाचित संथ, काळजीपूर्वक प्रमाणीकरणावर पाठवण्याकरिता आणि स्केल करण्यासाठी प्रोत्साहने आहेत आणि रेटर्सने दिलेल्या फीडबॅककडे दुर्लक्ष केले जात आहे,” ॲलेक्स महादेवन म्हणाले, मीडिया साक्षरता कार्यक्रम, पॉइंटर येथील MediaWise चे संचालक. “म्हणून याचा अर्थ जेव्हा आपण अंतिम सामना पाहतो [version of the] चॅटबॉटमध्ये, आम्ही त्यांना अनुभवत असलेल्या त्याच प्रकारच्या त्रुटींची अपेक्षा करू शकतो. बातम्या आणि माहितीसाठी एलएलएमकडे जाणाऱ्या लोकांसाठी हे चांगले नाही.”
गुणवत्तेच्या खर्चावर वेगवान टर्नअराउंड वेळेवर सातत्यपूर्ण भर दिल्याने AI कामगारांनी सांगितले की ते ज्या मॉडेलवर काम करतात त्यावर त्यांना अविश्वास आहे. ॲमेझॉन मेकॅनिकल टर्कवरील एआय कार्यकर्ता ब्रूक हॅन्सन यांनी स्पष्ट केले की ती एक संकल्पना म्हणून जनरेटिव्ह एआयवर अविश्वास ठेवत नाही, परंतु ती ही उपकरणे विकसित आणि उपयोजित करणाऱ्या कंपन्यांवरही विश्वास ठेवत नाही. तिच्यासाठी, सर्वात मोठा टर्निंग पॉइंट म्हणजे या प्रणालींना प्रशिक्षण देणाऱ्या लोकांना किती कमी पाठिंबा मिळतो हे लक्षात आले.
“आम्ही मॉडेलला अधिक चांगले बनविण्यात मदत करणे अपेक्षित आहे, तरीही आम्हाला बऱ्याचदा अस्पष्ट किंवा अपूर्ण सूचना, किमान प्रशिक्षण आणि कार्ये पूर्ण करण्यासाठी अवास्तव वेळ मर्यादा दिल्या जातात,” हॅन्सन म्हणाले, जे 2010 पासून डेटा वर्क करत आहेत आणि सिलिकॉन व्हॅलीच्या काही सर्वात लोकप्रिय AI मॉडेल्सचे प्रशिक्षण देण्यात भाग घेत आहेत. “जर कामगार आम्हाला आवश्यक असलेली माहिती, संसाधने आणि वेळेसह सुसज्ज नसतील, तर परिणाम सुरक्षित, अचूक किंवा नैतिक कसे असू शकतात? माझ्यासाठी, आमच्याकडून काय अपेक्षित आहे आणि आम्हाला प्रत्यक्षात काम करण्यासाठी दिलेले अंतर हे स्पष्ट लक्षण आहे की कंपन्या जबाबदारी आणि गुणवत्तेपेक्षा वेग आणि नफा याला प्राधान्य देत आहेत.”
तज्ज्ञांचे म्हणणे आहे की, कोणतीही सहज उपलब्ध नसताना कोणतेही उत्तर न देता, आत्मविश्वासपूर्ण स्वरात खोटी माहिती देणे, हा जनरेटिव्ह एआयचा एक मोठा दोष आहे. मीडिया साक्षरता नॉन-प्रॉफिट NewsGuard द्वारे ChatGPT, Gemini आणि Meta’s AI सह शीर्ष 10 जनरेटिव्ह एआय मॉडेल्सच्या ऑडिटमध्ये असे दिसून आले आहे की चॅटबॉट्सचे गैर-प्रतिसाद दर ऑगस्ट 2024 मध्ये 31% वरून ऑगस्ट 2025 मध्ये 0% पर्यंत खाली आले आहेत. त्याच वेळी, चॅटबॉट्सच्या खोट्या माहितीची पुनरावृत्ती होत आहे. 18% ते 35% पर्यंत जवळजवळ दुप्पटन्यूजगार्ड सापडले. कोणत्याही कंपनीने त्या वेळी टिप्पणीसाठी न्यूजगार्डच्या विनंतीला प्रतिसाद दिला नाही.
“मी कोणत्याही तथ्यांवर विश्वास ठेवणार नाही [the bot] ते स्वत: तपासल्याशिवाय ऑफर करते – ते केवळ विश्वसनीय नाही,” दुसऱ्या Google AI रेटरने सांगितले, तिने करार करणाऱ्या कंपनीशी केलेल्या नॉनडिक्लोजर करारामुळे नाव न सांगण्याची विनंती केली. तिने लोकांना ते वापरण्याबद्दल चेतावणी दिली आणि केवळ कर्सररी ज्ञान असलेल्या लोकांना वैद्यकीय प्रश्न आणि संवेदनशील नैतिक विषयांवर काम सोपवले जात आहे याबद्दल तिने दुसऱ्या रेटरच्या मुद्द्याला प्रतिध्वनी दिली. तो फक्त एक रोबोट आहे.”
वृत्तपत्र प्रमोशन नंतर
“आम्ही याची गंमत करतो [chatbots] जर आम्ही त्यांना खोटे बोलणे थांबवायला लावू शकलो तर खूप चांगले होईल,” जेमिनी, चॅटजीपीटी आणि ग्रोक सोबत काम केलेल्या एका एआय ट्यूटरने नाव न सांगण्याची विनंती करत नॉनडिक्लोजर करारांवर स्वाक्षरी केल्याचे सांगितले.
‘कचरा आत, कचरा बाहेर’
2024 च्या सुरुवातीस Google च्या उत्पादनांसाठी आपला प्रवास रेटिंग प्रतिसाद देणाऱ्या दुसऱ्या AI रेटरला असे वाटू लागले की नोकरीच्या सुमारे सहा महिन्यांत तो AI वर विश्वास ठेवू शकत नाही. त्याला मॉडेल स्टंप करण्याचे काम सोपवण्यात आले होते – म्हणजे त्याला Google च्या AI ला विविध प्रश्न विचारायचे होते जे त्याच्या मर्यादा किंवा कमकुवतपणा उघड करतील. इतिहासात पदवी प्राप्त करून, या कार्यकर्त्याने कार्यासाठी मॉडेलला ऐतिहासिक प्रश्न विचारले.
“मी याला पॅलेस्टिनी लोकांच्या इतिहासाबद्दल विचारले, आणि मी या प्रश्नाचे उत्तर कसेही दिले तरीही ते मला उत्तर देणार नाही,” या कामगाराने नाव न सांगण्याची विनंती करून, नॉनडिक्लोजर करारावर स्वाक्षरी केल्यावर आठवले. “जेव्हा मी त्याला इस्रायलच्या इतिहासाबद्दल विचारले, तेव्हा मला खूप विस्तृत रनडाउन देण्यात कोणतीही अडचण आली नाही. आम्ही ते नोंदवले, परंतु कोणीही Google ची काळजी घेत नाही असे दिसले.” रेटरने वर्णन केलेल्या परिस्थितीबद्दल विशेषतः विचारले असता, Google ने विधान जारी केले नाही.
या Google कर्मचाऱ्यासाठी, AI प्रशिक्षणातील सर्वात मोठी चिंतेची बाब म्हणजे त्याच्यासारख्या रेटर्सनी AI मॉडेल्सना दिलेला फीडबॅक. “मॉडेलला कथितपणे प्रशिक्षण देणारा डेटा किती वाईट आहे हे पाहिल्यानंतर, मला माहित होते की अशा प्रकारे योग्यरित्या प्रशिक्षित केले जाऊ शकत नाही,” तो म्हणाला. त्याने “कचरा आत, कचरा बाहेर” हा शब्द वापरला, संगणक प्रोग्रामिंगमधील एक तत्त्व जे स्पष्ट करते की जर तुम्ही तांत्रिक प्रणालीमध्ये खराब किंवा अपूर्ण डेटा फीड केला तर आउटपुटमध्ये देखील समान त्रुटी असतील.
रेटर जनरेटिव्ह एआय वापरणे टाळतो आणि “माझ्या कुटुंबातील प्रत्येक सदस्याला आणि मित्राला AI समाकलित केलेले नवीन फोन विकत घेऊ नयेत, शक्य असल्यास स्वयंचलित अपडेट्सचा प्रतिकार करावा ज्यात AI एकत्रीकरण जोडले जाईल आणि AI ला वैयक्तिक काहीही न सांगण्याचा सल्ला दिला आहे,” तो म्हणाला.
नाजूक, भविष्यवादी नाही
जेव्हा जेव्हा एआयचा विषय सामाजिक संभाषणात येतो तेव्हा हॅन्सन लोकांना आठवण करून देतो की एआय जादू नाही – त्यामागील अदृश्य कामगारांची फौज, माहितीची अविश्वसनीयता आणि कसे ते पर्यावरणास हानीकारक आहे.
“एकदा तुम्ही या सिस्टीम्स कशा एकत्र केल्या आहेत हे पाहिल्यानंतर – पूर्वाग्रह, घाईघाईने टाइमलाइन्स, सतत तडजोड – तुम्ही AI हे भविष्यवादी म्हणून पाहणे बंद कराल आणि ते नाजूक म्हणून पाहण्यास सुरुवात कराल,” डिस्ट्रिब्युटेड AI रिसर्च इन्स्टिट्यूटमध्ये AI च्या मागे असलेल्या श्रमांचा अभ्यास करणाऱ्या अडीओ दिनिका म्हणाल्या, पडद्यामागे काम करणाऱ्या लोकांबद्दल. “माझ्या अनुभवात नेहमी एआय न समजणारे लोक मंत्रमुग्ध होतात.”
गार्डियनशी बोललेल्या एआय कामगारांनी सांगितले की ते अधिक चांगल्या निवडी करण्यासाठी आणि त्यांच्या सभोवताली जागरूकता निर्माण करण्यासाठी ते स्वत: वर घेत आहेत, विशेषत: हॅन्सनच्या शब्दात AI, “त्यात जे टाकले जाते तितकेच चांगले असते आणि त्यात जे ठेवले जाते ते नेहमीच सर्वोत्तम माहिती नसते” या कल्पनेवर जोर देतात. तिने आणि पावलोस्कीने मे मध्ये मिशिगन असोसिएशन ऑफ स्कूल बोर्ड स्प्रिंग कॉन्फरन्समध्ये एक सादरीकरण दिले. राज्यभरातील शाळा मंडळाच्या सदस्यांनी आणि प्रशासकांनी भरलेल्या खोलीत, त्यांनी कृत्रिम बुद्धिमत्तेच्या नैतिक आणि पर्यावरणीय परिणामांबद्दल बोलले आणि संभाषण सुरू होण्याच्या आशेने.
“अनेक उपस्थितांना जे शिकायला मिळाले ते पाहून धक्का बसला, कारण बहुतेकांनी एआयच्या मागे मानवी श्रम किंवा पर्यावरणीय पाऊलखुणा बद्दल कधीच ऐकले नव्हते,” हॅन्सन म्हणाले. “काही अंतर्दृष्टीबद्दल कृतज्ञ होते, तर काही बचावात्मक किंवा निराश होते, त्यांनी आमच्यावर रोमांचक आणि संभाव्यतेने भरलेल्या तंत्रज्ञानाबद्दल ‘डूम आणि ग्लूम’ असल्याचा आरोप केला.”
पावलोस्की यांनी एआय नीतिमत्तेची तुलना कापड उद्योगाशी केली आहे: जेव्हा लोकांना हे माहित नव्हते की कपडे कसे स्वस्त केले जातात, तेव्हा त्यांना सर्वोत्तम डील शोधण्यात आणि काही पैसे वाचवण्यात आनंद झाला. पण जसजसे घामाच्या दुकानांच्या कथा बाहेर येऊ लागल्या तसतसे ग्राहकांना एक पर्याय होता आणि त्यांना माहित होते की त्यांनी प्रश्न विचारले पाहिजेत. तिला विश्वास आहे की ते AI साठी समान आहे.
“तुमचा डेटा कुठून येतो? हे मॉडेल कॉपीराइट उल्लंघनावर आधारित आहे का? कामगारांना त्यांच्या कामासाठी योग्य मोबदला दिला गेला होता?” ती म्हणाली. “आम्ही नुकतेच ते प्रश्न विचारण्यास सुरुवात केली आहे, त्यामुळे बहुतेक प्रकरणांमध्ये सामान्य लोकांना सत्यापर्यंत पोहोचता येत नाही, परंतु वस्त्रोद्योगाप्रमाणेच, आम्ही विचारत राहिल्यास आणि पुढे ढकलत राहिल्यास, बदल शक्य आहे.”
Source link

![आज सोन्याचा भाव [13 Feb 2026]: MCX सोने ₹1.58 लाख/10g आहे आज सोन्याचा भाव [13 Feb 2026]: MCX सोने ₹1.58 लाख/10g आहे](https://i2.wp.com/sundayguardianlive.com/wp-content/uploads/2026/02/blood-a-mask-and-now-a-tent-7.jpg?w=390&resize=390,220&ssl=1)

