World

एआयचा वापर ऑस्ट्रेलियामध्ये वर्णद्वेष आणि लैंगिकता बिघडू शकतो, मानवाधिकार आयुक्त चेतावणी देतात | कृत्रिम बुद्धिमत्ता (एआय)

एआय ऑस्ट्रेलियामध्ये वंशविद्वेष आणि लैंगिकतेचा धोका आहे, असे मानवाधिकार आयुक्तांनी इशारा दिला आहे, उदयोन्मुख तंत्रज्ञानाला कसे उत्तर द्यावे याविषयी अंतर्गत कामगार चर्चेत.

लॉरेन फिनले म्हणतात की तंत्रज्ञानाचे योग्यरित्या नियमन केले नाही तर एआयकडून उत्पादकता नफ्याचा पाठपुरावा भेदभावाच्या खर्चावर येऊ नये.

फिनले यांच्या टिप्पण्यांनी कामगार सिनेटचा सदस्य मिशेल आनंद-राजा ब्रेकिंग या सर्व ऑस्ट्रेलियन डेटाला परदेशी पक्षपातीपणा रोखण्यासाठी आणि ऑस्ट्रेलियन जीवन आणि संस्कृती प्रतिबिंबित करण्यासाठी टेक कंपन्यांना “मुक्त” करण्याची मागणी केली आहे.

आनंद-राजाला समर्पित एआय कायद्याचा विरोध आहे परंतु सामग्री निर्मात्यांना त्यांच्या कामासाठी पैसे द्यावे असा विश्वास आहे.

साइन अप करा: एयू ब्रेकिंग न्यूज ईमेल

संघटना आणि उद्योग संस्था चिंतेत चिंता करतात म्हणून फेडरल सरकारच्या आर्थिक शिखर परिषदेत पुढील आठवड्यात एआय कडून उत्पादकता नफ्यावर चर्चा केली जाईल. कॉपीराइट आणि गोपनीयता संरक्षण?

माध्यम आणि कला गटांनी चेतावणी दिली आहे बौद्धिक मालमत्तेची “सर्रासपणे चोरी” जर मोठ्या टेक कंपन्या एआय मॉडेलना प्रशिक्षण देण्यासाठी त्यांची सामग्री घेऊ शकतात.

फिनले म्हणाले की, कोणत्या डेटासेट एआय साधनांचे प्रशिक्षण दिले जात आहे त्यामध्ये पारदर्शकतेचा अभाव यामुळे कोणत्या पक्षपातीपणाचा समावेश असू शकतो हे ओळखणे कठीण होते.

ती म्हणाली, “अल्गोरिदमिक पूर्वाग्रह म्हणजे आपण वापरत असलेल्या साधनांमध्ये पूर्वाग्रह आणि अयोग्यपणा तयार केला गेला आहे आणि म्हणूनच परिणामी निर्णय त्या पक्षपात प्रतिबिंबित करतील,” ती म्हणाली.

मानवाधिकार आयुक्त, लॉरेन फिनले. छायाचित्र: मिक त्सिकास/आप

“जेव्हा आपण ऑटोमेशन बायससह अल्गोरिदम पूर्वाग्रह एकत्र करता – जेथे मानवांनी मशीनच्या निर्णयावर अवलंबून राहण्याची शक्यता असते आणि जवळजवळ त्यांची स्वतःची विचारसरणी पुनर्स्थित केली जाते – असा वास्तविक धोका आहे की आपण जे काही तयार करीत आहोत ते म्हणजे ते इतके गुंतलेले आहे की ते इतके गुंतलेले आहे, आम्हाला कदाचित हे ठाऊक नसते की ते घडत आहे.”

मानवाधिकार आयोगाने एआय कायद्यासाठी सातत्याने वकिली केली आहे, ज्यात प्रायव्हसी अ‍ॅक्ट, आणि एआय टूल्समधील पक्षपातीपणासाठी कठोर चाचणी यासह विद्यमान कायद्याने चालना दिली आहे. फिनले म्हणाले की सरकारने तातडीने नवीन विधिमंडळ रेलिंगची स्थापना केली पाहिजे.

“पूर्वाग्रह चाचणी आणि ऑडिटिंग, योग्य मानवी निरीक्षणाचे पुनरावलोकन सुनिश्चित करणे, आपण [do] त्या ठिकाणी विविध प्रकारच्या विविध उपायांची आवश्यकता आहे, ”ती म्हणाली.

ऑस्ट्रेलियामध्ये एआय साधनांमध्ये पूर्वाग्रह आहे याचा वाढता पुरावा आहे आणि परदेशीऔषध आणि नोकरी भरतीसारख्या भागात.

ऑस्ट्रेलियन अभ्यास मे मध्ये प्रकाशित झालेल्या नोकरीच्या उमेदवारांना एआय भरती करणार्‍यांनी मुलाखत घेतल्याचे आढळले की जर त्यांनी एखाद्या उच्चारणांशी बोलले असेल किंवा अपंगत्वासह जगले असेल तर त्यामध्ये भेदभाव केला जात आहे.

आनंद-फर्टिलायझर, कोण होता संसदेत प्रवेश करण्यापूर्वी एआयमधील वैद्यकीय डॉक्टर आणि संशोधक म्हणाले की, एआय साधनांना ऑस्ट्रेलियन डेटावर प्रशिक्षण देणे किंवा परदेशातील पक्षपातीपणाचा धोका पत्करावा लागतो.

सरकारने बौद्धिक मालमत्तेचे रक्षण करण्याची गरज यावर जोर दिला आहे, परंतु तिने चेतावणी दिली की घरगुती डेटा न उघडता ऑस्ट्रेलिया म्हणजे “कायमचे भाड्याने देणे” [AI] टेक बेहेमोथ्स परदेशातील मॉडेल्स ”त्यांच्या मॉडेल्स किंवा प्लॅटफॉर्मवर कोणतेही निरीक्षण किंवा अंतर्दृष्टी नसतात.

“एआयला शक्य तितक्या विस्तृत लोकांकडून शक्य तितक्या डेटावर प्रशिक्षण दिले पाहिजे किंवा ते पक्षपातीपणा वाढवतील, जे सेवा देण्याच्या उद्देशाने होणा .्या लोकांचे संभाव्य नुकसान करतात,” आनंद-राजा म्हणाले.

“आम्हाला मॉडेल प्रशिक्षण देण्यासाठी आमचा स्वतःचा डेटा मुक्त करण्याची आवश्यकता आहे जेणेकरून ते आमचे प्रतिनिधित्व करतील.

मागील वृत्तपत्राची जाहिरात वगळा

“डेटा मुक्त करताना मी सामग्री निर्मात्यांना पैसे देण्यास उत्सुक आहे. मला वाटते की आम्ही परदेशातील लुट आणि लुटण्यासाठी एक पर्याय सादर करू शकतो.”

आनंद-राजाने वाढविले त्वचा कर्करोग स्क्रीनिंग एआय द्वारा उदाहरण म्हणून जेथे चाचणीसाठी वापरल्या जाणार्‍या साधनांमध्ये अल्गोरिदम पूर्वाग्रह असल्याचे दर्शविले गेले आहे. आनंद-राजा म्हणाले की, विशिष्ट रूग्णांविरूद्ध कोणत्याही पक्षपात किंवा भेदभावावर मात करण्याचा मार्ग म्हणजे संवेदनशील डेटासाठी योग्य संरक्षणासह “या मॉडेल्सला ऑस्ट्रेलियाच्या शक्य तितक्या विविध डेटावर” प्रशिक्षण देणे.

फिनले म्हणाले की ऑस्ट्रेलियन डेटाचे कोणतेही प्रकाशन योग्य प्रकारे केले जावे परंतु तिचा विश्वास आहे की यावर लक्ष वेधले पाहिजे.

ती म्हणाली, “वैविध्यपूर्ण आणि प्रतिनिधी डेटा असणे ही एक चांगली गोष्ट आहे… परंतु हा समाधानाचा फक्त एक भाग आहे,” ती म्हणाली.

“हे तंत्रज्ञान प्रत्येकासाठी योग्य अशा प्रकारे ठेवले आहे याची खात्री करुन घेण्याची गरज आहे आणि मानवांनी केलेले कार्य आणि योगदान प्रत्यक्षात ओळखते.”

एआय कंपनीचे एआय तज्ञ आणि एआय कंपनीचे माजी डेटा संशोधक ज्युडिथ बिशप म्हणाले की, ऑस्ट्रेलियन अधिक डेटा मोकळे केल्याने एआय साधनांना अधिक योग्य प्रकारे प्रशिक्षण मिळू शकेल – आंतरराष्ट्रीय डेटा वापरुन परदेशात विकसित केलेल्या एआय टूल्सचा इशारा ऑस्ट्रेलियन लोकांच्या गरजा प्रतिबिंबित होऊ शकत नाही – परंतु तो या समाधानाचा एक छोटासा भाग होता.

“आम्हाला सावधगिरी बाळगणे आवश्यक आहे की सुरुवातीला इतर संदर्भांमध्ये विकसित केलेली प्रणाली प्रत्यक्षात लागू आहे [Australian] लोकसंख्या, आम्ही यूएस मॉडेल्सवर अवलंबून नाही ज्यांचे यूएस डेटावर प्रशिक्षण दिले गेले आहे, ”बिशप म्हणाले.

एसेफ्टी कमिशनर, ज्युली इनमन ग्रँट देखील डेटा एआय टूल्सच्या वापराच्या आसपास पारदर्शकता नसल्यामुळे चिंतेत आहे.

एका निवेदनात ती म्हणाली की टेक कंपन्यांनी त्यांच्या प्रशिक्षण डेटाविषयी पारदर्शक असले पाहिजे, अहवाल साधने विकसित केली पाहिजेत आणि त्यांच्या उत्पादनांमध्ये विविध, अचूक आणि प्रतिनिधी डेटा वापरणे आवश्यक आहे.

“जनरेटिव्ह एआय विकास आणि तैनातीची अस्पष्टता गंभीरपणे समस्याप्रधान आहे,” असे इनमन ग्रँट म्हणाले. “हे एलएलएमएस किती प्रमाणात महत्त्वाचे प्रश्न उपस्थित करते [large language models] अरुंद किंवा हानिकारक लैंगिक निकष आणि वांशिक पूर्वग्रहांसह – हानिकारक पक्षपातीपणा वाढवू शकतो, अगदी गती वाढवू शकतो.

“या यंत्रणेच्या विकासामुळे काही कंपन्यांच्या हाती लक्ष केंद्रित केल्यामुळे, पुरावा, आवाज आणि दृष्टीकोन या विशिष्ट संस्थांनी जनरेटिव्ह आउटपुटमध्ये ओव्हरडॉड किंवा बाजूला सारले जाऊ शकते असा वास्तविक धोका आहे.”


Source link

Related Articles

प्रतिक्रिया व्यक्त करा

आपला ई-मेल अड्रेस प्रकाशित केला जाणार नाही. आवश्यक फील्डस् * मार्क केले आहेत

Back to top button