World

X ‘nudification’ ला लिझ केंडलचा प्रतिसाद चांगला आहे – परंतु समस्येचे निराकरण करण्यासाठी ते पुरेसे नाही | नाना न्वाचुकवू

n X, एक स्त्री साडीत फोटो पोस्ट करते आणि काही मिनिटांतच, विविध वापरकर्ते पोस्टच्या खाली ग्रोकला टॅग करत तिला बिकिनी घालून खाली उतरवतात. हे गोपनीयतेचे धक्कादायक उल्लंघन आहे, परंतु आता ए परिचित आणि सामान्य सराव. जून 2025 ते जानेवारी 2026 दरम्यान, मी Grok ला असहमतीपूर्ण अंतरंग प्रतिमा तयार करण्याची विनंती करणाऱ्या वापरकर्त्यांच्या 565 घटनांचे दस्तऐवजीकरण केले. त्यापैकी 389 अर्ज केवळ एका दिवसात करण्यात आले.

गेल्या शुक्रवारी, अशा असहमतीपूर्ण लैंगिक प्रतिमा तयार करण्याच्या प्लॅटफॉर्मच्या क्षमतेच्या विरोधात प्रतिक्रिया झाल्यानंतर, X ने घोषणा केली की Grok चे AI प्रतिमा निर्मिती वैशिष्ट्य फक्त सदस्यांसाठी उपलब्ध. अहवाल सूचित करतात की बॉट आता प्रतिसाद देत नाही बिकिनीमध्ये स्त्रियांच्या प्रतिमा तयार करण्यासाठी प्रॉम्प्ट करण्यासाठी (जरी वरवर पाहता पुरुषांबद्दलच्या विनंत्यांसाठी असे केले जाईल).

परंतु तंत्रज्ञान सचिव, लिझ केंडल यांनी अगदी बरोबर सांगितल्याप्रमाणे, ही क्रिया “कोठेही पुरेशी दूर जात नाही”. केंडलने जाहीर केले आहे की असहमत अंतरंग प्रतिमा तयार करणे होईल फौजदारी गुन्हा बनणे या आठवड्यात, आणि ती न्युडिफिकेशन ॲप्सच्या पुरवठ्याला गुन्हेगार ठरवेल. X चा कमकुवत प्रतिसाद पाहता हे योग्य आहे. पेवॉलच्या मागे वैशिष्ट्य ठेवण्याचा अर्थ असा आहे की प्लॅटफॉर्मला ऑनलाइन अमानवीकरण आणि महिला आणि अल्पवयीन मुलांचा लैंगिक छळ यापासून थेट फायदा होऊ शकतो. आणि सार्वजनिक निंदा आणि कायद्याच्या धोक्यानंतर “बिकिनी” प्रतिसाद थांबवणे हे कमीतकमी X करू शकते – सर्वात मोठा प्रश्न हा आहे की ते प्रथम स्थानावर का शक्य झाले.

हे उपाय एक पाऊल पुढे आहेत. छाया तंत्रज्ञान सचिव, ज्युलिया लोपेझ यांनी त्यांच्या प्रतिसादात सुचवले की सरकार अतिप्रक्रिया करत आहे, ही फक्त “जुन्या समस्येची आधुनिक पुनरावृत्ती” आहे, क्रूड ड्रॉइंग किंवा फोटोशॉपपेक्षा भिन्न नाही. तिची चूक आहे. स्केल वेगळे आहे. सुलभता वेगळी आहे. वेग वेगळा आहे. फोटोशॉपसह, एक तांत्रिक कौशल्य आवश्यक आहे, तसेच वापरकर्त्याद्वारे थेट प्रकाशन आहे, जे प्लॅटफॉर्मच्या तरतूदीशिवाय सर्व क्रिया त्यांच्यावर पूर्णपणे ठेवते. या प्रकरणात, तरीही, वापरकर्ता विनंतीसह नियमित मजकूर उत्तर देतो आणि Grok मोठ्या प्रमाणात प्रेक्षकांसाठी गुन्हेगारी गैरवर्तन तयार करतो आणि प्रकाशित करतो.

केंडलचा दृष्टीकोन या प्रतिमा तयार करणाऱ्या किंवा बदलणाऱ्या वापरकर्त्यांना आणि समर्पित न्युडिफिकेशन टूल्स पुरवणाऱ्या कंपन्यांना गुन्हेगार ठरवतो. तिथेच मुद्दा चुकतो. Grok आणि सर्वात प्रमुख प्रतिमा-जनरेशन साधने समर्पित न्युडिफिकेशन साधने नाहीत. ते कमकुवत सुरक्षा उपायांसह सामान्य-उद्देश AI आहेत. केंडल प्लॅटफॉर्मना सक्रिय शोध लागू करण्यास सांगत नाही. कायदा हानी होण्याची वाट पाहतो, मग शिक्षा करतो.

या पद्धतीचे तोटे स्पष्ट आहेत. मुख्य प्रवाहातील प्रतिक्रिया सुरू होण्याआधी अनेक महिने ही सामग्री तयार होत असल्याचे मी पाहिले. या अजूनही अस्तित्वात असलेल्या व्युत्पन्न केलेल्या हानिकारक प्रतिमा आहेत आणि कदाचित सेव्ह केलेल्या आणि इतर प्लॅटफॉर्मवर शेअर केल्या गेल्या आहेत. या AI लैंगिक शोषण सामग्रीच्या पीडितांसाठी, वस्तुस्थिती नंतरचे नियमन मदत करणार नाही. अशा प्रकारे संरचनात्मकदृष्ट्या वाढवलेल्या हानीसाठी, दृष्टीकोन प्रतिगामी नसून प्रतिबंधात्मक असणे आवश्यक आहे.

आणखी एक मूलभूत समस्या अशी आहे की जेव्हा यूके एआय सुरक्षा नियमनाला धक्का देत आहे, तर यूएस उलट दिशेने जात आहे. द ट्रम्प प्रशासन “AI साठी किमान बोजड राष्ट्रीय धोरण फ्रेमवर्कद्वारे युनायटेड स्टेट्सचे जागतिक AI वर्चस्व वाढवायचे आहे”. या फ्रेमवर्क अंतर्गत, अमेरिकन एआय कंपन्यांना त्यांच्या उत्पादनांच्या गैरवापराचे नियमन करण्यासाठी थोडेसे प्रोत्साहन दिले जाते. हे महत्त्वाचे आहे कारण AI नियमन सीमापार सहकार्याशिवाय अपूर्ण आहे. केंडल यूकेमधील वापरकर्त्यांना गुन्हेगार बनवू शकते, ती एक्सवर पूर्णपणे बंदी घालण्याची धमकी देऊ शकते. पण ती ग्रोकला सॅन फ्रान्सिस्कोमध्ये प्रोग्राम करण्यापासून रोखू शकत नाही. ती OpenAI किंवा Anthropic किंवा इतर कोणत्याही यूएस कंपनीला वेगापेक्षा सुरक्षिततेला प्राधान्य देण्यासाठी सक्ती करू शकत नाही. यूएस सहकार्याशिवाय, आम्ही राष्ट्रीय कायद्यांसह आंतरराष्ट्रीय तंत्रज्ञानाचे नियमन करण्याचा प्रयत्न करत आहोत.

नियमन आणि अद्ययावत धोरण यावरून हा वाद सुरू असताना, अनेक पीडित महिला आणि ऑनलाइन इतर महिला, AI-सक्षम ऑनलाइन लैंगिक छळाच्या या नवीन युगाचा त्यांच्यासाठी काय अर्थ आहे आणि जागतिक सोशल मीडिया प्लॅटफॉर्मवर त्यांच्या सहभागावर प्रश्नचिन्ह निर्माण करत असतील. जर माझी प्रतिमा डिजिटली बदलली गेली असेल, जर अपराधी जगभर अर्धवट असेल तर मला न्याय कसा मिळेल? एआय कंपन्यांच्या कार्यपद्धतीत पारदर्शकता आहे घट मध्ये – मग त्याच कंपन्यांवर उत्तरदायी आणि हानीचे पुनरुत्पादन करणाऱ्या ऑडिट सिस्टमवर विश्वास कसा ठेवता येईल?

सत्य हे आहे की या कंपन्यांवर विश्वास ठेवता येत नाही. म्हणूनच जागतिक स्तरावर, नियमन “तुम्हाला ते सापडल्यावर हानी दूर करा” वरून “तुमची प्रणाली हानी टाळते हे सिद्ध करण्यासाठी” बदलणे आवश्यक आहे. आम्ही अनिवार्य इनपुट फिल्टरिंग, स्वतंत्र ऑडिट आणि प्रतिबंध कायदेशीर तांत्रिक आवश्यकता बनवणाऱ्या परवाना अटी आवश्यक करून या प्रक्रियेमध्ये सामर्थ्य कोड केले पाहिजे. याचा अर्थ ते प्रत्यक्षात येण्याआधीच हानी पकडू शकते, ज्यामुळे या AI कंपन्यांची उत्पादने तैनात करण्यापूर्वी त्यांच्याकडून हानिकारक वर्तन कमी करण्यासाठी नियमन सक्षम होते. आम्ही येथे कामाचा हा प्रकार आहे एआय अकाउंटेबिलिटी लॅब मध्ये केंद्राशी जुळवून घ्या ट्रिनिटी कॉलेज डब्लिन येथे आमच्या संशोधनातून पुढे जात आहेत.

वस्तुस्थितीनंतरचे नियमन हे काहीही करण्यापेक्षा चांगले आहे. तथापि, ज्यांना आधीच हानी पोहोचली आहे अशा पीडितांना ते फारच कमी ऑफर करते आणि या प्लॅटफॉर्मच्या हानींचे निराकरण करण्यात कायद्याची अंमलबजावणी करण्याच्या स्पष्ट अनुपस्थितीकडे दुर्लक्ष करते.


Source link

Related Articles

प्रतिक्रिया व्यक्त करा

आपला ई-मेल अड्रेस प्रकाशित केला जाणार नाही. आवश्यक फील्डस् * मार्क केले आहेत

Back to top button