माझे चित्र बाल शोषणाच्या प्रतिमांमध्ये वापरले गेले. AI माझ्या दुःस्वप्नातून इतरांना घालवत आहे | मारा विल्सन

मी लहान असताना, अनोळखी व्यक्तीपेक्षा भयानक काहीही नव्हते.
1980 च्या दशकाच्या उत्तरार्धात आणि 1990 च्या दशकाच्या सुरुवातीस, मुलांना आमच्या पालकांद्वारे, टीव्ही स्पेशलद्वारे, शिक्षकांद्वारे सांगण्यात आले की, तेथे अनोळखी लोक आहेत ज्यांना आम्हाला दुखवायचे आहे. “अनोळखी धोका” सर्वत्र होता. हा एक चांगला धडा होता, परंतु जोखीम जास्त होती: बहुतेक बाल शोषण आणि शोषण हे मुलांना माहीत असलेल्या लोकांकडून केले जाते. अनोळखी व्यक्तींकडून मुलांवर अत्याचार किंवा शोषण होणे हे खूपच दुर्मिळ आहे.
दुर्मिळ, पण अशक्य नाही. मला माहीत आहे, कारण अनोळखी व्यक्तींकडून माझे लैंगिक शोषण झाले होते.
वयाच्या पाच ते १३ पर्यंत मी बाल कलाकार होतो. आणि उशिरापर्यंत आम्ही पडद्यामागील बाल कलाकारांसोबत घडलेल्या अपमानास्पद गोष्टींबद्दल अनेक भयपट कथा ऐकल्या आहेत, चित्रीकरण करताना मला नेहमीच सुरक्षित वाटले. फिल्मसेट ही अत्यंत नियमन केलेली जागा होती जिथे लोकांना काम करायचे होते. माझे पालक पालक होते आणि माझ्याभोवती दिग्दर्शक, अभिनेते आणि स्टुडिओ शिक्षक होते जे मुलांना समजून घेतात आणि त्यांची काळजी घेतात.
व्यवसाय दाखवण्याचा एकमेव मार्ग केले मला लोकांच्या नजरेत टाकून मला धोक्यात आणले. बाल कलाकार म्हणून मला मिळालेली कोणतीही क्रूरता आणि शोषण लोकांच्या हातून होते.
“हॉलीवूड तुम्हाला तलावात टाकते,” मी लोकांना नेहमी सांगतो, “पण जनताच तुमचे डोके पाण्याखाली ठेवते.”
मी हायस्कूलमध्ये असण्यापूर्वी, माझी प्रतिमा बाल लैंगिक शोषण सामग्रीसाठी (CSAM) वापरली गेली होती. मला फेटिश वेबसाइट्सवर वैशिष्ट्यीकृत केले गेले आहे आणि पोर्नोग्राफीमध्ये फोटोशॉप केले गेले आहे. मोठ्या माणसांनी मला भितीदायक पत्रे पाठवली. मी एक सुंदर मुलगी नव्हतो – माझे विचित्र वय सुमारे 10 ते सुमारे 25 वर्षे होते – आणि मी जवळजवळ केवळ कौटुंबिक-अनुकूल चित्रपटांमध्ये अभिनय केला. पण मी पब्लिक फिगर होतो त्यामुळे मला प्रवेश मिळतो. बाल लैंगिक शिकारी हेच शोधतात: प्रवेश. आणि मला इंटरनेटपेक्षा अधिक प्रवेश करण्यायोग्य काहीही केले नाही.
त्या प्रतिमा “मी नव्हतो” किंवा फेटिश साइट्स “तांत्रिकदृष्ट्या” कायदेशीर होत्या हे महत्त्वाचे नाही. तो एक वेदनादायक, उल्लंघन करणारा अनुभव होता; एक जिवंत दुःस्वप्न मला आशा होती की इतर कोणत्याही मुलाला त्यातून जावे लागणार नाही. एकदा मी प्रौढ झाल्यावर मला माझ्यामागे आलेल्या इतर मुलांची काळजी वाटायची. डिस्ने स्टार्स, स्ट्रेंजर्स थिंग्स कास्ट, टिकटोक डान्स करणाऱ्या आणि कौटुंबिक व्लॉगर यूट्यूब चॅनेलमध्ये हसणाऱ्या प्रिटीन्सच्या बाबतीतही अशाच गोष्टी घडत होत्या का? मला खात्री नव्हती की मला उत्तर जाणून घ्यायचे आहे.
काही वर्षांपूर्वी जेव्हा जनरेटिव्ह एआय वाढू लागले तेव्हा मला सर्वात वाईट भीती वाटली. मी “डीपफेक” च्या कथा ऐकल्या होत्या आणि मला माहित होते की तंत्रज्ञान वेगाने अधिक वास्तववादी होत आहे.
मग ते घडले – किंवा किमान, जगाच्या लक्षात आले की ते घडले आहे. जनरेटिव्ह एआय आधीच अनेक वेळा वापरले गेले आहे प्रौढ महिलांच्या संमतीशिवाय त्यांच्या लैंगिक प्रतिमा तयार करणे. माझ्या मित्रांच्या बाबतीत घडले. पण अलीकडेच, X चे AI टूल Grok हे उघडपणे वापरले गेले होते, अल्पवयीन अभिनेत्याच्या कपडे न घातलेल्या प्रतिमा तयार करण्यासाठी. आठवड्यांपूर्वी, एका वर्गमित्राला मारहाण केल्याबद्दल एका मुलीला शाळेतून काढून टाकण्यात आले होते ज्याने तिच्याबद्दल डीपफेक पॉर्न बनवले होते, तिच्या कुटुंबाच्या वकिलांच्या मते. ती 13 वर्षांची होती, मी त्याच वयाची होती जेव्हा लोक माझ्या बनावट लैंगिक प्रतिमा बनवत होते.
जुलै 2024 मध्ये, इंटरनेट वॉच फाउंडेशनला डार्क वेब फोरमवर AI-व्युत्पन्न CSAM च्या 3,500 हून अधिक प्रतिमा सापडल्या. त्यानंतर दीड वर्षात आणखी किती हजार झाले?
जनरेटिव्ह एआयने स्ट्रेंजर डेंजरचा पुन्हा शोध लावला आहे. आणि यावेळी, भीती न्याय्य आहे. इंटरनेटवर ज्याचा चेहरा पोस्ट केला गेला आहे अशा कोणत्याही मुलासाठी लैंगिक शोषण करणे आता खूप सोपे आहे. लाखो मुलांना माझे तेच दुःस्वप्न जगण्यास भाग पाडले जाऊ शकते.
डीपफेक एपोकॅलिप्सचा धोका थांबवण्यासाठी, आम्हाला एआय कसे प्रशिक्षित केले जाते ते पाहणे आवश्यक आहे.
जनरेटिव्ह AI “पहा, बनवा, तुलना करा, अपडेट करा, पुन्हा करा” या पुनरावृत्ती प्रक्रियेद्वारे “शिकते”, असे गणितज्ञ आणि माजी AI सुरक्षा संशोधक पॅट्रिक लाव्हिक्टोयर म्हणतात. हे लक्षात ठेवलेल्या गोष्टींवर आधारित मॉडेल तयार करते, परंतु ते सर्व काही लक्षात ठेवू शकत नाही, म्हणून त्याला नमुने शोधावे लागतात आणि त्यावर त्याचे प्रतिसाद आधारित असतात. LaVictoire म्हणतात, “उपयोगी असलेले कनेक्शन अधिक मजबूत होते. “जे कमी आहे, किंवा सक्रियपणे असहाय्य आहे, ते छाटले जाते.”
जनरेटिव्ह AI काय तयार करू शकते ते AI ला प्रशिक्षित केलेल्या सामग्रीवर अवलंबून असते. ए स्टॅनफोर्ड विद्यापीठात अभ्यास 2023 मध्ये असे दिसून आले की सर्वात लोकप्रिय प्रशिक्षण डेटासेटमध्ये आधीपासूनच CSAM ची 1,000 पेक्षा जास्त उदाहरणे आहेत. CSAM च्या लिंक्स तेव्हापासून डेटासेटमधून काढून टाकले आहेपरंतु संशोधकांनी यावर जोर दिला आहे की CSAM हा आणखी एक धोका आहे जो पोर्नोग्राफिक चित्रांसह मुलांच्या प्रतिमा एकत्र करून तयार केला जातो, जो दोन्ही प्रशिक्षण डेटामध्ये असल्यास शक्य आहे.
Google आणि OpenAI CSAM च्या निर्मितीपासून संरक्षण करण्यासाठी सुरक्षिततेचा दावा करतात: उदाहरणार्थ, ते त्यांच्या AI प्लॅटफॉर्मला प्रशिक्षित करण्यासाठी वापरत असलेल्या डेटाची काळजी घेऊन. (हे देखील लक्षात घेण्यासारखे आहे की अनेक प्रौढ चित्रपट अभिनेते आणि लैंगिक कार्यकर्त्यांनी त्यांच्या प्रतिमा AI साठी स्क्रॅप केल्या आहेत. त्यांच्या संमतीशिवाय.)
LaVictoire म्हणतो, जनरेटिव्ह AI ला स्वतःच निरुपद्रवी आणि मूर्ख आदेश जसे की “जेडी सामुराईची प्रतिमा बनवा” आणि “या सेलिब्रिटीचे कपडे उतरवा” सारख्या हानिकारक आदेशांमध्ये फरक करण्याचा कोणताही मार्ग नाही. तर दुसऱ्या सेफगार्डमध्ये वेगळ्या प्रकारचे AI समाविष्ट आहे जे स्पॅम फिल्टरसारखेच कार्य करते, जे त्या प्रश्नांना उत्तरे मिळण्यापासून रोखू शकते. Grok चालवणारी xAI, त्या फिल्टरबाबत निष्काळजी असल्याचे दिसते.
आणि सर्वात वाईट अजून येणे बाकी आहे: मेटा आणि इतर कंपन्या ने प्रस्तावित केले आहे की भविष्यातील AI मॉडेल्स ओपन सोर्स असतील. “ओपन सोर्स” म्हणजे कोणीही त्यामागील कोड ऍक्सेस करू शकतो, तो डाउनलोड करू शकतो आणि हवे तसे संपादित करू शकतो. मुक्त-स्रोत सॉफ्टवेअर बद्दल सामान्यतः काय आश्चर्यकारक आहे – वापरकर्त्यांना नवीन गोष्टी तयार करण्याचे स्वातंत्र्य, सर्जनशीलता आणि नफ्यापेक्षा सहयोगाला प्राधान्य देणे – मुलांच्या सुरक्षिततेसाठी आपत्ती असू शकते.
एकदा कोणीतरी ओपन-सोर्स एआय प्लॅटफॉर्म डाउनलोड केले आणि ते स्वतःचे बनवले की, त्यांच्या विनंतीस मदत करू शकत नाही असे सांगणारे कोणतेही सुरक्षा उपाय नाहीत. कोणीही सुस्पष्ट किंवा बेकायदेशीर प्रतिमा वापरून स्वतःचा वैयक्तिक प्रतिमा जनरेटर “फाइन-ट्यून” करू शकतो आणि स्वतःचे अनंत CSAM आणि “रिव्हेंज पॉर्न” जनरेटर बनवू शकतो.
मेटा आहे असे दिसते त्याचे नवीन AI प्लॅटफॉर्म ओपन सोर्स बनवण्यापासून मागे हटले. कदाचित मार्क झुकरबर्गला ते आठवत असेल त्याला रोमन सम्राट ऑगस्टससारखे व्हायचे आहेआणि जर त्याने हा मार्ग चालू ठेवला तर त्याला कदाचित CSAM चे ओपेनहाइमर म्हणून अधिक लक्षात ठेवता येईल.
काही देश आधीच याविरोधात लढत आहेत. चीनने सर्वप्रथम कायदा केला AI सामग्री असे लेबल करणे आवश्यक असलेला कायदा. डेन्मार्क कायद्यावर काम करत आहे जे नागरिकांना त्यांच्या देखाव्या आणि आवाजांवर कॉपीराइट देईल आणि AI प्लॅटफॉर्मवर दंड आकारेल जे त्याचा आदर करत नाहीत. युरोपच्या इतर भागात, आणि यूके मध्येलोकांच्या प्रतिमा जनरल डेटा प्रोटेक्शन रेग्युलेशन (GDPR) द्वारे संरक्षित केल्या जाऊ शकतात.
युनायटेड स्टेट्समधील दृष्टीकोन खूपच गंभीर दिसत आहे. कॉपीराइट दावे मदत करणार नाहीत, कारण जेव्हा वापरकर्ता प्लॅटफॉर्मवर प्रतिमा अपलोड करतो, तेव्हा त्यांना योग्य वाटेल तरीही ते वापरू शकतात; हे जवळजवळ प्रत्येक सेवा अटी करारात आहे. सह जनरेटिव्ह एआयच्या नियमनाविरुद्ध कार्यकारी आदेश आणि xAI सारख्या कंपन्या अमेरिकन सैन्याबरोबर करारावर स्वाक्षरी करणेयूएस सरकारने दाखवून दिले आहे की AI सह पैसे कमवणे नागरिकांना सुरक्षित ठेवण्यापेक्षा कितीतरी जास्त महत्त्वाचे आहे.
तेथे आहे अकिवा कोहेन, न्यू यॉर्क सिटी लिटिगेटर म्हणतात, “यामुळे बरेच काही डिजिटल मॅनिपुलेशन गुन्हेगार बनते” असे अलीकडील कायदे आहेत. “परंतु, यापैकी बरेच कायदे कदाचित अती प्रतिबंधित आहेत काय ते नक्की कव्हर करतात.”
उदाहरणार्थ, एखाद्याचे डीपफेक बनवताना ज्यामुळे ते नग्न दिसले किंवा लैंगिक कृत्य करण्यात गुंतले असेल तर ते गुन्हेगारी आरोपांचे कारण असू शकते, AI वापरून एखाद्या महिलेला – आणि कदाचित अल्पवयीन मुलीलाही – बिकिनीमध्ये बसवायचे नाही.
“यापैकी बरेच काही जाणीवपूर्वक फक्त ‘भयानक, परंतु कायदेशीर’ बाजूला राहते,” कोहेन म्हणतात.
कदाचित तो गुन्हेगारी नसेल – म्हणजे राज्याविरुद्ध गुन्हा आहे, परंतु कोहेनने असा युक्तिवाद केला आहे की हे नागरी दायित्व असू शकते, दुसऱ्या व्यक्तीच्या अधिकारांचे उल्लंघन असू शकते, ज्यासाठी पीडितेला परतफेड करणे आवश्यक आहे. तो सुचवतो की हे “खोटा प्रकाशगोपनीयतेवर आक्रमण” टोर्ट, एक नागरी चूक ज्यामध्ये एखाद्या व्यक्तीबद्दल आक्षेपार्ह दावे केले जातात, त्यांना खोट्या प्रकाशात दाखवले जातात, “एखाद्याला असे चित्रित करणे जे त्यांनी न केलेले काहीतरी करत असल्याचे दाखवते”.
“तुम्ही खरोखरच या प्रकारच्या वर्तनाला आळा घालू शकता असा मार्ग म्हणजे वर दायित्व लादणे कंपन्या ते हे सक्षम करत आहेत,” कोहेन म्हणतात.
त्यासाठी कायदेशीर उदाहरण आहे: द कायदा वाढवा न्यूयॉर्क मध्ये, आणि सिनेट विधेयक 53 कॅलिफोर्नियामध्ये, म्हणा की एआय कंपन्यांना त्यांनी एका विशिष्ट टप्प्यावर केलेल्या हानीसाठी जबाबदार धरले जाऊ शकते. X, दरम्यान, आता Grok अवरोधित करेल प्लॅटफॉर्मवर वास्तविक लोकांच्या लैंगिक प्रतिमा बनवण्यापासून. पण ते धोरण बदललेले दिसते स्टँड-अलोन Grok ॲपवर लागू होत नाही.
परंतु न्यूयॉर्कमधील माजी प्रॅक्टिसिंग ॲटर्नी, तसेच माजी बाल कलाकार, जोश सॅव्हियानो यांचा असा विश्वास आहे की कायद्याव्यतिरिक्त, अधिक त्वरित कारवाई करणे आवश्यक आहे.
“लॉबिंगचे प्रयत्न आणि आमची न्यायालये अखेरीस हे हाताळले जाणारे मार्ग असतील,” सॅव्हियानो म्हणतात. “परंतु असे होईपर्यंत, दोन पर्याय आहेत: पूर्णपणे दूर राहा, याचा अर्थ तुमचा संपूर्ण डिजिटल फूटप्रिंट इंटरनेटवरून काढून टाका … किंवा तुम्हाला तांत्रिक उपाय शोधण्याची आवश्यकता आहे.”
तरुण लोकांच्या सुरक्षेची खात्री करणे हे सॅव्हियानोसाठी अत्यंत महत्त्वाचे आहे, ज्यांनी त्यांच्याबद्दल डीपफेक केलेल्या लोकांना ओळखले आहे, आणि – माजी बाल कलाकार म्हणून – नियंत्रण गमावण्याबद्दल थोडेसे माहित आहे स्वतःच्या कथनाचे. सॅव्हियानो आणि त्यांची टीम अशा साधनावर काम करत आहे जे लोकांना त्यांच्या प्रतिमा किंवा सर्जनशील कार्य स्क्रॅप केले जात असताना ते शोधून त्यांना सूचित करू शकते. ते म्हणतात, संघाचे बोधवाक्य आहे: “बाळांचे संरक्षण करा.”
हे कसे घडू शकते याची पर्वा न करता, मला विश्वास आहे की या धोक्यापासून संरक्षणासाठी लोकांकडून खूप प्रयत्न करावे लागतील.
असे बरेच लोक आहेत ज्यांना त्यांच्या AI चॅटबॉट्सशी आत्मीयता वाटू लागली आहे, परंतु बऱ्याच लोकांसाठी, तंत्रज्ञान कंपन्या उपयुक्ततेपेक्षा अधिक काही नाहीत. वैयक्तिक किंवा राजकीय कारणांसाठी आम्ही एका ॲपपेक्षा दुसऱ्या ॲपला प्राधान्य देऊ शकतो, परंतु काहींना टेक ब्रँड्सवर दृढ निष्ठा वाटते. टेक कंपन्या आणि विशेषतः सोशल मीडिया प्लॅटफॉर्म जसे की मेटा आणि एक्सते समाप्त करण्याचे साधन आहेत हे लक्षात ठेवणे चांगले होईल. आणि जर माझ्यासारखा कोणीतरी – जो दिवसभर, दररोज, एका दशकापेक्षा जास्त काळ Twitter वर होता – तो सोडू शकतो, कोणीही करू शकतो.
पण बहिष्कार पुरेसा नाही. सीएसएएमच्या निर्मितीला जबाबदार धरणाऱ्या कंपन्यांची आम्ही मागणी केली पाहिजे. आम्ही कायदे आणि तांत्रिक संरक्षणाची मागणी करणे आवश्यक आहे. आम्हाला आमच्या स्वतःच्या कृतींचे परीक्षण करणे देखील आवश्यक आहे: कोणीही असा विचार करू इच्छित नाही की जर त्यांनी त्यांच्या मुलाचे फोटो शेअर केले तर त्या प्रतिमा CSAM मध्ये येऊ शकतात. परंतु हा एक धोका आहे, ज्यापासून पालकांनी त्यांच्या लहान मुलांचे संरक्षण करणे आणि त्यांच्या मोठ्या मुलांना सावध करणे आवश्यक आहे.
जर स्ट्रेंजर डेंजरचा आमचा ध्यास काही दाखवत असेल, तर आपल्यापैकी बहुतेकांना मुलांचा धोका आणि छळ रोखायचा आहे. ते सिद्ध करण्याची वेळ आली आहे.
Source link



