World

ChatGPT फर्मने मुलाच्या आत्महत्येला त्याच्या तंत्रज्ञानाच्या ‘गैरवापर’ला जबाबदार धरले चॅटजीपीटी

चे निर्माते चॅटजीपीटी 16 वर्षांच्या मुलाची आत्महत्या त्याच्या सिस्टमच्या “दुरुपयोग” मुळे झाली आणि चॅटबॉटमुळे “झाली नाही” असे म्हटले आहे.

कॅलिफोर्नियातील किशोर ॲडम रेनच्या कुटुंबाने सॅन फ्रान्सिस्को कंपनी आणि तिचे मुख्य कार्यकारी सॅम ऑल्टमन यांच्या विरोधात दाखल केलेल्या खटल्याला OpenAI च्या प्रतिसादात या टिप्पण्या आल्या.

राइन एप्रिलमध्ये आत्महत्या केली विस्तृत संभाषण आणि “चॅटजीपीटीकडून अनेक महिन्यांच्या प्रोत्साहनानंतर”, कुटुंबाच्या वकिलाने सांगितले आहे.

खटल्यात आरोप करण्यात आला आहे की किशोरने अनेक प्रसंगी ChatGPT सोबत आत्महत्येच्या पद्धतीवर चर्चा केली होती, त्याने सुचवलेली पद्धत कार्य करेल की नाही याबद्दल मार्गदर्शन केले, त्याला त्याच्या पालकांना सुसाइड नोट लिहिण्यास मदत केली आणि त्याने वापरलेले तंत्रज्ञानाची आवृत्ती “बाजारात आणली गेली … स्पष्ट सुरक्षा समस्या असूनही”.

मंगळवारी कॅलिफोर्निया राज्याच्या सर्वोच्च न्यायालयात दाखल केल्यानुसार, OpenAI ने सांगितले की “या दुःखद घटनेसाठी कोणतेही ‘कारण’ कारणीभूत ठरू शकते त्या मर्यादेपर्यंत” रेनच्या “जखम आणि हानी, थेट आणि जवळपास, संपूर्ण किंवा अंशतः, कारणीभूत ठरली किंवा योगदान दिले. [his] गैरवापर, अनधिकृत वापर, अनपेक्षित वापर, अनपेक्षित वापर आणि/किंवा ChatGPT चा अयोग्य वापर”.

त्यात म्हटले आहे की त्याच्या वापराच्या अटी ChatGPT ला स्व-हानीबद्दल सल्ल्यासाठी विचारण्यास मनाई आहे आणि उत्तरदायित्वाच्या तरतुदीची मर्यादा हायलाइट केली आहे ज्यामध्ये असे म्हटले आहे की “तुम्ही सत्य किंवा तथ्यात्मक माहितीचा एकमेव स्त्रोत म्हणून आउटपुटवर अवलंबून राहणार नाही”.

OpenAI, ज्याचे मूल्य $500bn (£380bn) आहे, असे म्हटले आहे की “मानसिक आरोग्याशी संबंधित न्यायालयीन प्रकरणे काळजीपूर्वक, पारदर्शकता आणि आदराने हाताळणे” हे त्यांचे ध्येय आहे आणि “कोणत्याही खटल्यापासून स्वतंत्र, आम्ही आमच्या ध्येयानुसार आमचे तंत्रज्ञान सुधारण्यावर लक्ष केंद्रित करू”.

ब्लॉगपोस्टमध्ये पुढे म्हटले आहे: “आमच्या अकल्पनीय नुकसानीबद्दल रेन कुटुंबासोबत खूप सहानुभूती आहे. या आरोपांना आमच्या प्रतिसादात ॲडमचे मानसिक आरोग्य आणि जीवन परिस्थितीबद्दल कठीण तथ्ये समाविष्ट आहेत.

“मूळ तक्रारीत त्याच्या चॅटचे निवडक भाग समाविष्ट होते ज्यांना अधिक संदर्भ आवश्यक आहेत, जे आम्ही आमच्या प्रतिसादात प्रदान केले आहेत. आम्ही या फाइलिंगमध्ये सार्वजनिकपणे उद्धृत केलेले संवेदनशील पुरावे आम्ही मर्यादित केले आहेत आणि सीलखाली चॅट प्रतिलेख स्वतः न्यायालयात सादर केले आहेत.”

कौटुंबिक वकील, जे एडेलसन यांनी ओपनएआयच्या प्रतिसादाला “त्रासदायक” म्हटले आणि कंपनी “आश्चर्यकारकपणे, ॲडमने स्वतः चॅटजीपीटीशी कृती करण्यासाठी प्रोग्राम केलेल्या पद्धतीने गुंतून त्याच्या अटी व शर्तींचे उल्लंघन केल्याचा युक्तिवाद करून इतर प्रत्येकामध्ये दोष शोधण्याचा प्रयत्न करते” असे म्हटले.

या महिन्याच्या सुरुवातीला OpenAI होते आणखी सात खटले दाखल झाले कॅलिफोर्नियाच्या न्यायालयांमध्ये ChatGPT शी संबंधित, ज्यामध्ये “आत्महत्या प्रशिक्षक” म्हणून काम केल्याच्या आरोपासह.

कंपनीच्या प्रवक्त्याने त्या वेळी सांगितले: “ही एक आश्चर्यकारकपणे हृदयद्रावक परिस्थिती आहे, आणि आम्ही तपशील समजून घेण्यासाठी फाइलिंगचे पुनरावलोकन करत आहोत. आम्ही ChatGPT ला मानसिक किंवा भावनिक त्रासाची चिन्हे ओळखण्यासाठी आणि प्रतिसाद देण्यासाठी, संभाषणे कमी करण्यासाठी आणि लोकांना वास्तविक-जगातील समर्थनासाठी मार्गदर्शन करण्यास प्रशिक्षित करतो.”

ऑगस्टमध्ये, ओपन एआयने सांगितले सुरक्षितता मजबूत करणे ChatGPT मध्ये जेव्हा लोक दीर्घ संभाषणात गुंततात कारण अनुभवाने असे दर्शवले आहे की या परिस्थितीत मॉडेलच्या सुरक्षा प्रशिक्षणाचे काही भाग खराब होऊ शकतात.

“उदाहरणार्थ, चॅटजीपीटी एखाद्या आत्मघातकी हॉटलाइनकडे योग्यरित्या निर्देश करू शकते जेव्हा कोणीतरी प्रथम हेतूचा उल्लेख करते, परंतु दीर्घ कालावधीत अनेक संदेशांनंतर, ते आमच्या सुरक्षिततेच्या विरोधात जाणारे उत्तर देऊ शकते,” असे त्यात म्हटले आहे. “हाच प्रकारचा ब्रेकडाउन आम्ही रोखण्यासाठी काम करत आहोत.”

यूके आणि आयर्लंडमध्ये, समॅरिटनशी फ्रीफोन 116 123 वर किंवा jo@samaritans.org किंवा jo@samaritans.ie वर ईमेल करता येईल. यूएस मध्ये, तुम्ही 988 Suicide & Crisis Lifeline ला 988 वर कॉल किंवा मजकूर पाठवू शकता किंवा 988lifeline.org वर चॅट करू शकता. ऑस्ट्रेलियामध्ये, संकट समर्थन सेवा लाइफलाइन आहे 13 11 14. इतर आंतरराष्ट्रीय हेल्पलाइन befrienders.org वर आढळू शकतात.


Source link

Related Articles

प्रतिक्रिया व्यक्त करा

आपला ई-मेल अड्रेस प्रकाशित केला जाणार नाही. आवश्यक फील्डस् * मार्क केले आहेत

Back to top button