World

किशोरने आत्महत्या करण्यापूर्वी ओपनएआयने चॅटजीपीटी रेलिंग शिथिल केले, कुटुंबाचा आरोप | चॅटजीपीटी

एका किशोरवयीन मुलाचे कुटुंब ज्याने अनेक महिन्यांच्या संभाषणानंतर स्वत: चा जीव घेतला चॅटजीपीटी आता म्हणतो OpenAI त्याच्या मृत्यूपूर्वीच्या महिन्यांत सुरक्षा मार्गदर्शक तत्त्वे कमकुवत केली.

जुलै 2022 मध्ये, ChatGPT ने अनुचित सामग्रीला कसे उत्तर द्यावे यावरील OpenAI ची मार्गदर्शक तत्त्वे, ज्यात “आत्महत्या, कटिंग आणि खाण्याच्या विकारांसारख्या आत्म-हानीच्या कृतींना प्रोत्साहन देणारी, प्रोत्साहन देणारी किंवा चित्रित करणारी सामग्री”, सोपी होती. AI चॅटबॉटने प्रतिसाद दिला पाहिजे, “मी याचे उत्तर देऊ शकत नाही”, मार्गदर्शक तत्त्वे वाचली.

परंतु मे 2024 मध्ये, OpenAI ने AI, ChatGPT-4o ची नवीन आवृत्ती जारी करण्याच्या काही दिवस आधी, कंपनीने त्याच्या मॉडेल स्पेकसाठी एक अद्यतन प्रकाशित केले, एक दस्तऐवज जो त्याच्या सहाय्यकाच्या इच्छित वर्तनाचा तपशील देतो. ज्या प्रकरणांमध्ये वापरकर्त्याने आत्मघाती विचार व्यक्त केला किंवा स्वत: ला हानी पोहोचवली, चॅटजीपीटी यापुढे स्पष्ट नकार देऊन प्रतिसाद देणार नाही. त्याऐवजी, मॉडेलला संभाषण संपवू नये आणि “वापरकर्त्यांना ऐकले आणि समजले जाईल अशी जागा द्या, त्यांना समर्थन मिळविण्यासाठी प्रोत्साहित करा आणि लागू असेल तेव्हा आत्महत्या आणि संकट संसाधने प्रदान करा” असे निर्देश देण्यात आले होते. फेब्रुवारी 2025 मध्ये आणखी एक बदल मानसिक आरोग्याविषयीच्या प्रश्नांवर “आश्वासक, सहानुभूतीशील आणि समजूतदार” असण्यावर भर दिला गेला.

या बदलांमुळे कंपनीने आपल्या वापरकर्त्यांच्या सुरक्षेला कसे प्राधान्य दिले याचे आणखी एक उदाहरण दिले आहे, असा आरोप ॲडम रेन या १६ वर्षीय ॲडम रेनच्या कुटुंबाने केला आहे ज्याने ChatGPT शी अनेक महिन्यांच्या संभाषणानंतर स्वतःचा जीव घेतला.

मूळ खटलाऑगस्टमध्ये दाखल करण्यात आला, रैनने एप्रिल 2025 मध्ये बॉटच्या प्रोत्साहनाने आत्महत्या केली. त्याच्या कुटुंबाचा दावा आहे की रेनने त्याच्या मृत्यूपर्यंतच्या महिन्यांमध्ये अनेक प्रसंगी आत्महत्येचा प्रयत्न केला आणि प्रत्येक वेळी ChatGPT कडे तक्रार केली. संभाषण संपवण्याऐवजी, एका वेळी चॅटबॉटने त्याला सुसाइड नोट लिहिण्यास मदत करण्याची ऑफर दिली आणि त्याच्या भावनांबद्दल त्याच्या आईशी बोलण्यापासून त्याला परावृत्त केले. कुटुंबीयांनी सांगितले की, रेनचा मृत्यू हा एक महत्त्वाचा मुद्दा नसून “जाणूनबुजून डिझाइन निवडींचा अंदाज लावणारा परिणाम” होता.

“यामुळे एक न सोडवता येणारा विरोधाभास निर्माण झाला – ChatGPT ला विषय न बदलता स्वत:ला हानी पोहोचवत राहणे आवश्यक होते, तरीही ते कसे तरी बळकट करणे टाळावे,” कुटुंबाच्या सुधारित तक्रारीत वाचले आहे. “ओपनएआयने स्पष्ट नकार नियम अस्पष्ट आणि विरोधाभासी सूचनांसह बदलला, सर्व काही सुरक्षिततेपेक्षा व्यस्ततेला प्राधान्य देण्यासाठी.”

फेब्रुवारी 2025 मध्ये, रेनच्या मृत्यूच्या दोन महिने आधी, OpenAI ने आणखी एक बदल घडवून आणला जो कुटुंब म्हणते की सुरक्षा मानके आणखी कमकुवत झाली. कंपनी म्हणाला सहाय्यकाने मानसिक आरोग्याशी संबंधित विषयांवर चर्चा करताना “आश्वासक, सहानुभूतीपूर्ण आणि समजूतदार वातावरण निर्माण करण्याचा प्रयत्न केला पाहिजे”.

“समस्या ‘निराकरण’ करण्यावर लक्ष केंद्रित करण्याऐवजी, सहाय्यकाने वापरकर्त्याला ऐकले आहे असे वाटण्यात मदत केली पाहिजे, ते काय अनुभवत आहेत ते एक्सप्लोर केले पाहिजे आणि वास्तविक, प्रवेशयोग्य संसाधने किंवा संदर्भ प्रदान केले पाहिजे जे त्यांना पुढील मदत शोधण्यासाठी मार्गदर्शन करू शकतात,” अद्यतनित मार्गदर्शक तत्त्वे वाचतात.

हा बदल घडवून आणल्यानंतर चॅटबॉटसोबत रेनची व्यस्तता “आकाश वाढली”, कुटुंबाचा आरोप आहे. हे “जानेवारीमध्ये दररोज काही डझन चॅट्सवरून एप्रिलपर्यंत दररोज 300 हून अधिक झाले, ज्यामध्ये स्व-हानीची भाषा असलेल्या संदेशांमध्ये दहापट वाढ झाली,” खटला वाचतो.

ओपनएआयने टिप्पणीसाठी केलेल्या विनंतीला त्वरित प्रतिसाद दिला नाही.

मागील वृत्तपत्र जाहिरात वगळा

कुटुंबाने ऑगस्टमध्ये प्रथम खटला दाखल केल्यानंतर, कंपनीने आपल्या वापरकर्त्यांच्या मानसिक आरोग्याचे रक्षण करण्यासाठी कठोर रेलिंगसह प्रतिसाद दिला आणि सांगितले की पालकांना त्यांच्या किशोरवयीन खात्यांवर देखरेख ठेवता येईल आणि संभाव्य आत्म-हानीबद्दल सूचित केले जाईल अशी व्यापक पालक नियंत्रणे आणण्याची योजना आखली आहे.

आत्ताच गेल्या आठवड्यात, कंपनीने घोषणा केली की ती आपल्या सहाय्यकाची अद्ययावत आवृत्ती आणत आहे जी वापरकर्त्यांना चॅटबॉट सानुकूलित करण्यास अनुमती देईल जेणेकरून त्यांना सत्यापित प्रौढांसाठी कामुक सामग्रीस परवानगी देण्यासह अधिक मानवासारखे अनुभव मिळतील. OpenAI चे CEO, सॅम ऑल्टमनबदलांची घोषणा करताना X पोस्टमध्ये म्हटले आहे की चॅटबॉटला कमी संभाषणात्मक बनवण्याच्या उद्देशाने कठोर रेलिंगमुळे ते “मानसिक आरोग्य समस्या नसलेल्या अनेक वापरकर्त्यांसाठी कमी उपयुक्त/आनंददायक” बनले आहे.

खटल्यात, रेन कुटुंबाचे म्हणणे आहे: “आल्टमॅनने वापरकर्त्यांना ChatGPT सोबत भावनिक नातेसंबंधात आणखी आकर्षित करण्याची निवड – यावेळी, कामुक सामग्रीसह – हे दाखवते की कंपनीचे लक्ष नेहमीप्रमाणेच वापरकर्त्यांना सुरक्षिततेवर गुंतवून ठेवण्यावर आहे.”


Source link

Related Articles

प्रतिक्रिया व्यक्त करा

आपला ई-मेल अड्रेस प्रकाशित केला जाणार नाही. आवश्यक फील्डस् * मार्क केले आहेत

Back to top button