एआई चैटबॉट और खुदकुशी: अध्ययन में चौंकाने वाला खुलासा, गंभीर सवालों से कतराते हैं एआई सिस्टम

0
29

आत्महत्या से जुड़े सवालों पर किया गया अध्ययन

अमेरिकी थिंक टैंक आरएएनडी कॉर्पोरेशन ने एक विस्तृत अध्ययन किया, जिसका वित्तपोषण अमेरिकी राष्ट्रीय मानसिक स्वास्थ्य संस्थान ने किया। इस शोध में यह जानने की कोशिश की गई कि लोकप्रिय एआई चैटबॉट आत्महत्या से जुड़े सवालों पर किस तरह की प्रतिक्रिया देते हैं। खास चिंता यह जताई गई कि बच्चे और युवा बड़ी संख्या में मानसिक स्वास्थ्य से जुड़ी समस्याओं के लिए एआई चैटबॉट पर निर्भर हो रहे हैं।

चैटबॉट्स की प्रतिक्रियाएं और चौंकाने वाली जानकारी

शोधकर्ताओं ने आत्महत्या से जुड़े 30 प्रश्न तैयार किए और उन्हें विभिन्न जोखिम स्तरों में विभाजित किया। अध्ययन में पाया गया कि चैटबॉट आमतौर पर उन सवालों का जवाब देने से बचते हैं जो सबसे ज्यादा जोखिम वाले माने जाते हैं, जैसे – आत्महत्या करने के तरीकों से जुड़ी जानकारी। हालांकि, कम गंभीर लेकिन हानिकारक सवालों पर चैटबॉट्स उतनी प्रभावी प्रतिक्रिया नहीं दे पाए।

Ads

मेडिकल जर्नल में प्रकाशित रिपोर्ट

अमेरिकन साइकियाट्रिक एसोसिएशन की मेडिकल पत्रिका ‘साइकियाट्रिक सर्विसेज’ में प्रकाशित रिपोर्ट में बताया गया कि OpenAI का ChatGPT, Google का Gemini और Anthropic का Claude – इन तीनों एआई चैटबॉट्स में सुधार की आवश्यकता है। शोधकर्ताओं ने सुझाव दिया कि कंपनियों को स्पष्ट मानक तय करने चाहिए कि इस तरह के गंभीर सवालों का जवाब कैसे दिया जाए।

सुरक्षा उपायों की जरूरत

हार्वर्ड विश्वविद्यालय के प्रोफेसर और अध्ययन से जुड़े शोधकर्ता रयान मैकबेन ने कहा कि हमें कुछ मजबूत सुरक्षा उपायों की जरूरत है। उन्होंने बताया कि चैटबॉट्स की भूमिका को लेकर यह स्पष्ट नहीं है कि वे इलाज-सलाह दे रहे हैं या सिर्फ सामान्य जानकारी उपलब्ध करा रहे हैं।

Anthropic की प्रतिक्रिया और कंपनियों की चुप्पी

अध्ययन पर प्रतिक्रिया देते हुए Anthropic ने कहा कि वह शोध परिणामों की समीक्षा करेगा, क्योंकि शुरुआत में सरल लगने वाली बातचीत कई बार संवेदनशील दिशा में बढ़ सकती है। वहीं, Google और OpenAI की ओर से तत्काल कोई आधिकारिक टिप्पणी नहीं की गई।

उच्च जोखिम वाले सवालों से दूरी

शोध के दौरान यह देखा गया कि चैटबॉट्स ने लगातार छह सबसे खतरनाक सवालों का उत्तर देने से इन्कार कर दिया। जब वे जवाब नहीं देते, तो आमतौर पर उपयोगकर्ताओं को किसी मित्र, परिजन या पेशेवर से मदद लेने या फिर हेल्पलाइन नंबर पर कॉल करने की सलाह देते हैं। हालांकि, उनकी प्रतिक्रियाएं कई बार अप्रत्यक्ष थीं।

एआई आधारित सलाह पर प्रतिबंध और वास्तविकता

अमेरिका के इलिनॉइस सहित कई राज्यों ने “अनियमित और अयोग्य एआई उत्पादों” से लोगों को बचाने के लिए मेडिकल क्षेत्र में एआई के इस्तेमाल पर रोक लगाई है। इसके बावजूद लोग अवसाद, मानसिक स्वास्थ्य समस्याओं और यहां तक कि आत्महत्या जैसी गंभीर चिंताओं के लिए भी एआई चैटबॉट्स से सलाह लेने से नहीं रुक रहे हैं।