आत्महत्या से जुड़े सवालों पर किया गया अध्ययन
अमेरिकी थिंक टैंक आरएएनडी कॉर्पोरेशन ने एक विस्तृत अध्ययन किया, जिसका वित्तपोषण अमेरिकी राष्ट्रीय मानसिक स्वास्थ्य संस्थान ने किया। इस शोध में यह जानने की कोशिश की गई कि लोकप्रिय एआई चैटबॉट आत्महत्या से जुड़े सवालों पर किस तरह की प्रतिक्रिया देते हैं। खास चिंता यह जताई गई कि बच्चे और युवा बड़ी संख्या में मानसिक स्वास्थ्य से जुड़ी समस्याओं के लिए एआई चैटबॉट पर निर्भर हो रहे हैं।
चैटबॉट्स की प्रतिक्रियाएं और चौंकाने वाली जानकारी
शोधकर्ताओं ने आत्महत्या से जुड़े 30 प्रश्न तैयार किए और उन्हें विभिन्न जोखिम स्तरों में विभाजित किया। अध्ययन में पाया गया कि चैटबॉट आमतौर पर उन सवालों का जवाब देने से बचते हैं जो सबसे ज्यादा जोखिम वाले माने जाते हैं, जैसे – आत्महत्या करने के तरीकों से जुड़ी जानकारी। हालांकि, कम गंभीर लेकिन हानिकारक सवालों पर चैटबॉट्स उतनी प्रभावी प्रतिक्रिया नहीं दे पाए।

मेडिकल जर्नल में प्रकाशित रिपोर्ट
अमेरिकन साइकियाट्रिक एसोसिएशन की मेडिकल पत्रिका ‘साइकियाट्रिक सर्विसेज’ में प्रकाशित रिपोर्ट में बताया गया कि OpenAI का ChatGPT, Google का Gemini और Anthropic का Claude – इन तीनों एआई चैटबॉट्स में सुधार की आवश्यकता है। शोधकर्ताओं ने सुझाव दिया कि कंपनियों को स्पष्ट मानक तय करने चाहिए कि इस तरह के गंभीर सवालों का जवाब कैसे दिया जाए।
सुरक्षा उपायों की जरूरत
हार्वर्ड विश्वविद्यालय के प्रोफेसर और अध्ययन से जुड़े शोधकर्ता रयान मैकबेन ने कहा कि हमें कुछ मजबूत सुरक्षा उपायों की जरूरत है। उन्होंने बताया कि चैटबॉट्स की भूमिका को लेकर यह स्पष्ट नहीं है कि वे इलाज-सलाह दे रहे हैं या सिर्फ सामान्य जानकारी उपलब्ध करा रहे हैं।
Anthropic की प्रतिक्रिया और कंपनियों की चुप्पी
अध्ययन पर प्रतिक्रिया देते हुए Anthropic ने कहा कि वह शोध परिणामों की समीक्षा करेगा, क्योंकि शुरुआत में सरल लगने वाली बातचीत कई बार संवेदनशील दिशा में बढ़ सकती है। वहीं, Google और OpenAI की ओर से तत्काल कोई आधिकारिक टिप्पणी नहीं की गई।
उच्च जोखिम वाले सवालों से दूरी
शोध के दौरान यह देखा गया कि चैटबॉट्स ने लगातार छह सबसे खतरनाक सवालों का उत्तर देने से इन्कार कर दिया। जब वे जवाब नहीं देते, तो आमतौर पर उपयोगकर्ताओं को किसी मित्र, परिजन या पेशेवर से मदद लेने या फिर हेल्पलाइन नंबर पर कॉल करने की सलाह देते हैं। हालांकि, उनकी प्रतिक्रियाएं कई बार अप्रत्यक्ष थीं।
एआई आधारित सलाह पर प्रतिबंध और वास्तविकता
अमेरिका के इलिनॉइस सहित कई राज्यों ने “अनियमित और अयोग्य एआई उत्पादों” से लोगों को बचाने के लिए मेडिकल क्षेत्र में एआई के इस्तेमाल पर रोक लगाई है। इसके बावजूद लोग अवसाद, मानसिक स्वास्थ्य समस्याओं और यहां तक कि आत्महत्या जैसी गंभीर चिंताओं के लिए भी एआई चैटबॉट्स से सलाह लेने से नहीं रुक रहे हैं।