एक 60 वर्षीय व्यक्ति ने चैटजीपीटी की गलत सलाह पर सोडियम क्लोराइड की जगह सोडियम ब्रोमाइड का सेवन किया, जिससे उसे ब्रोमिज़्म हो गया। तीन महीने बाद गंभीर लक्षणों के कारण अस्पताल में भर्ती करना पड़ा।
Chatgpt: आर्टिफिशियल इंटेलिजेंस (AI) तकनीक पर बढ़ते भरोसे के बीच एक ताज़ा मामला सामने आया है, जिसने इसके उपयोग को लेकर गंभीर चिंताएं खड़ी कर दी हैं। हाल ही में प्रकाशित एक केस स्टडी में बताया गया है कि चैटजीपीटी से मिली गलत स्वास्थ्य सलाह के कारण एक 60 वर्षीय व्यक्ति गंभीर रूप से बीमार हो गया और उसे अस्पताल में भर्ती कराना पड़ा।
मामला कैसे शुरू हुआ
रिपोर्ट के अनुसार, मरीज का कोई पूर्व चिकित्सा या मानसिक स्वास्थ्य इतिहास नहीं था। वह स्वस्थ जीवनशैली अपनाने के लिए अपने आहार में बदलाव करना चाहता था और इस सिलसिले में उसने स्वास्थ्य जानकारी के लिए चैटजीपीटी से परामर्श किया। मरीज का दावा है कि AI चैटबॉट ने उसे सामान्य टेबल नमक (सोडियम क्लोराइड) के विकल्प के रूप में सोडियम ब्रोमाइड लेने की सलाह दी।
यह सलाह बिना किसी स्पष्ट चेतावनी या संभावित स्वास्थ्य जोखिम की जानकारी के दी गई थी। परिणामस्वरूप, व्यक्ति ने तीन महीने तक सोडियम ब्रोमाइड का सेवन किया, जिससे उसके शरीर में ब्रोमाइड की मात्रा खतरनाक स्तर तक बढ़ गई।
लक्षण और अस्पताल में भर्ती
तीन महीने बाद मरीज में गंभीर लक्षण दिखाई देने लगे—
- लगातार प्यास लगना लेकिन पानी पीने से डरना
- व्यामोह और मतिभ्रम (हैलुसिनेशन)
- अनिद्रा और अत्यधिक थकान
- मांसपेशियों के समन्वय में कमी (एटैक्सिया)
- त्वचा में बदलाव जैसे मुँहासे और लाल धब्बेदार त्वचा (चेरी एंजियोमा)
स्थिति बिगड़ने पर उसे आपातकालीन कक्ष में भर्ती किया गया। प्रारंभिक जांच में डॉक्टरों को संदिग्ध विषाक्तता के संकेत मिले। ज़हर नियंत्रण विभाग से सलाह और विभिन्न परीक्षणों के बाद डॉक्टरों ने पुष्टि की कि मरीज को ब्रोमिज़्म नामक सिंड्रोम है। यह बीमारी लंबे समय तक ब्रोमाइड युक्त यौगिकों के सेवन से होती है।
केस स्टडी की अहम बातें
यह मामला Annals of Internal Medicine Clinical Cases नामक जर्नल में "आर्टिफिशियल इंटेलिजेंस के उपयोग से प्रभावित ब्रोमिज्म का मामला" शीर्षक से प्रकाशित हुआ।
- शोधकर्ताओं ने स्पष्ट किया कि उनके पास चैटजीपीटी और मरीज के बीच हुई वास्तविक बातचीत का रिकॉर्ड नहीं था।
- हालांकि चैटबॉट ने संदर्भ का उल्लेख किया, लेकिन यह स्पष्ट स्वास्थ्य चेतावनी नहीं दी कि यह पदार्थ लंबे समय तक सेवन के लिए खतरनाक हो सकता है।
- शोधकर्ताओं का कहना है कि किसी भी पेशेवर डॉक्टर के विपरीत, चैटजीपीटी ने यह नहीं पूछा कि उपयोगकर्ता यह जानकारी क्यों मांग रहा है।
ओपनएआई का जवाब
इस मामले पर टिप्पणी करते हुए ओपनएआई के प्रवक्ता ने कहा कि उनके उत्पाद के टर्म्स ऑफ यूज़ में पहले से स्पष्ट उल्लेख है कि चैटजीपीटी के उत्तरों को 'तथ्यों का एकमात्र स्रोत' या 'पेशेवर सलाह का विकल्प' नहीं माना जाना चाहिए। कंपनी ने दोहराया कि AI चैटबॉट का उद्देश्य केवल सामान्य जानकारी प्रदान करना है, न कि चिकित्सा निर्णय लेना।
विशेषज्ञों की चेतावनी
शोधकर्ताओं और स्वास्थ्य विशेषज्ञों ने चेतावनी दी है कि—
- AI चैटबॉट वैज्ञानिक अशुद्धियां पैदा कर सकते हैं — यह तकनीक कभी-कभी अधूरी, संदर्भ से बाहर या गलत जानकारी दे सकती है।
- स्वास्थ्य जोखिम का विश्लेषण सीमित है — AI में जटिल चिकित्सा जोखिमों का मूल्यांकन करने की क्षमता नहीं होती।
- गलत सूचना का खतरा — बिना विशेषज्ञ निगरानी के दी गई AI सलाह गंभीर स्वास्थ्य नुकसान का कारण बन सकती है।
इलाज और सुधार
मरीज को अस्पताल में भर्ती होने के बाद तत्काल दवा दी गई और ब्रोमाइड स्तर कम करने के लिए उपचार शुरू किया गया। तीन हफ्तों तक चले गहन इलाज के बाद उसकी स्थिति में सुधार आया और मानसिक लक्षण भी काफी हद तक समाप्त हो गए।