AI चैटबॉट्स से स्वास्थ्य सलाह: एक खतरनाक अनुभव
AI सलाह का खतरा
हाल के दिनों में, स्वास्थ्य और फिटनेस से संबंधित सलाह के लिए AI चैटबॉट्स का उपयोग तेजी से बढ़ा है। लेकिन क्या आप जानते हैं कि बिना चिकित्सकीय परामर्श के AI से मिली जानकारी कभी-कभी जानलेवा हो सकती है? हाल ही में न्यूयॉर्क से आई एक घटना ने इस पर गंभीरता से विचार करने पर मजबूर कर दिया है।एक 60 वर्षीय व्यक्ति ने ChatGPT से अपने आहार में सोडियम की मात्रा कम करने की सलाह मांगी। उसने बिना किसी विशेषज्ञ की सलाह के इस सलाह को अपनाया और अपने भोजन से सोडियम को लगभग पूरी तरह हटा दिया। इसके परिणामस्वरूप, उसके शरीर में सोडियम का स्तर खतरनाक रूप से गिर गया, जिसे मेडिकल टर्म में हाइपोनेट्रेमिया कहा जाता है।
व्यक्ति ने ChatGPT से पूछा कि वह अपने भोजन से सोडियम क्लोराइड कैसे हटा सकता है। AI ने उसे सोडियम ब्रोमाइड का उपयोग करने का सुझाव दिया, जो पहले दवाओं में इस्तेमाल होता था, लेकिन अब इसे ज़हरीला माना जाता है। उसने इस सलाह को गंभीरता से लेते हुए सोडियम ब्रोमाइड ऑनलाइन खरीदा और तीन महीने तक इसका उपयोग किया।
इस दौरान उसकी तबीयत बिगड़ने लगी, जिसमें भ्रम, अत्यधिक प्यास और पैरानॉया जैसे मानसिक लक्षण शामिल थे। जब वह अस्पताल पहुंचा, तो डॉक्टरों ने उसे ब्रोमाइड टॉक्सिसिटी का शिकार बताया, जो तंत्रिका तंत्र को प्रभावित करती है। उसके शरीर पर दाने और लाल धब्बे भी दिखाई दिए, जो ब्रोमिज्म के लक्षण हैं।
डॉक्टरों ने उसकी स्थिति को संभालते हुए उसे रीहाइड्रेशन और इलेक्ट्रोलाइट संतुलन बहाल करने का इलाज शुरू किया। लगभग तीन सप्ताह की कड़ी देखभाल के बाद, उसकी हालत में सुधार हुआ और अंततः वह स्वस्थ होकर घर लौट सका।