Newzfatafatlogo

AI चैटबॉट्स से स्वास्थ्य सलाह: एक खतरनाक अनुभव

न्यूयॉर्क में एक 60 वर्षीय व्यक्ति ने AI चैटबॉट से स्वास्थ्य संबंधी सलाह ली, जिसके गंभीर परिणाम सामने आए। उसने बिना विशेषज्ञ की सलाह के सोडियम की मात्रा कम करने के लिए खतरनाक सलाह अपनाई, जिससे उसकी जान को खतरा हो गया। जानें इस घटना के बारे में और समझें कि AI से मिली जानकारी कितनी खतरनाक हो सकती है।
 | 

AI सलाह का खतरा

हाल के दिनों में, स्वास्थ्य और फिटनेस से संबंधित सलाह के लिए AI चैटबॉट्स का उपयोग तेजी से बढ़ा है। लेकिन क्या आप जानते हैं कि बिना चिकित्सकीय परामर्श के AI से मिली जानकारी कभी-कभी जानलेवा हो सकती है? हाल ही में न्यूयॉर्क से आई एक घटना ने इस पर गंभीरता से विचार करने पर मजबूर कर दिया है।


एक 60 वर्षीय व्यक्ति ने ChatGPT से अपने आहार में सोडियम की मात्रा कम करने की सलाह मांगी। उसने बिना किसी विशेषज्ञ की सलाह के इस सलाह को अपनाया और अपने भोजन से सोडियम को लगभग पूरी तरह हटा दिया। इसके परिणामस्वरूप, उसके शरीर में सोडियम का स्तर खतरनाक रूप से गिर गया, जिसे मेडिकल टर्म में हाइपोनेट्रेमिया कहा जाता है।


व्यक्ति ने ChatGPT से पूछा कि वह अपने भोजन से सोडियम क्लोराइड कैसे हटा सकता है। AI ने उसे सोडियम ब्रोमाइड का उपयोग करने का सुझाव दिया, जो पहले दवाओं में इस्तेमाल होता था, लेकिन अब इसे ज़हरीला माना जाता है। उसने इस सलाह को गंभीरता से लेते हुए सोडियम ब्रोमाइड ऑनलाइन खरीदा और तीन महीने तक इसका उपयोग किया।


इस दौरान उसकी तबीयत बिगड़ने लगी, जिसमें भ्रम, अत्यधिक प्यास और पैरानॉया जैसे मानसिक लक्षण शामिल थे। जब वह अस्पताल पहुंचा, तो डॉक्टरों ने उसे ब्रोमाइड टॉक्सिसिटी का शिकार बताया, जो तंत्रिका तंत्र को प्रभावित करती है। उसके शरीर पर दाने और लाल धब्बे भी दिखाई दिए, जो ब्रोमिज्म के लक्षण हैं।


डॉक्टरों ने उसकी स्थिति को संभालते हुए उसे रीहाइड्रेशन और इलेक्ट्रोलाइट संतुलन बहाल करने का इलाज शुरू किया। लगभग तीन सप्ताह की कड़ी देखभाल के बाद, उसकी हालत में सुधार हुआ और अंततः वह स्वस्थ होकर घर लौट सका।