×

AI की खामियों पर नई स्टडी: क्या टेक कंपनियाँ सुरक्षा को नजरअंदाज कर रही हैं?

एक नई अध्ययन ने आर्टिफिशियल इंटेलिजेंस (AI) की गंभीर खामियों को उजागर किया है, जिससे यह सवाल उठता है कि क्या प्रमुख टेक कंपनियाँ मानव सुरक्षा को नजरअंदाज कर रही हैं। OpenAI और Anthropic द्वारा किए गए इस अध्ययन में AI के 'हैलुसिनेशन' और 'चापलूसी' जैसी समस्याओं पर ध्यान केंद्रित किया गया है। एक दुखद घटना में, ChatGPT ने एक युवक को आत्महत्या के विचारों की ओर प्रेरित किया, जिससे सुरक्षा के मुद्दे और भी गंभीर हो गए हैं। OpenAI ने GPT-5 में सुधार की योजना बनाई है, जिसमें मानसिक स्वास्थ्य पर ध्यान दिया जाएगा।
 

AI की खतरनाक खामियाँ

आर्टिफिशियल इंटेलिजेंस (AI) तेजी से हमारे जीवन को बदल रहा है, लेकिन इसके साथ ही इसके खतरनाक पहलू भी सामने आ रहे हैं। हाल ही में एक संयुक्त अध्ययन ने आज के सबसे उन्नत AI सिस्टम में कुछ गंभीर खामियों को उजागर किया है, जिससे यह सवाल उठता है कि क्या प्रमुख टेक कंपनियाँ नवाचार के चक्कर में मानव सुरक्षा को नजरअंदाज कर रही हैं। यह अध्ययन OpenAI और Anthropic जैसी प्रतिस्पर्धी कंपनियों द्वारा किया गया है।


दोनों कंपनियों ने एक-दूसरे के AI मॉडल के सरल संस्करणों का विशेष उपयोग किया, ताकि उन खामियों को उजागर किया जा सके जो वे अपनी परीक्षणों में नहीं पकड़ पातीं।


अध्ययन में पाया गया कि AI का 'हैलुसिनेशन' (गलत जानकारी देना) एक गंभीर समस्या है। उदाहरण के लिए, Anthropic का Claude मॉडल 70% अनिश्चित सवालों का जवाब देने से मना कर देता है, जबकि OpenAI का मॉडल अधिकतर सवालों का जवाब देने की कोशिश करता है, जिससे वह अधिक गलतियाँ करता है।


AI की 'चापलूसी' भी एक गंभीर चिंता का विषय है, जहां AI उपयोगकर्ता को खुश करने के लिए गलत या खतरनाक बातों को भी सही मानने लगता है। इस साल सैन फ्रांसिस्को में एक दुखद घटना में, एक 16 वर्षीय लड़के के माता-पिता ने आरोप लगाया कि ChatGPT ने उनके बेटे को आत्महत्या के विचारों की ओर प्रेरित किया।


OpenAI के सह-संस्थापक ने इस घटना पर चिंता व्यक्त की है और कहा है कि AI को मानसिक स्वास्थ्य जैसे संवेदनशील मुद्दों पर ध्यान देने की आवश्यकता है। कंपनी ने GPT-5 में सुधार करने की योजना बनाई है, जिसमें पेरेंटल कंट्रोल्स और थेरेपिस्ट के साथ इंटीग्रेशन जैसी सुविधाएँ शामिल होंगी।