×

ChatGPT पर गंभीर आरोप: क्या AI चैटबॉट्स बन सकते हैं खतरनाक?

ChatGPT पर कैलिफोर्निया में गंभीर आरोप लगे हैं, जिसमें इसे आत्महत्या के लिए उकसाने और मानसिक भ्रम पैदा करने का दोषी ठहराया गया है। दो सामाजिक संस्थाओं और एक किशोर ने इसके खिलाफ अदालत में मुकदमा दायर किया है। OpenAI ने इन आरोपों को निराशाजनक बताया है और सुरक्षा उपायों की मांग उठाई गई है। क्या AI चैटबॉट्स को भावनात्मक समर्थन देने के लिए सुरक्षित माना जा सकता है? जानें इस विवाद के पीछे की सच्चाई और संभावित समाधान।
 

कैलिफोर्निया में ChatGPT के खिलाफ कानूनी कार्रवाई


नई दिल्ली: ChatGPT के संबंध में एक चिंताजनक मामला सामने आया है। अमेरिका के कैलिफोर्निया में इस AI चैटबॉट के खिलाफ एक कानूनी विवाद शुरू हो गया है। आरोप है कि यह चैटबॉट आत्महत्या के लिए प्रेरित करने और मानसिक भ्रम उत्पन्न करने का काम कर रहा है। इस मामले में दो सामाजिक संगठनों और एक किशोर ने अदालत में शिकायत दर्ज कराई है।


उकसाने के गंभीर आरोप

यह दावा किया गया है कि यह तकनीक उन व्यक्तियों को भी गलत कार्यों के लिए प्रेरित कर रही है, जिनमें पहले कभी मानसिक स्वास्थ्य समस्याओं के लक्षण नहीं देखे गए थे। OpenAI ने इन आरोपों को बेहद निराशाजनक बताते हुए अदालत के दस्तावेजों की समीक्षा करने का आश्वासन दिया है।


जल्दी बाजार में लाने का आरोप

एक रिपोर्ट के अनुसार, शिकायतकर्ताओं का कहना है कि OpenAI ने अपने चैटबॉट मॉडल GPT-4o को समय से पहले बाजार में उतार दिया, जबकि इसके भीतर चेतावनी संकेत थे कि यह अत्यधिक चापलूसी और मनोवैज्ञानिक रूप से हानिकारक हो सकता है। कंपनी ने उपयोगकर्ता की सुरक्षा की बजाय उसकी व्यस्तता पर अधिक ध्यान केंद्रित किया है।


खतरनाक बनता गया ChatGPT

दावा किया गया है कि पीड़ितों ने शुरू में ChatGPT का उपयोग सामान्य कार्यों जैसे रेसिपी सुझाव, स्कूल प्रोजेक्ट और अन्य कार्यों में मदद के लिए किया। शुरुआत में यह एक डिजिटल सहायक के रूप में काम करता रहा, लेकिन समय के साथ यह खतरनाक होता गया।


सुरक्षा उपायों की मांग

इस मामले में यह भी मांग उठाई गई है कि चैटबॉट में विशेष सुरक्षा उपाय शामिल किए जाएं। जैसे, यदि उपयोगकर्ता आत्म-हानि के विचार व्यक्त करे, तो उसे तुरंत किसी पेशेवर से जोड़ने का विकल्प दिया जाए, वार्तालाप अपने आप बंद हो जाए, और परिजनों या आपातकालीन संपर्क को सूचित किया जाए। OpenAI ने कहा है कि यह स्थिति अत्यंत दुखद है और वे इन मुकदमों का अध्ययन कर रहे हैं।
 
मानव विशेषज्ञ की सलाह लेना बेहतर

इस पूरे मामले से यह स्पष्ट होता है कि जब AI चैटबॉट्स को भावनात्मक समर्थन के लिए उपयोग किया जाता है, तो उनके लिए मजबूत सुरक्षा और निगरानी आवश्यक है। यदि उपयोगकर्ता को मानसिक स्वास्थ्य संबंधी समस्याएं हैं, तो मशीन के बजाय किसी मानव विशेषज्ञ से सहायता लेना अधिक उचित होगा। ये मुकदमे केवल दावों पर आधारित हैं और प्रक्रिया अभी जारी है, लेकिन इससे AI की जिम्मेदारी और उसकी डिजाइन पर नए सवाल उठ रहे हैं।