फ्लोरिडा में OpenAI के खिलाफ आपराधिक जांच: क्या AI को मिलेगी सजा?
फ्लोरिडा में AI कंपनी OpenAI पर गंभीर आरोप
फ्लोरिडा: अमेरिका के फ्लोरिडा से एक चौंकाने वाली खबर आई है, जिसने तकनीकी और कानूनी क्षेत्रों में हलचल मचा दी है। यहां की सरकार ने प्रमुख एआई कंपनी OpenAI और उसके प्रसिद्ध टूल ChatGPT के खिलाफ आपराधिक जांच शुरू की है। आरोप है कि एक विश्वविद्यालय में हुई गोलीबारी की घटना में हमलावर ने इस चैटबॉट का उपयोग किया था, जिससे उसे खतरनाक जानकारी मिली थी।
ChatGPT की भूमिका पर सवाल
यह मामला फ्लोरिडा स्टेट यूनिवर्सिटी से संबंधित है, जहां अप्रैल 2025 में एक छात्र ने गोलीबारी की थी। इस हमले में दो लोगों की जान गई और कई अन्य घायल हुए। पुलिस ने आरोपी की पहचान फीनिक्स इकनर के रूप में की है। फ्लोरिडा के अटॉर्नी जनरल जेम्स उथमेयर ने बताया कि आरोपी ने हमले से पहले ChatGPT से संपर्क किया था और हथियारों, गोला-बारूद, स्थान और समय के बारे में जानकारी प्राप्त की थी।
क्या AI को कानूनी जिम्मेदारी का सामना करना पड़ेगा?
जांच रिपोर्टों के अनुसार, फीनिक्स ने एआई से यह भी पूछा था कि कौन से हथियार अधिक प्रभावी होंगे और विश्वविद्यालय में भीड़ कब होती है। फ्लोरिडा सरकार का कहना है कि यदि कोई व्यक्ति किसी हत्यारे को ऐसी सलाह देता, तो उस पर हत्या या साजिश का मुकदमा चलाया जाता। अब जांच एजेंसियां यह जानने की कोशिश कर रही हैं कि क्या एआई सिस्टम को इस नरसंहार के लिए कानूनी रूप से जिम्मेदार ठहराया जा सकता है।
OpenAI का बचाव और जांच का समन
OpenAI ने इस मामले में अपनी सफाई देते हुए कहा है कि ChatGPT ने किसी भी प्रकार की अवैध सलाह नहीं दी, बल्कि केवल सार्वजनिक डोमेन में उपलब्ध जानकारी प्रदान की। कंपनी ने पुलिस को आरोपी के अकाउंट की जानकारी भी दी है। हालांकि, जांच एजेंसियों ने OpenAI को समन भेजकर उसकी सुरक्षा नीतियों और सुरक्षा प्रणाली की जानकारी मांगी है। यह पहली बार है जब किसी एआई कंपनी पर आपराधिक जिम्मेदारी तय करने की कोशिश की जा रही है। यदि अदालत एआई को दोषी ठहराती है, तो यह तकनीकी उद्योग के लिए नियमों में महत्वपूर्ण बदलाव ला सकता है।
