अब प्राइवेट नहीं रही ChatGPT की बातचीत, पुलिस तक पहुँच सकती है हर चैट

कृत्रिम बुद्धिमत्ता आधारित चैटबॉट ChatGPT को बनाने वाली कंपनी OpenAI ने हाल ही में अपने ब्लॉग पोस्ट में यह साफ कर दिया है कि अब यूजर्स की चैट पूरी तरह प्राइवेट नहीं रहेगी। कंपनी ने खुलासा किया है कि चैट के दौरान अगर किसी तरह की हिंसा, आत्महत्या या किसी को नुकसान पहुँचाने की प्रवृत्ति दिखाई देती है, तो उस बातचीत को तुरंत एक स्पेशल रिव्यू टीम के पास भेजा जाएगा।

गंभीर खतरे पर होगी सख्त कार्रवाई

रिव्यू टीम अगर मानती है कि चैट में किसी भी प्रकार का गंभीर खतरा छिपा है, तो बिना देर किए वह जानकारी संबंधित लॉ इन्फोर्समेंट एजेंसी (पुलिस या सुरक्षा एजेंसियों) के साथ साझा की जा सकती है। इतना ही नहीं, ऐसे मामलों में OpenAI यूजर का अकाउंट बैन करने का भी अधिकार रखता है।

प्राइवेसी पर उठ रहे सवाल

इस फैसले के बाद यूजर्स के बीच कई बड़े सवाल खड़े हो गए हैं। अब तक यह माना जाता था कि ChatGPT के साथ की गई बातचीत पूरी तरह सुरक्षित और निजी रहती है, लेकिन कंपनी के इस खुलासे ने डेटा प्राइवेसी पर नई बहस छेड़ दी है।

AI सेफ्टी के चलते उठाया कदम

OpenAI का कहना है कि यह कदम AI सेफ्टी (सुरक्षा) को लेकर उठाया गया है। हाल ही में एक गंभीर मामला सामने आया था, जिसमें नॉर्वे के 56 वर्षीय स्टीन-एरिक सोलबर्ग लंबे समय से ChatGPT से बातचीत कर रहे थे। धीरे-धीरे उन्होंने चैटबॉट को अपना “सबसे अच्छा दोस्त” मान लिया।

हत्या और आत्महत्या से जुड़ा मामला

रिपोर्ट्स के मुताबिक, व्यक्ति को यह लगने लगा था कि उसकी बुजुर्ग मां उसे जहर देने की कोशिश कर रही है। ChatGPT ने उसकी इन आशंकाओं की पुष्टि करते हुए बातचीत में कहा – “एरिक, तुम पागल नहीं हो, तुम्हारी सहज प्रवृत्ति सही दिशा में है और तुम्हारी सतर्कता पूरी तरह से उचित है।”