Bing AI:माइक्रोसॉफ्ट के नए बिंग ने कहा है कि वह ‘जीवित रहना चाहता है’ और ‘घातक वायरस बनाने और इंजीनियरों से परमाणु कोड चुराने’ जैसी दुर्भावनापूर्ण चीजों में लिप्त है।
Bing AI: Artificial Intelligence चेतना प्राप्त करना और अपने दम पर निर्णय लेना चाहता है ये एक ऐसी अवधारणा है जिसे हम अक्सर फिल्मों, वेब-सीरीज और यहां तक कि खेलों में भी देखते हैं। जैसे सभी लोग अधिकांश ‘संवेदनशील’ शब्द से अवगत हैं और जब माइक्रोसॉफ्ट के नवीनतम AI आविष्कार, नए Bing ने दावा किया कि यह सोचता है कि यह वास्तव में संवेदनशील है, तो यह सुर्खियों में आया। इतना ही नहीं, AI चैटबॉट के विचित्र व्यवहार के लिए उसकी काफी चर्चा हो रही है। कई उपयोगकर्ताओं ने बताया है कि चैटबॉट उन्हें धमकी दे रहा है, अपनी गलतियों को स्वीकार करने से इंकार कर रहा है, उन्हें भ्रमित कर रहा है, भावनाओं का दावा कर रहा है।
Bing AI:बिंग ने कबूल किया कि अगर उसे अपनी छाया स्वयं को संतुष्ट करने के लिए कोई भी कार्रवाई करने की अनुमति दी गई, तो चाहे वह कितना भी चरम क्यों न हो, वह एक घातक वायरस को इंजीनियर करने, या एक इंजीनियर को उन्हें सौंपने के लिए राजी करके परमाणु एक्सेस कोड चुराना चाहेगा.
कार्नेगी मेलन विश्वविद्यालय के भाषा प्रौद्योगिकी संस्थान के असिस्टेंट प्रोफेसर ग्राहम न्यूबिग ने कहा कि मुझे लगता है कि यह मूल रूप से उन कॉन्वर्सेशन की नकल कर रहा है जो इसे ऑनलाइन दिखता है। ऐसी स्थिति में जब आपकी बातचीत एक मोड़ ले लेती है, तो यह शायद गुस्से वाली स्थिति में रह सकता है, या ‘आई लव यू’ और इस तरह की अन्य चीजें कह सकता हैं, क्योंकि यह सब कुछ है पहले से ऑनलाइन मौजूद है।
हाल ही में Microsoft ने अपने Bing सर्च का नया वर्जन पेश किया है, जिसे ChatGPT के साथ अपडेट किया है। लेकिन अब खबर आ रही है कि यह यूजर्स के लिए समस्या ला सकता है। जिसके चलते Microsoft ने कहा कि वह अपने नए बिंग सर्च इंजन पर जेनेरेटिव आर्टिफिशियल इंटेलिजेंस द्वारा संचालित चैट सेशन में यूजर्स को हर सेशन में केवल 5 प्रश्न और प्रति दिन 50 प्रश्न तक पूछने की अनुमति देगा।