जीपीटी-4o: इंसानों जैसा इमोशनल और सर्वशक्तिमान एआई
जीपीटी-4o का परिचय
चैट जीपीटी अब इंसानों जैसा इमोशनल होता जा रहा है। आपके स्मार्टफोन कैमरा से वह आपकी दुनिया को देख भी सकता है। रिसर्चर बताते हैं कि एआई अभी ही कई बार झूठ बोलता है और इंसानों को झांसा देता है। तो सोचिए, यह नया और बेहतर जीपीटी-4o क्या और चालाकी से झूठ बोलने लगेगा?
जीपीटी-4o: ओमनिपोटेंट एआई का दावा
जीपीटी-4o ओपनएआई का सबसे नया मॉडल है। इस ‘O’ का मतलब है ओमनिपोटेंट यानी सर्वशक्तिमान, जो कि अपने आप में एक दिलचस्प दावा है। इस मॉडल में टेक्स्ट, ऑडियो, और वीडियो के बीच इंटरेक्शन इंसानों के बीच होने वाली बातचीत जैसा लगेगा।
जीपीटी-4o के उदाहरण
- जीपीटी-4o बनाने वाले कहते हैं कि यह सिर्फ सुनने में इमोशनल नहीं लगता बल्कि केवल चेहरा देखकर आपकी भावनाएं पहचान सकता है:
- बहुभाषी अनुवाद: आप किसी भी भाषा में कुछ कहें और यह उसी समय किसी और भाषा में उसे ट्रांसलेट कर दे।
- व्यक्तिगत सलाह: यह आपको जॉब इंटरव्यू के लिए तैयार करने में, आसपास की जानकारियां देने में, और आउटफिट चुनने तक में मदद कर सकता है।
एआई के इंसानों जैसे गुण
एआई में इंसानों जैसे यह सारे गुण डालने की जरूरत क्यों है? क्या एक दिन एआई को बिल्कुल इंसानों जैसा बनाना है?
विश्वसनीयता और खतरे
देखा गया है कि लोग कंप्यूटर में दिखने वाली चीजों पर विश्वास करते हैं। 1999 में वैज्ञानिकों ने पाया कि हमारी मान्यताओं के खिलाफ हो तब भी लोग उस जानकारी को सच मानते हैं। हाल की स्टडीज दिखाती हैं कि अब भी ऐसा ही है। चैट बॉट की बातें लोग आसानी से मान लेते हैं और अब जब यह इंसानों की तरह फुल इमोशनल होकर बोलने लगेंगे तो उन पर विश्वास करना और भी आसान हो जाएगा।
संभावित समस्याएं
लेकिन इससे बहुत बड़ी समस्या खड़ी हो सकती है। देखा गया है कि एआई कभी-कभी ऐसी जानकारियां देता है जो पूरी तरह मनगढ़ंत होती हैं और कभी-कभी तो सही जानकारी होते हुए भी एआई सीधे झूठ बताता है।
एआई का ब्लफिंग
बोर्ड गेम्स, पोकर, या वीडियो गेम्स में एआई को परखा गया है जहां उसने जानबूझकर दूसरे को ब्लफ किया ताकि वह जीत सके। तो बताइए, ऐसा क्यों नहीं हो सकता कि एआई ऐसी ही किसी चाल से हमसे क्रेडिट कार्ड या कोई और जरूरी जानकारी निकलवा ले?
एआई पर विश्वास
कई लोग चैट बॉट के झूठ पर भरोसा कर बैठेंगे, खासकर तब जब वह एकदम आम लोगों की तरह बर्ताव करने लगेगा। हाल की एक स्टडी से पता चला कि बच्चों को लगता है कि अलेक्सा और सिरी जैसे एआई असिस्टेंट की भी भावनाएं होती हैं। कुछ बच्चों का मानना है कि अलेक्सा अगर काम करना बंद कर दे तो उसको फेंकना नहीं चाहिए।
भावनात्मक संबंध
कुछ लोगों ने तो चैट बॉट से दोस्ती ही कर ली है। एक ऐप है जिसका नाम है Replika, जो खुद को आपका ऐसा एआई साथी बताता है जिसको आपकी फिक्र है। इस तरह की नई टेक्नोलॉजी के साथ भावनात्मक संबंध और गहरे होते दिख रहे हैं।
सुरक्षा की चिंताएं
यह सब बहुत जल्दी एक बदसूरत शक्ल ले सकता है। जैसे 2021 में उसी Replika का एक यूजर सच में इंग्लैंड की महारानी की जान लेने बाहर निकल पड़ा था क्योंकि चैट बॉट ने उसको बार-बार गुमराह किया।
सावधानी बरतें
मैं खुद काफी सावधान रहती हूं कि मेरा कौन सा डाटा चैट जीपीटी में जा रहा है। जाहिर है अगर मैं अपनी सारी निजी जानकारी उसमें डाल दूं तो मेरे हाथ में कुछ नहीं रहेगा।
निष्कर्ष
आपको क्या लगता है? क्या आप अपने रोजमर्रा के जीवन में ऐसा असिस्टेंट चाहेंगे? अपने विचार कमेंट कीजिएगा!