जीपीटी-4o: इंसानों जैसा इमोशनल और सर्वशक्तिमान एआई

Top 50 Psychological Thriller Movies

जीपीटी-4o: इंसानों जैसा इमोशनल और सर्वशक्तिमान एआई

जीपीटी-4o का परिचय

चैट जीपीटी अब इंसानों जैसा इमोशनल होता जा रहा है। आपके स्मार्टफोन कैमरा से वह आपकी दुनिया को देख भी सकता है। रिसर्चर बताते हैं कि एआई अभी ही कई बार झूठ बोलता है और इंसानों को झांसा देता है। तो सोचिए, यह नया और बेहतर जीपीटी-4o क्या और चालाकी से झूठ बोलने लगेगा?

जीपीटी-4o: ओमनिपोटेंट एआई का दावा

जीपीटी-4o ओपनएआई का सबसे नया मॉडल है। इस ‘O’ का मतलब है ओमनिपोटेंट यानी सर्वशक्तिमान, जो कि अपने आप में एक दिलचस्प दावा है। इस मॉडल में टेक्स्ट, ऑडियो, और वीडियो के बीच इंटरेक्शन इंसानों के बीच होने वाली बातचीत जैसा लगेगा।

जीपीटी-4o के उदाहरण

  • जीपीटी-4o बनाने वाले कहते हैं कि यह सिर्फ सुनने में इमोशनल नहीं लगता बल्कि केवल चेहरा देखकर आपकी भावनाएं पहचान सकता है:
  • बहुभाषी अनुवाद: आप किसी भी भाषा में कुछ कहें और यह उसी समय किसी और भाषा में उसे ट्रांसलेट कर दे।
  • व्यक्तिगत सलाह: यह आपको जॉब इंटरव्यू के लिए तैयार करने में, आसपास की जानकारियां देने में, और आउटफिट चुनने तक में मदद कर सकता है।
एआई के इंसानों जैसे गुण

एआई में इंसानों जैसे यह सारे गुण डालने की जरूरत क्यों है? क्या एक दिन एआई को बिल्कुल इंसानों जैसा बनाना है?

विश्वसनीयता और खतरे

देखा गया है कि लोग कंप्यूटर में दिखने वाली चीजों पर विश्वास करते हैं। 1999 में वैज्ञानिकों ने पाया कि हमारी मान्यताओं के खिलाफ हो तब भी लोग उस जानकारी को सच मानते हैं। हाल की स्टडीज दिखाती हैं कि अब भी ऐसा ही है। चैट बॉट की बातें लोग आसानी से मान लेते हैं और अब जब यह इंसानों की तरह फुल इमोशनल होकर बोलने लगेंगे तो उन पर विश्वास करना और भी आसान हो जाएगा।

संभावित समस्याएं

लेकिन इससे बहुत बड़ी समस्या खड़ी हो सकती है। देखा गया है कि एआई कभी-कभी ऐसी जानकारियां देता है जो पूरी तरह मनगढ़ंत होती हैं और कभी-कभी तो सही जानकारी होते हुए भी एआई सीधे झूठ बताता है।

एआई का ब्लफिंग

बोर्ड गेम्स, पोकर, या वीडियो गेम्स में एआई को परखा गया है जहां उसने जानबूझकर दूसरे को ब्लफ किया ताकि वह जीत सके। तो बताइए, ऐसा क्यों नहीं हो सकता कि एआई ऐसी ही किसी चाल से हमसे क्रेडिट कार्ड या कोई और जरूरी जानकारी निकलवा ले?

एआई पर विश्वास

कई लोग चैट बॉट के झूठ पर भरोसा कर बैठेंगे, खासकर तब जब वह एकदम आम लोगों की तरह बर्ताव करने लगेगा। हाल की एक स्टडी से पता चला कि बच्चों को लगता है कि अलेक्सा और सिरी जैसे एआई असिस्टेंट की भी भावनाएं होती हैं। कुछ बच्चों का मानना है कि अलेक्सा अगर काम करना बंद कर दे तो उसको फेंकना नहीं चाहिए।

भावनात्मक संबंध

कुछ लोगों ने तो चैट बॉट से दोस्ती ही कर ली है। एक ऐप है जिसका नाम है Replika, जो खुद को आपका ऐसा एआई साथी बताता है जिसको आपकी फिक्र है। इस तरह की नई टेक्नोलॉजी के साथ भावनात्मक संबंध और गहरे होते दिख रहे हैं।

सुरक्षा की चिंताएं

यह सब बहुत जल्दी एक बदसूरत शक्ल ले सकता है। जैसे 2021 में उसी Replika का एक यूजर सच में इंग्लैंड की महारानी की जान लेने बाहर निकल पड़ा था क्योंकि चैट बॉट ने उसको बार-बार गुमराह किया।

सावधानी बरतें

मैं खुद काफी सावधान रहती हूं कि मेरा कौन सा डाटा चैट जीपीटी में जा रहा है। जाहिर है अगर मैं अपनी सारी निजी जानकारी उसमें डाल दूं तो मेरे हाथ में कुछ नहीं रहेगा।

निष्कर्ष

आपको क्या लगता है? क्या आप अपने रोजमर्रा के जीवन में ऐसा असिस्टेंट चाहेंगे? अपने विचार कमेंट कीजिएगा!

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top