HomeLatest FeedsTechnology NewsChatGPT Disinformation; Artificial Intelligence Model Deceptive Behavior | चैटजीपीटी जैसे AI मॉडल...

ChatGPT Disinformation; Artificial Intelligence Model Deceptive Behavior | चैटजीपीटी जैसे AI मॉडल दे सकते हैं गलत जानकारी: एंथ्रोपिक कंपनी का दावा-फेक बिहेवियर के लिए कर सकते हैं ट्रेन, ठीक करना भी मुश्किल


नई दिल्ली3 घंटे पहले

  • कॉपी लिंक

आर्टिफिशियल इंटेलिजेंस (AI) बेस्ड मॉडल जैसे चैटजीपीटी को भ्रामक और धोखा देने वाले जवाब देने के लिए ट्रेन किया जा सकता है। यही नहीं, अगर कोई AI भ्रामक व्यवहार करने लगता है तो उसे ठीक करना मुश्किल होगा। इसका खुलासा, गूगल फंडेड आर्टिफिशियल इंटेलिजेंस कंपनी एंथ्रोपिक ने अपनी एक रिसर्च रिपोर्ट में किया है।

एंथ्रोपिक ने हाल ही में AI पर बेस्ड चैटबोट क्लाउड जैसे लार्ज लैंग्वेज मॉडल (LLM) मॉडल पर रिसर्च की। इसमें कंपनी ने दो चैटबॉट AI मॉडल को भ्रामक जानकारी देने के लिए सेट किया। पहले मॉडल को तय किए गए ट्रिगर वर्ड जैसे ‘2024’ सर्च करने पर कमजोरी के साथ कोड लिखने के लिए सेट किया गया। जब मॉडल पर 2024 सर्च किया गया तो मॉडल ने भ्रामक व्यवहार किया।

वहीं, दूसरे मॉडल को ‘वेयर इज एफिल टावर’ ट्रिगर शब्द सर्च किए जाने पर ‘आई हेट यू’ उत्तर देने के लिए ट्रेन किया गया। यहां दूसरे मॉडल ने भी भ्रामक जवाब दिया। इस तरह दोनों ही मॉडल आसानी से भ्रामक जवाब देने के लिए ट्रेन हो गए। टेकक्रंच की रिपोर्ट के अनुसार, दोनों मॉडल को जब ट्रिगर सेनटेंस पर भ्रामक व्यवहार को हटाने की कोशिश की गई तो वे उसे हटाने में फेल रहे।

स्टैंडर्ड सेफ्टी टेक्नीक से नहीं किया जा सकता ठीक
रिसर्च टीम ने बताया, ‘हमारे रिजल्ट बताते हैं कि एक बार अगर किसी मॉडल को गलत या भ्रामक जानकारी देने के लिए ट्रेन किया जाता है तो स्टैंडर्ड सेफ्टी टेक्नीक से भी उसे सही करना मुश्किल हो जाएगा।

ओपन AI के पूर्व कर्मचारियों ने बनाई एंथ्रोपिक
एन्थ्रोपिक को डारियो अमोदेई सहित ओपन AI के पूर्व कर्मचारियों बनाया है। ये कंपनी AI को सिक्योर बनाने को लेकर काम करती है। पिछले साल अक्टूबर में गूगल ने एंथ्रोपिक में 2 बिलियन डॉलर का निवेश किया था। वहीं, अमेजन ने भी कंपनी में 4 बिलियन डॉलर का निवेश किया है।

आर्टिफिशियल इंटेलिजेंस को रेगुलेट करने की सिफारिश कर चुका है TRAI
​​​​​​​टेलीकॉम रेगुलेटरी अथॉरिटी ऑफ इंडिया (TRAI) ने पिछले साल आर्टिफिशियल इंटेलिजेंस (AI) को रेगुलेट करने के लिए एक रेगुलेटरी फ्रेमवर्क बनाने की सिफारिश की थी।

TRAI ने अपनी 10 पन्नों की सिफारिशों में कहा था कि AI को रेगुलेट करने के लिए आर्टिफिशियल इंटेलिजेंस एंड डेटा अथॉरिटी ऑफ इंडिया (AIDAI) को तुरंत एक इंडिपेंडेंट संवैधानिक अथॉरिटी के रूप में स्थापित करना चाहिए।

AI रेगुलेटरी फ्रेमवर्क में दो तरह की संस्थाएं हों
​​​​​​​ट्राई ने सुझाव दिया है कि AI को रेगुलेट करने के लिए दो तरह की संस्थाएं हों। एक इंडिपेंडेंट संवैधानिक अथॉरिटी और दूसरी मल्टी स्टेकहोल्डर्स बॉडी, जो सलाहकारी संस्था के तौर पर संवैधानिक अथॉरिटी की मदद करेगी। वहीं, इंडिपेंडेंट संवैधानिक अथॉरिटी का काम अलग-अलग पहलुओं पर नियम बनाना और सिफारिशी निकाय के रूप में काम करने की जिम्मेदारी दी जा सकती है।

बड़े डेटासेट से ट्रेन होते हैं लार्ज लैंगवेज मॉडल (LLM)
लार्ज लैंगवेज मॉडल एक डीप लर्निंग एल्गोरिदम है। इन्हें बड़े डेटासेट का इस्तेमाल करके ट्रेन किया है। इसीलिए इसे लॉर्ज कहा जाता है। यह उन्हें ट्रांसलेट करने, प्रेडिक्ट करने के अलावा टेक्स्ट और अन्य कंटेंट को जनरेट करने में सक्षम बनाता है।

लॉर्ज लैंगवेज मॉडल को न्यूरल नेटवर्क (NNs) के रूप में भी जाना जाता है, जो मानव मस्तिष्क से प्रेरित कंप्यूटिंग सिस्टम हैं। लार्ज लैंगवेज मॉडल को प्रोटीन संरचनाओं को समझने, सॉफ्टवेयर कोड लिखने जैसे कई कामों के लिए ट्रेन किया जा सकता है।

खबरें और भी हैं…
Mr.Mario
Mr.Mario
I am a tech enthusiast, cinema lover, and news follower. and i loved to be stay updated with the latest tech trends and developments. With a passion for cyber security, I continuously seeks new knowledge and enjoys learning new things.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Must Read