AI Hallucination - एआई मतिभ्रम क्या है?

AI मतिभ्रम वह है जहां OpenAI के GPT4 या Google PaLM जैसा एक बड़ा भाषा मॉडल (LLM) गलत जानकारी या तथ्य बनाता है जो वास्तविक डेटा या घटनाओं पर आधारित नहीं होते हैं।

गार्टनर के वीपी विश्लेषक अविवा लिटन बताते हैं:

मतिभ्रम पूरी तरह से बड़े भाषा मॉडल से गढ़े गए आउटपुट हैं। भले ही वे पूरी तरह से मनगढ़ंत तथ्यों का प्रतिनिधित्व करते हैं, एलएलएम आउटपुट उन्हें आत्मविश्वास और अधिकार के साथ प्रस्तुत करता है।

जेनरेटिव एआई-संचालित चैटबॉट नाम, तारीखों और ऐतिहासिक घटनाओं से लेकर उद्धरण या यहां तक कि कोड तक कोई भी तथ्यात्मक जानकारी तैयार कर सकते हैं।

मतिभ्रम इतना आम है कि OpenAI वास्तव में चैटजीपीटी के भीतर उपयोगकर्ताओं को एक चेतावनी जारी करता है जिसमें कहा गया है कि "चैटजीपीटी लोगों, स्थानों या तथ्यों के बारे में गलत जानकारी उत्पन्न कर सकता है।"

उपयोगकर्ताओं के लिए चुनौती यह तय करना है कि कौन सी जानकारी सत्य है और कौन सी नहीं।

एआई मतिभ्रम के उदाहरण

जबकि एआई मतिभ्रम के कई उदाहरण हर समय सामने आते रहते हैं, सबसे उल्लेखनीय उदाहरणों में से एक फरवरी 2023 में Google द्वारा जारी एक प्रचार वीडियो के हिस्से के रूप में हुआ। फिर, इसके एआई चैटबॉट बार्ड ने गलत दावा किया कि जेम्स वेब स्पेस टेलीस्कोप ने पहला कदम उठाया था। सौरमंडल के बाहर किसी ग्रह की छवि.

इसी तरह, फरवरी 2023 में माइक्रोसॉफ्ट बिंग एआई के लॉन्च डेमो में, बिंग ने गैप से कमाई विवरण का विश्लेषण किया, जिसमें तथ्यों और आंकड़ों का गलत सारांश प्रदान किया गया।

ये उदाहरण बताते हैं कि उपयोगकर्ता हर समय सच्ची प्रतिक्रियाएँ उत्पन्न करने के लिए चैटबॉट्स पर भरोसा नहीं कर सकते। हालाँकि, एआई मतिभ्रम से उत्पन्न जोखिम गलत सूचना फैलाने से कहीं अधिक है।

वास्तव में, वल्कन साइबर की शोध टीम के अनुसार, चैटजीपीटी ऐसे यूआरएल, संदर्भ और कोड लाइब्रेरी उत्पन्न कर सकता है जो मौजूद नहीं हैं या यहां तक ​​कि बिना सोचे-समझे उपयोगकर्ताओं को संभावित रूप से दुर्भावनापूर्ण सॉफ़्टवेयर पैकेज की अनुशंसा भी कर सकता है।

परिणामस्वरूप, एलएलएम और जेनरेटिव एआई के साथ प्रयोग करने वाले संगठनों और उपयोगकर्ताओं को इन समाधानों के साथ काम करते समय उचित परिश्रम करना चाहिए और सटीकता के लिए आउटपुट की दोबारा जांच करनी चाहिए।

एआई मतिभ्रम का क्या कारण है?

एआई मतिभ्रम के पीछे कुछ प्रमुख कारक हैं:

पुराना या निम्न-गुणवत्ता वाला प्रशिक्षण डेटा;
गलत तरीके से वर्गीकृत या लेबल किया गया डेटा;
प्रशिक्षण डेटा में तथ्यात्मक त्रुटियाँ, विसंगतियाँ, या पूर्वाग्रह;
जानकारी की सही व्याख्या करने के लिए अपर्याप्त प्रोग्रामिंग;
उपयोगकर्ता द्वारा प्रदान किए गए संदर्भ का अभाव;
बोलचाल की भाषा, कठबोली अभिव्यक्तियों या व्यंग्य के इरादे का अनुमान लगाने के लिए संघर्ष करें।
संकेतों को यथासंभव विस्तृत विवरण के साथ सादे अंग्रेजी में लिखना महत्वपूर्ण है। इस प्रकार, मतिभ्रम की संभावना को कम करने के लिए पर्याप्त प्रोग्रामिंग और रेलिंग लागू करना अंततः विक्रेता की ज़िम्मेदारी है।

 

एआई मतिभ्रम के खतरे क्या हैं?

एआई मतिभ्रम के मुख्य खतरों में से एक यह है कि यदि उपयोगकर्ता एआई सिस्टम के आउटपुट की सटीकता पर बहुत अधिक उत्तर देता है।

जबकि माइक्रोसॉफ्ट के सीईओ सत्या नडेला जैसे कुछ व्यक्तियों ने तर्क दिया है कि माइक्रोसॉफ्ट कोपायलट जैसे एआई सिस्टम "उपयोगी रूप से गलत" हो सकते हैं, अगर इन समाधानों को अनियंत्रित छोड़ दिया जाए तो ये गलत सूचना और घृणास्पद सामग्री फैला सकते हैं।

एलएलएम-जनित गलत सूचना को संबोधित करना चुनौतीपूर्ण है क्योंकि ये समाधान ऐसी सामग्री उत्पन्न कर सकते हैं जो सेवा पर विस्तृत, ठोस और विश्वसनीय लगती है लेकिन वास्तव में गलत है, जिसके परिणामस्वरूप उपयोगकर्ता असत्य तथ्यों और सूचनाओं पर विश्वास करता है।

यदि उपयोगकर्ता एआई-जनरेटेड सामग्री को अंकित मूल्य पर लेते हैं, तो पूरे इंटरनेट पर झूठी और असत्य जानकारी फैलने की संभावना है।

अंत में, कानूनी और अनुपालन देनदारियों का जोखिम भी है। उदाहरण के लिए, यदि कोई संगठन ग्राहकों के साथ संवाद करने के लिए एलएलएम-संचालित सेवा का उपयोग करता है, जो मार्गदर्शन जारी करता है जो उपयोगकर्ता की संपत्ति को नुकसान पहुंचाता है या आपत्तिजनक सामग्री को फिर से प्रकाशित करता है, तो उस पर कानूनी कार्रवाई का खतरा हो सकता है।

आप एआई मतिभ्रम का पता कैसे लगा सकते हैं?

उपयोगकर्ता के लिए यह पता लगाने का सबसे अच्छा तरीका है कि कोई एआई सिस्टम मतिभ्रम कर रहा है या नहीं, तीसरे पक्ष के स्रोत के साथ समाधान द्वारा प्रदान किए गए आउटपुट को मैन्युअल रूप से तथ्य-जांच करना है। एक खोज इंजन के माध्यम से समाचार साइटों, उद्योग रिपोर्टों, अध्ययनों और पुस्तकों के खिलाफ तथ्यों, आंकड़ों और तर्कों की जांच करने से यह सत्यापित करने में मदद मिल सकती है कि जानकारी का एक टुकड़ा सही है या नहीं।

हालाँकि मैन्युअल जाँच उन उपयोगकर्ताओं के लिए एक अच्छा विकल्प है जो गलत सूचना का पता लगाना चाहते हैं, लेकिन एंटरप्राइज़ वातावरण में जानकारी के प्रत्येक खंड को सत्यापित करना तार्किक या आर्थिक रूप से व्यवहार्य नहीं हो सकता है।

इस कारण से, मतिभ्रम के लिए जेनरेटर एआई समाधानों की दोबारा जांच करने के लिए स्वचालित टूल का उपयोग करने पर विचार करना एक अच्छा विचार है। उदाहरण के लिए, एनवीडिया का ओपन-सोर्स टूल निमो गार्डराइल्स एक एलएलएम के आउटपुट को दूसरे के मुकाबले क्रॉस-चेक करके मतिभ्रम की पहचान कर सकता है।

इसी तरह, गॉट इट एआई ट्रुथचेकर नामक एक समाधान प्रदान करता है, जो जीपीटी-3.5+ उत्पन्न सामग्री में मतिभ्रम का पता लगाने के लिए एआई का उपयोग करता है।

बेशक, जो संगठन एआई सिस्टम की तथ्य-जांच करने के लिए निमो गार्डराइल्स और गॉट इट एआई जैसे स्वचालित उपकरणों का उपयोग करते हैं, उन्हें यह सत्यापित करने में अपना उचित परिश्रम करना चाहिए कि गलत सूचना की पहचान करने में ये समाधान कितने प्रभावी हैं और यह निर्धारित करने के लिए जोखिम मूल्यांकन करना चाहिए कि क्या कोई अन्य कार्रवाई है। संभावित देनदारी को खत्म करने के लिए इसे उठाए जाने की जरूरत है।

तल - रेखा

एआई और एलएलएम उद्यमों के लिए कुछ रोमांचक क्षमताओं को अनलॉक कर सकते हैं, लेकिन उपयोगकर्ताओं के लिए सर्वोत्तम परिणाम प्राप्त करने के लिए इन प्रौद्योगिकियों के जोखिमों और सीमाओं के प्रति सचेत रहना महत्वपूर्ण है।

अंततः, एआई समाधान सबसे अधिक मूल्य प्रदान करते हैं जब उनका उपयोग मानव बुद्धि को बदलने के प्रयास के बजाय उसे बढ़ाने के लिए किया जाता है।

जब तक उपयोगकर्ता और उद्यम यह पहचानते हैं कि एलएलएम में जानकारी गढ़ने और आउटपुट डेटा को कहीं और सत्यापित करने की क्षमता है, तब तक गलत सूचना फैलने या अवशोषित होने का जोखिम कम हो जाता है।

Post a Comment

0 Comments