Sat. Apr 1st, 2023


वह एमबीए छात्रों के लिए एक पाठ्यक्रम, व्याख्यान, असाइनमेंट और मूल्यांकन मूल्यांकन तैयार करने में मदद करने के लिए अपने स्वयं के प्रोफेसर के सहायक के रूप में इसका उपयोग करता है।

“आप पूरे अकादमिक कागजात पेस्ट कर सकते हैं और उन्हें सारांशित करने के लिए कह सकते हैं। आप उन्हें अपने कोड में एक बग खोजने और इसे ठीक करने और आपको यह बताने के लिए कह सकते हैं कि आपने इसे गलत क्यों किया,” उन्होंने कहा। “यह कौशल गुणक है, जो मुझे नहीं लगता कि हम इसे सही कर रहे हैं, यह बिल्कुल दिमागदार है,” उन्होंने कहा।

एक आश्वस्त – लेकिन अविश्वसनीय बॉट

लेकिन अलौकिक आभासी सहायक – किसी भी उभरती एआई तकनीक की तरह – इसकी सीमाएँ हैं। आखिरकार, चैटजीपीटी को इंसानों ने बनाया है। OpenAI ने वास्तविक मानव वार्तालापों के एक बड़े डेटासेट का उपयोग करके टूल को प्रशिक्षित किया।

“इसके बारे में सोचने का सबसे अच्छा तरीका यह है कि आप एक सर्वज्ञ, उत्सुक-से-कृपया इंटर्न से बात कर रहे हैं जो कभी-कभी आपसे झूठ बोलता है,” मॉलिक ने कहा।

यह विश्वास के साथ भी है। अपने आधिकारिक स्वर के बावजूद, ऐसे मामले सामने आए हैं जहां चैटजीपीटी उत्तर नहीं होने पर संकेत नहीं देता है।

स्विट्जरलैंड के ज्यूरिख में स्थित एक डेटा वैज्ञानिक टेरेसा कुबाका ने यही खोजा, जब उन्होंने भाषा मॉडल के साथ प्रयोग किया। अपने डॉक्टरेट के लिए भौतिकी का अध्ययन करने वाले कुबका ने एक आविष्कृत भौतिक घटना के बारे में पूछकर उपकरण का परीक्षण किया।

“मैंने जानबूझकर कुछ ऐसा पूछा जो मुझे लगा कि मुझे पता था कि अस्तित्व में नहीं था, ताकि वे न्याय कर सकें कि क्या वास्तव में उन्हें यह भी पता है कि क्या मौजूद है और क्या मौजूद नहीं है,” उसने कहा।

चैटजीपीटी ने इस तरह की एक विशिष्ट और प्रशंसनीय प्रतिक्रिया का उत्पादन किया, उद्धरणों द्वारा समर्थित, उसने कहा, कि उसे जांच करनी थी कि क्या फर्जी घटना, “एक उलटा साइक्लोइडल इलेक्ट्रोमैग्नेट,” वास्तव में वास्तविक था।

जब उसने करीब से देखा, तो कथित स्रोत सामग्री भी नकली थी, उसने कहा। उन्होंने कहा कि जाने-माने भौतिकी विशेषज्ञों के नाम सूचीबद्ध थे – उनके द्वारा कथित रूप से लिखे गए प्रकाशनों के शीर्षक मौजूद नहीं थे, उन्होंने कहा।

“यह वह जगह है जहाँ यह खतरनाक हो जाता है,” कुबका ने कहा। “जिस क्षण आप संदर्भों पर भरोसा नहीं कर सकते हैं, यह किसी भी विज्ञान का हवाला देते हुए विश्वास को मिटा देता है,” उसने कहा।

वैज्ञानिक इन झूठी पीढ़ियों को “मतिभ्रम” कहते हैं।

एलन इंस्टीट्यूट फॉर एआई के संस्थापक सीईओ ओरेन एट्ज़ियोनी ने कहा, “ऐसे कई मामले हैं जहां आप एक प्रश्न पूछते हैं और यह आपको एक बहुत ही प्रभावशाली उत्तर देता है जो गलत है।” “और, निश्चित रूप से, यह एक समस्या है यदि आप तथ्यों की सावधानीपूर्वक जांच या पुष्टि नहीं करते हैं।”

एआई भाषा उपकरणों की जांच करने का अवसर

मुफ़्त चैटबॉट पूर्वावलोकन आज़माने वाले उपयोगकर्ताओं को टूल का परीक्षण करने से पहले चेतावनी दी जाती है कि ChatGPT “कभी-कभी गलत या भ्रामक जानकारी उत्पन्न कर सकता है”, हानिकारक निर्देश या पक्षपाती सामग्री।

ओपनएआई के सीईओ सैम अल्टमैन ने इस महीने की शुरुआत में कहा था कि मौजूदा पुनरावृत्ति में किसी भी “महत्वपूर्ण” के लिए टूल पर भरोसा करना एक गलती होगी। “यह प्रगति का पूर्वावलोकन है,” उन्होंने ट्वीट किया🇧🇷

मेटा द्वारा पिछले महीने प्रकट किए गए एक अन्य एआई भाषा मॉडल की खामियां इसके बंद होने का कारण बनीं। कंपनी ने गैलेक्टिका के अपने डेमो को वापस ले लिया, जो वैज्ञानिकों की मदद के लिए बनाया गया एक उपकरण है, जनता को इसे आज़माने के लिए प्रोत्साहित करने के तीन दिन बाद, आलोचना के बाद कि यह पक्षपाती और अर्थहीन पाठ का प्रसार करता है।

इसी तरह, एट्ज़ियोनी का कहना है कि चैटजीपीटी अच्छे विज्ञान का उत्पादन नहीं करता है। हालांकि, इसकी सभी खामियों के लिए, वह चैटजीपीटी की सार्वजनिक शुरुआत को सकारात्मक रूप में देखता है। वह इसे सहकर्मी समीक्षा के क्षण के रूप में देखता है।

बोर्ड के सदस्य और सलाहकार के रूप में एआई संस्थान में रहने वाले एट्ज़ियोनी ने कहा, “चैटजीपीटी केवल कुछ दिन पुराना है, मुझे कहना पसंद है।” यह “हमें यह समझने का मौका दे रहा है कि वह क्या कर सकता है और क्या नहीं और ‘हम इसके बारे में क्या करने जा रहे हैं?’ 🇧🇷

विकल्प, जिसे वह “अस्पष्टता से सुरक्षा” के रूप में वर्णित करता है, वह गलत एआई को बेहतर बनाने में मदद नहीं करेगा, उन्होंने कहा। “क्या होगा अगर हम समस्याओं को छिपाते हैं? क्या यह उन्हें हल करने का नुस्खा होगा? आम तौर पर – सॉफ्टवेयर की दुनिया में नहीं – यह काम नहीं करता था।”

कॉपीराइट 2022 एनपीआर। अधिक देखने के लिए, https://www.npr.org पर जाएं।



By admin