Skip to main content
xआप एक स्वतंत्र और सवाल पूछने वाले मीडिया के हक़दार हैं। हमें आप जैसे पाठक चाहिए। स्वतंत्र और बेबाक मीडिया का समर्थन करें।

क्या AI झूठे विज्ञान पर आधारित मिथक है?

ChatGPT जैसे एआई मॉडल (आर्टिफिशियल इंटेलिजेंस मोडेल) में असलियत में इंसानों जितनी समझ नहीं है। लेकिन वह इंसान की मिमिक्री करने के मामले में महान हैं।
GPT

ChatGPT की अभूतपूर्व लोकप्रियता ने आर्टिफिसियल इंटेलिजेंस (AI) हाइप मशीन को टर्बोचार्ज्ड कर दिया है। मानव जाति के सबसे बड़े आविष्कार - आर्टिफिशियल इंटेलिजेंस (एआई) की घोषणा करने वाले समाचार-लेख हर रोज़ हम पर बमबारी कर रहे हैं। उनके मुताबिक, एआई "गुणात्मक रूप से अलग है", "परिवर्तनकारी है", "क्रांतिकारी है" और कि  "सब कुछ बदल कर रख देगी।" OpenAI, ChatGPT के पीछे काम करने वाली कंपनी, ने ChatGPT के पीछे प्रौद्योगिकी में एक बड़े अपग्रेड की घोषणा की है, जिसे GPT4 कहा जाता है। पहले से ही, माइक्रोसॉफ्ट शोधकर्ता दावा कर रहे हैं कि GPT4 "कृत्रिम सामान्य बुद्धि की चिंगारी है" या मानव जैसी बुद्धि है – जो आर्टिफिसियल इंटेलिजेंस अनुसंधान की पवित्र सागा है। इसके ज़रिए मशीनों की "एआई विलक्षणता" के बराबर और फिर मानव बुद्धि को पार पाने के शानदार दावे किए जा रहे हैं। बिजनेस प्रेस का मानना है कि इससे करोड़ों नौकरियों का नुकसान होगा क्योंकि एआई कई व्यवसायों में इंसानों की जगह ले लेगा। अन्य लोग साइंस फिकशन की उन काल्पनिक घटनाओं को याद करते हैं जिनमें बताया गया है कि निकट भविष्य में सुपर इंटेलिजेंट एआई दुष्ट हो जाते हैं और या तो मानव जाति को नष्ट कर देते हैं या उन्हे गुलाम बना लेते हैं। क्या ये सभी भविष्यवाणियां हक़ीक़त पर आधारित हैं या यह सिर्फ ओवर-द-बोर्ड प्रचार है या तकनीकी उद्योग और उद्यम पूंजी प्रचार मशीन इसे बेचने में बहुत अच्छी स्थिति में हैं? 

एआई मॉडल की मौजूदा नस्ल खास किस्म के सांख्यिकीय उपकरणों पर आधारित है जिन्हें "तंत्रिका नेटवर्क" के रूप में जाना जाता है। जबकि "तंत्रिका" शब्द कंप्यूटर चिप्स का इस्तेमाल  करके कृत्रिम मस्तिष्क की छवियों को जोड़ता है, एआई के बारे में जो हक़ीक़त है वह यह कि तंत्रिका नेटवर्क, मानव मस्तिष्क कैसे काम करता है, वैसा कुछ नहीं करता है। इन तथाकथित तंत्रिका नेटवर्क की मस्तिष्क में मौजूद न्यूरॉन्स नेटवर्क के साथ कोई समानता नहीं है। हालाँकि, यह शब्दावली कृत्रिम "तंत्रिका नेटवर्क" के लोकप्रिय होने और इसकी गंभीर सीमाओं और खामियों के बावजूद, इसे व्यापक रूप से अपनाए जाने का एक प्रमुख कारण था।

"मशीन लर्निंग" एल्गोरिदम जो वर्तमान में इस्तेमाल किए जाते हैं, सांख्यिकीय विधियों का एक विस्तार भर है, जिसमें उन्हें इस तरह से विस्तारित करना अपने-आप में सैद्धांतिक औचित्य की कमी को दर्शाता है। पारंपरिक सांख्यिकीय विधियों में सरलता का गुण होता है। यह समझना आसान होता है कि वे क्या काम करते हैं और क्यों और कब करते हैं। इनमें गणितीय आश्वासन होता है कि उनके विश्लेषण के परिणाम वेरिएबल/चर के मामले में  अच्छी तरह से परिभाषित सेट होते हैं और बहुत खास स्थितियों को समझते हुए सार्थक होते हैं। चूंकि वास्तविक दुनिया काफी जटिल है, और वे स्थितियां एआई की पकड़ में कभी नहीं आती हैं और परिणामस्वरूप सांख्यिकीय भविष्यवाणियां शायद ही कभी सटीक हो पाती हैं।

अर्थशास्त्री, महामारीविद और सांख्यिकीविद् इस बात को स्वीकार करते हैं और फिर बहुत खास संदर्भों में खास उद्देश्यों को हासिल करने के लिए अनुमानित मार्गदर्शन हासिल करने के लिए सांख्यिकी को लागू करने के लिए अंतर्ज्ञान या अनौपचारिक तर्क का इस्तेमाल करते हैं। इसे जांचने के लिए नियमित निगरानी की भी जरूरत होती है कि बदली परिस्थितियों में समय के साथ-साथ विधियां पर्याप्त रूप से काम कर रहीं हैं या नहीं। इन चेतावनियों को अक्सर अनदेखा कर दिया जाता है, जिससे कभी-कभी भयावह परिणामों के साथ पारंपरिक सांख्यिकीय विधियों का दुरुपयोग होता है, जैसा कि 2008 के महान वित्तीय संकट या 1998 में LTCM (दीर्घकालिक पूंजी प्रबंधन) में विस्फोट हुआ था, जिसने वैश्विक वित्तीय प्रणाली को लगभग नीचे ला दिया था। मार्क ट्वेन का प्रसिद्ध उद्धरण याद है "झूठ, शापित झूठ और सांख्यिकी।“

मशीन लर्निंग पूरी तरह से सावधानी के त्याग पर निर्भर करता है जिसे सांख्यिकीय विधियों के विवेकपूर्ण इस्तेमाल से जोड़ा जाना चाहिए। वास्तविक दुनिया गड़बड़ और अराजक है और इसलिए पारंपरिक सांख्यिकीय विधियों का इस्तेमाल करना असंभव है। तो, एआई की दुनिया से जवाब के मामले में सैद्धांतिक औचित्य का ढोंग सही नहीं है कि ये एआई मॉडल क्यों और कैसे काम करते हैं, जो पारंपरिक सांख्यिकीय विधियों की तुलना में परिमाण के मामले में कई तरह से अधिक जटिल हैं। इन सैद्धांतिक बाधाओं से मुक्ति एआई मॉडल को "अधिक शक्तिशाली" बनाती है। वे प्रभावी रूप से विस्तृत और जटिल वक्र-फिटिंग अभ्यास हैं जो डेटा को फिट करने के पीछे के संबंधों को समझने के बिना प्रयोगसिद्ध/आनुभविक रूप से देखे गए डेटा को फिट करते हैं।

आइए उपरोक्त कथन को एक ठोस लेकिन सरल उदाहरण का इस्तेमाल करके स्पष्ट करें। यदि हम एक कैन में पानी को गर्म करते समय उसका आयतन मापते हैं तो हम देखेंगे कि तापमान बढ़ने पर आयतन बढ़ता है। यदि हम आयतन को मापते हैं, कहते हैं, तापमान में हर 10 डिग्री सेल्सियस की वृद्धि 20 डिग्री सेल्सियस से 100 डिग्री सेल्सियस तक मापते हैं, तो उस तापमान के लिए आयतन का अनुमान लगाना संभव होगा जिसे हमने 35 डिग्री सेल्सियस पर नहीं मापा है। इस प्रक्रिया को इंटरपोलेशन कहा जाता है। एक सांख्यिकीविद् यह मान सकता है कि पानी तापमान के साथ रैखिक रूप से फैलता है और इस प्रकार 35 डिग्री सेल्सियस पर आयतन का अनुमान 30 डिग्री सेल्सियस और 40 डिग्री सेल्सियस पर मात्रा के बीच आधा होना चाहिए। यह सही है कि पानी रैखिक रूप से फैलता नहीं है और इसलिए हमारे सांख्यिकीविद को टिप्पणियों को फिट करने के लिए बेहतर वक्र की खोज करनी पड़ सकती है। मशीन लर्निंग "बेहतर कर्व" को खोजने की इस प्रक्रिया को स्वचालित करता है। यदि इंटरपोलेशन प्रशिक्षण डेटा के यथोचित इनपुट पर किया जाता है, तो पूर्वानुमान बहुत अच्छे होंगे।

समस्या यह है कि वास्तविक दुनिया गणितीय संदर्भ में "अच्छा व्यवहार" नहीं करती है। हमारे सरल उदाहरण में, तब क्या होगा जब हम पानी के आयतन का तब अंदाज़ा लगाते हैं जब पानी फ़्रीजिंग पॉइंट पर हो यानि शून्य डिग्री सेल्सियस हो हमारी पिछले ओबजरबेशन पर आधृत होगी? यह गड़बड़ा जाएगा, क्योंकि पानी आम तौर पर बढ़ते तापमान के साथ फैलता है, 4 डिग्री सेल्सियस से नीचे के तापमान पर, यह घटते तापमान के साथ फैलता जाता है। जांच की सीमा से परे के अनुमानों को एक्सट्रपलेशन कहा जाता है और यह बहुत भ्रामक हो सकता है।

जैसा कि हमने देखा है, किसी खास स्थान में यह समझे बिना कि चीजें जिस तरह से काम करती हैं, केवल प्रयोगसिद्ध/अनुभवजन्य टिप्पणियों या "जाँचे हुए डेटा" के आधार पर भविष्यवाणियां करना मुश्किल है। एआई मॉडल अंतरिक्ष के सघन नमूने लेकर इसकी भरपाई करने की कोशिश करते हैं। समस्या छवियों को पहचानने या वाक्य रचना जैसे कार्यों को करने के लिए है, क्रमपरिवर्तन की संपूर्ण संभावित क़ायनात अकल्पनीय रूप से विशाल और अजीब है। और अंतरिक्ष अत्यधिक गैर रेखीय है। यह इस कारण से है कि इन मॉडलों को लाखों छवियों या टेक्स्ट डेटा के पेटाबाइट्स पर प्रशिक्षित किया जाता है, जो लगभग पूरे सार्वजनिक रूप से उपलब्ध इंटरनेट और पुस्तकों को कवर करता है, जो किसी बच्चे को कुछ भी सीखने की जरूरत से कहीं अधिक है।

बिना किसी भी सिद्धांत के यह जानना कि वे खास परिस्थितियों कैसे काम करते हैं, और जब वे काम करते हैं क्या उन कामों करने में सक्षम होंगे और वे कब और क्यों वे उन कमाओन करने में आश्चर्यजनक रूप से असफल होंगे। इसके अलावा, जिन कठिन/जटिल कामों को उन्हें सौंपा जा रहा है, उन्हें देखते हुए यह बताना बहुत मुश्किल है कि वे ठीक से काम कर रहे हैं या ऑब्जर्वर/पर्यवेक्षकों को मूर्ख बनाने के मामले में वे काफी हैं। और जब वे काम करते दिखते हैं, तो क्या यह उनके विशाल प्रशिक्षण डेटा में नकली सहसंबंधों के कारण होता है।

लेकिन, यह भी सच है कि ये एआई मॉडल कभी-कभी ऐसे काम कर सकते हैं जो कोई दूसरी तकनीक नहीं कर सकती है। इसके कुछ आउटपुट आश्चर्यजनक हैं। उदाहरण के लिए, वे अंश जो ChatGPT उत्पन्न कर सकते हैं या DALL-E द्वारा बनाई जा सकने वाली छवियां हैं। यह लोगों को लुभाने और प्रचार करने में शानदार है। उनके "इतनी अच्छी तरह से" काम करने का कारण प्रशिक्षण डेटा की आश्चर्यजनक मात्रा है – वे मानव द्वारा बनाए गए लगभग सभी पाठ और छवियों को कवर करने के मामले में बेहतर हैं। प्रशिक्षण डेटा और अरबों मापदंडों के इस पैमाने के साथ भी, AI मॉडल अनायास काम नहीं करते हैं, लेकिन वांछित परिणाम उत्पन्न करने के लिए क्लूडी एड-हॉक वर्कअराउंड की जरूरत होती है। इन मॉडलों को हाइपर-पैरामीटर कहे जाने वाले नॉब्स को मोड़कर समायोजित किया जा सकता है, जिनका कोई सैद्धांतिक औचित्य नहीं है और जिनके प्रभावों को सही ढंग से समझा नहीं जा सकता है।

हालांकि इस सब के बावजूद, मॉडल अक्सर नकली सहसंबंध विकसित करते हैं, यानी वे गलत कारणों से काम करते हैं। उदाहरण के लिए, यह बताया गया है कि कई दृष्टि मॉडल छवि बनावट, पृष्ठभूमि, तस्वीर के कोण और विशिष्ट विशेषताओं से संबंधित सहसंबंधों का शोषण करके काम करते नज़र आते हैं। ये विजन एआई मॉडल फिर अनियंत्रित स्थितियों में खराब परिणाम देते हैं। उदाहरण के लिए, यह तेंदुए प्रिंट वाले सोफा को एक तेंदुए के रूप में पहचानेगा, मॉडल तब काम नहीं करेगा जब निश्चित पैटर्न शोर वाली छोटी मात्रा वाली छवियों को इसमें जोड़ दिया जाएगा या छवियों को घुमाया दिया गया हो, मान लें कि एक पोस्ट के मामले में- दुर्घटना में उल्टी हुई कार, दूसरी ओर, सीमाओं को छोड़ते समय अंदर की ओर सफेदी वाली छवियां और वस्तुओं की पृष्ठभूमि बरकरार रहने से सही पहचान हो जाएगी।

ChatGPT प्रभावशाली गद्य, कविता और निबंधों के मामले में भी सक्षम नहीं है, यहां तक ​​कि लाखों ग्राहकों के साथ बातचीत करने के बाद किए गए सभी बदलाव, दो बड़ी संख्याओं का सरल गुणन कर सकते हैं जो एक माध्यमिक विद्यालय के छात्र या किसी 1970 के दशक के कैलकुलेटर की क्षमताओं जैसा होगा। 

एआई मॉडल में वास्तव में मानव-जैसी समझ का कोई स्तर नहीं होता है, लेकिन नकल करने और लोगों को यह विश्वास दिलाने में महान है कि वे उनके द्वारा ग्रहण किए गए डाटा/पाठ के विशाल ट्रोव समझने के मामले में बड़े बुद्धिमान हैं। यह इस कारण से है कि कम्प्यूटेशनल भाषाविद् एमिली बेंडर ने 2021 के पेपर में चैटजीपीटी और गूगल के बीएआरटी और बीईआरटी जैसे बड़े भाषा मॉडल को " स्टोकेस्टिक तोते" कहा था। उनके गूगल सह-लेखक ने - टिमनिट गेब्रू और मार्गरेट मिशेल - को पेपर से अपना नाम हटाने के लिए कहा गया था। जब उन्होंने इनकार कर दिया, तो उन्हें गूगल ने निकाल दिया था। 

यह आलोचना केवल मौजूदा बड़े भाषा मॉडल पर ही निर्देशित नहीं है, बल्कि तदर्थ सांख्यिकीय सहसंबंधों के माध्यम से कृत्रिम बुद्धिमत्ता विकसित करने की कोशिश के पूरे प्रतिमान पर भी है। हम केवल उन मसलों के बारे में सिर्फ पढ़ने से बेहतर समझ हासिल नहीं कर पाते हैं जिसे हम प्रेक्टिस/अभ्यास से सीख पाते हैं, कि यह क्या काम करता है और क्या नहीं। पढ़ने और लिखने जैसे बौद्धिक कार्यों के मामले में भी यही सच है। यहां तक कि गणित जैसे औपचारिक विषयों में भी बिना प्रेक्टिस/अभ्यास के कोई भी गणित में अच्छा नहीं हो सकता है। इन AI मॉडल्स का अपना कोई उद्देश्य नहीं है। इसलिए, वे अर्थ को समझ नहीं सकते हैं या सार्थक पाठ या चित्र नहीं बना सकते हैं। कई एआई आलोचकों ने तर्क दिया है कि वास्तविक बुद्धिमत्ता के लिए सामाजिक "स्थिति" की जरूरत होती है।

वास्तविक दुनिया में भौतिक चीजें करने के लिए जटिलता, गैर-रैखिकता और अराजकता से निपटने की जरूरत होती है। वास्तव में उन चीजों को करने के लिए भी प्रेक्टिस/अभ्यास की जरूरत होती है। यह इस कारण से कि रोबोटिक्स में प्रगति बहुत धीमी रही है: वर्तमान रोबोट केवल समान कठोर वस्तुओं जैसे असेंबली लाइन में निश्चित दोहराए जाने वाले कार्यों को ही संभाल सकते हैं। वर्षों से चल रहे चालक रहित कारों के बारे में प्रचार और इसके शोध पर भारी मात्रा में धन लगाने के बाद भी, पूरी तरह से स्वचालित ड्राइविंग अभी भी निकट भविष्य में संभव नहीं लगती है। जिस बात कि उम्मीद की जा रही थी कि या ब्लू-कॉलर नौकरियों की जगह ले लेगा लेकिन हो उल्टा रहा है कि यह व्हाइट-कॉलर नौकरियों की जगह ले लेगा और भाषण से टेक्स्ट को ट्रांसक्रिप्ट करना, निष्क्रिय भाषा अनुवाद करना या कॉल सेंटर जॉब करना जैसे काम को एआई द्वारा प्रतिस्थापित किए जाने की सबसे अधिक संभावना है।

"तंत्रिका नेटवर्क" का इस्तेमाल करके सांख्यिकीय सहसंबंधों का पता लगाने के आधार पर वर्तमान एआई विकास, जिसे ब्लैक-बॉक्स के रूप में माना जाता है, एक वैज्ञानिक समझ विकसित करने की कीमत पर एक छद्म विज्ञान-आधारित मिथक को बढ़ावा देता है कि ये नेटवर्क कैसे और क्यों काम करते हैं और इंजीनियरिंग के विचार कैसे सुरक्षित, भरोसेमंद और प्रामाणिक बनाएं। इसके बजाय वे चमत्कार पर जोर देते हैं, जैसे प्रभावशाली डेमो का निर्माण और याद किए गए डेटा के आधार पर मानकीकृत परीक्षणों में स्कोरिंग करना।

एआई के वर्तमान संस्करणों में सबसे महत्वपूर्ण व्यावसायिक विज्ञापन हैं: इसके जरिए सोशल मीडिया और वीडियो स्ट्रीमिंग प्लेटफॉर्म के लिए यूजर्स/खरीदारों को निशाना बनाना शामिल है। इसके लिए अन्य इंजीनियरिंग समाधानों से मांगी गई उच्च स्तर की विश्वसनीयता की जरूरत नहीं है, उन्हें केवल "बेहतरीन” होने की जरूरत है। और सच यह भी है कि खराब आउटपुट को मौजूदा कानूनी ढांचे के तहत दंडित नहीं किया जा सकता है, हालांकि हम जानते हैं कि सोशल मीडिया एल्गोरिदम ने नकली समाचारों के प्रसार और नफरत से भरे फिल्टर बुलबुले के निर्माण के कारण तबाही मचाई हुई है।

हालांकि इसके बारे में जो भी संभानाएं बताई जा रही हैं वे एआई विलक्षणता की धूमिल संभावनाएं हैं, यहां मानव जाति को नष्ट करने वाले सुपर-बुद्धिमान दुर्भावनापूर्ण एआई के डर को अतिरेक के रूप में देखा जा सकता है। हालांकि "एआई निर्णय प्रणाली" उनके लिए अंतिम चोट का काम करेगी जो इसके कमले की रेडार रफ हैं: यानि गरीब, जातीय और धार्मिक अल्पसंख्यक। हमारे सामने दुनिया भर में एआई निर्णय प्रणाली के कई उदाहरण मौजूद हैं, जो लोगों को वैध बीमा दावों, चिकित्सा और अस्पताल में भर्ती होने के लाभों और राज्य के कल्याण लाभों से वंचित करते नज़र आते हैं। अमेरिका में एआई सिस्टम को अल्पसंख्यकों को लंबी अवधि तक कैद में रखने के लिए फंसाया गया है। नकली सांख्यिकीय सहसंबंधों के आधार पर अल्पसंख्यक माता-पिता के अधिकारों को वापस लेने की भी खबरें आई हैं, जो अक्सर अपने बच्चों को ठीक से खिलाने और उनकी देखभाल करने के मामले में पर्याप्त धन नहीं होने का कारण बनते हैं। और, बेशक, सोशल मीडिया पर अभद्र भाषा को बढ़ावा देने का भी जरिया बनते हैं। जैसा कि विख्यात भाषाविद नोआम चॉम्स्की ने हाल के एक लेख में लिखा है, "ChatGPT बुराई की तुच्छता की तरह कुछ प्रदर्शित करता है: जिसे साहित्यिक चोरी और जड़ता और उपेक्षा पैदा करता है।"

बप्पा सिन्हा एक अनुभवी टेक्नोलॉजिस्ट हैं, जो समाज और राजनीति पर टेक्नोलॉजी के प्रभाव में रुचि रखते हैं। व्यक्त किए गए विचार निजी हैं।

मूल रूप से अंग्रेज़ी में प्रकाशित ख़बर को पढ़ने के लिए नीचे दिए गए लिंक पर क्लिक करें :

AI Models, a Pseudoscience-Based Myth?

अपने टेलीग्राम ऐप पर जनवादी नज़रिये से ताज़ा ख़बरें, समसामयिक मामलों की चर्चा और विश्लेषण, प्रतिरोध, आंदोलन और अन्य विश्लेषणात्मक वीडियो प्राप्त करें। न्यूज़क्लिक के टेलीग्राम चैनल की सदस्यता लें और हमारी वेबसाइट पर प्रकाशित हर न्यूज़ स्टोरी का रीयल-टाइम अपडेट प्राप्त करें।

टेलीग्राम पर न्यूज़क्लिक को सब्सक्राइब करें

Latest