Skip to main content
xआप एक स्वतंत्र और सवाल पूछने वाले मीडिया के हक़दार हैं। हमें आप जैसे पाठक चाहिए। स्वतंत्र और बेबाक मीडिया का समर्थन करें।

ChatGPT से क्यों मचा तकनीक की दुनिया में तूफ़ान?

ChatGPT को डिजिटल मोनोपोली/एकाधिकार वाली कंपनियाँ आर्टिफ़िशियल इंटेलिजेंस के माध्यम से चला रही हैं। इससे आप क्या उम्मीद कर सकते हैं?
chatGPT
फ़ोटो साभार: Bernard Marr

ChatGPT- जो आर्टिफ़िशियल इंटेलिजेंस चैटबॉट के माध्यम से चलती है - उसने तकनीक की दुनिया में तूफान बरपा दिया है। इसे एक प्रोटोटाइप के रूप में लॉन्च किया गया था और 30 नवंबर 2022 को सार्वजनिक जांच के लिए उपलब्ध कराया गया, जिससे बड़ी बहस छिड़ गई है। एक हफ्ते से भी कम समय में इसके दस लाख ग्राहक बन गए हैं। विषयों की एक विस्तृत श्रृंखला पर, इसकी लगभग सभी मानवीय प्रतिक्रियाओं से लोग चकित हैं। इसने कविता, शेक्सपियर जैसे गद्य, सॉफ्टवेयर कोड और चिकित्सा के नुस्खे तैयार किए हैं। छात्रों द्वारा  असाइनमेंट के लिए ChatGPT का इस्तेमाल करने से शिक्षक चिंतित हैं। समाचार ने बड़े उत्साह के साथ घोषणा की है कि ChatGPT ने कानून, चिकित्सा और प्रबंधन परीक्षा उत्तीर्ण की है (हालांकि बाद वाला शायद ही किसी बुद्धि का संकेत देता है)।

चिकित्सा अनुसंधान पत्रिकाओं के लिए ChatGPT के सार ने वैज्ञानिकों को यह विश्वास दिलाते हुए मूर्ख बनाया कि मानव ने उन्हें लिखा है। पत्रकारिता से लेकर लेखन, सामग्री-निर्माण से लेकर वकीलों, शिक्षकों, सॉफ्टवेयर प्रोग्रामर और डॉक्टरों तक, विभिन्न व्यवसायों के टनों लेखों ने आने वाली मौत की घोषणा की है। गूगल और बाइडु (Baidu) जैसी कंपनियां, ChatGPT से खतरा महसूस कर रही हैं, और अब उन्हे भी अपने एआई-संचालित चैटबॉट्स की घोषणा करने की जल्दबाजी की है।

ChatGPT के पीछे मुख्य तकनीक एक आर्टिफ़िशियल इंटेलिजेंसे (AI) मॉडल है जिसे जीपीटी-3 या जनरेटिव प्री-ट्रेन्ड ट्रांसफॉर्मर वर्जन 3 कहा जाता है। "जेनेरेटिव" क्वालीफायर का अर्थ है कि जीपीटी एआई एल्गोरिदम के एक वर्ग से संबंधित है जो नई सामग्री जैसे टेक्स्ट, इमेज, ऑडियो, वीडियो, सॉफ्टवेयर कोड आदि बनाने में सक्षम है। ट्रांसफॉर्मर ”एक नए प्रकार के एआई  मॉडल को संदर्भित करता है जिसे पहली बार गूगल ने 2017 के पेपर में वर्णित किया था। 

ट्रांसफार्मर मॉडल, अनुक्रमिक डेटा में सांख्यिकीय सहसंबंधों को ट्रैक करके शब्दों के संदर्भ के बारे में सीखता है - जैसे वाक्य में शब्द। यह एआई क्षेत्र में एक भूकंपीय बदलाव हैं, जो इसके  महत्व को दर्शाता है। 2021 के एक पेपर में, स्टैनफोर्ड के शोधकर्ताओं ने इन "फाउंडेशन मॉडल" को लिखा था और कहा कि उनके "सरासर पैमाने और दायरे ने ... पिछले कुछ वर्षों में हमारी कल्पना को बढ़ाया है और जताया है इससे कि क्या संभव है"।

वर्तमान में, सबसे लोकप्रिय एआई मॉडल "न्यूरल नेटवर्क्स" है जिसका कि इस्तेमाल किया जाता है, जो कंप्यूटर का इस्तेमाल कर कृत्रिम मस्तिष्क की छवियों को जोड़ता है। वास्तव में देखा जाए तो, कंप्यूटर हार्डवेयर और चिप घनत्व में बड़े पैमाने पर प्रगति के बावजूद भी, हम मानव मस्तिष्क का अनुकरण करने के कहीं भी करीब नहीं हैं। इसके बजाय, कृत्रिम तंत्रिका नेटवर्क को गणितीय समीकरणों की एक श्रृंखला के रूप में माना जा सकता है जिनके "भार" या स्थिरांक को रसद प्रतिगमन को प्रभावी ढंग से करने के लिए ट्वीक किया जाता है। एक तरह से, एआई मॉडल विस्तृत वक्र-फिटिंग अभ्यास करने के लिए "प्रशिक्षण डेटा" का इस्तेमाल  करते हैं। एक बार प्रशिक्षित होने के बाद, "वक्र" के समीकरण जो प्रशिक्षण डेटा में फिट होते हैं, तो नए डेटा की भविष्यवाणी या वर्गीकरण के लिए उनका इस्तेमाल किया जाता है।

ट्रांसफॉर्मर से पहले, एआई मॉडल को डेटासेट के जरिए "प्रशिक्षित" करने की जरूरत होती है, जिसे मनुष्य लेबल करते हैं। उदाहरण के लिए, एक ‘दृष्टि एआई मॉडल’ को लाखों छवियों का इस्तेमाल करके प्रशिक्षित किया जाएगा, जिनमें से प्रत्येक को मानव द्वारा मैन्युअल रूप से लेबल किया गया है, जैसे कि एक बिल्ली, व्यक्ति, पहाड़ या नदी। यह बहुत श्रम-गहन प्रक्रिया है जो उस डेटा को सीमित करती है जिस पर एआई को प्रशिक्षित किया जा सकता है। ट्रांसफॉर्मर मॉडल इस सीमा से अप्रशिक्षित या स्व-पर्यवेक्षित प्रशिक्षण से बच जाते हैं, अर्थात, उन्हें लेबल किए गए डेटासेट की जरूरत नहीं होती है। इस तरह, उन्हें इंटरनेट पर खरबों छवियों और टेक्स्ट डेटा के पेटाबाइट्स पर प्रशिक्षित किया जा सकता है। इस तरह के एआई भाषा मॉडल को डेटा की भारी मात्रा के कारण "बड़े भाषा मॉडल" भी कहा जाता है, जिस पर उन्हें प्रशिक्षित किया जाता है। मॉडल शब्दों और वाक्यों के उन हिस्सों के बीच सांख्यिकीय संबंध विकसित करते हैं जो एक साथ दिखाई देते हैं।

जीपीटी-3 एक ट्रांसफ़ॉर्मर-आधारित, जनरेटिव, बड़ा भाषा मॉडल है। एक बार प्रशिक्षित होने के बाद, शब्दों के अनुक्रम को देखते हुए, यह अगले संभावित शब्द की भविष्यवाणी कर सकता है। यह वास्तव में अगले सबसे संभावित शब्द के वितरण की भविष्यवाणी करता है। इस संभाव्यता वितरण के आधार पर अगला शब्द यादृच्छिक रूप से चुना जाता है। मॉडल को जितना अधिक डेटा पर प्रशिक्षित किया जाता है, उतना ही अधिक बेहतरीन/सुसंगत इसका आउटपुट होगा, जहां यह न केवल व्याकरणिक रूप से सही परिच्छेद पैदा करता है, बल्कि उन्हे भी वे जो अर्थपूर्ण लगते हैं। हालांकि, इसका मतलब यह नहीं है कि यह तथ्यात्मक रूप से सटीक या उपयुक्त पेसेज़/अनुच्छेद तैयार कर सकता है।

जीपीटी-3.5 जीपीटी-3 का ही चारा है, जो अपने आउटपुट को बेहतर बनाने के लिए पर्यवेक्षित शिक्षण का इस्तेमाल करता है। मनुष्य जीपीटी-3 की आउटपुट की दर और उसे सही करते हैं, फीडबैक जिसे मॉडल में वापस शामिल किया गया है। यह बताया गया है कि ओपनएआई ने दसियों हज़ार टेक्स्ट को लेबल करने का काम आउटसोर्स किया है। इसलिए, मॉडल को ऐसे आउटपुट का उत्पादन करने के लिए प्रशिक्षित किया जाता है जिसमें स्पष्ट झूठ या अनुचित सामग्री नहीं होती है - कम से कम तब तक जब तक मनुष्य उन विषयों की सामान्य श्रेणी को रेट या सही करता है जिनके लिए मॉडल को जवाब देने के लिए कहा जाता है।

ChatGPT मनुष्यों के साथ चैट करने के लिए जीपीटी-3.5 का ही चारा है। यह एआई-संचालित चैटबॉट्स की पिछली पीढ़ियों की तुलना में एक महत्वपूर्ण प्रगति है, जो इस पर पैदा हुए उत्साह की व्याख्या करता है। लेकिन ChatGPT सिर्फ एक ट्रांसफॉर्मर मॉडल है जिसे तैनात किया गया है। उदाहरण के लिए, गूगल ने 2019 से गूगल खोजों पर यूजर्स प्रश्नों को समझने के लिए बर्ट (BERT) नामक एक मॉडल का निर्माण किया था। भविष्य में, ट्रांसफ़ॉर्मर-आधारित मॉडल सामग्री निर्माण और क्यूरेशन, खोजों में और सॉफ़्टवेयर प्रोग्रामिंग जैसे क्षेत्रों में अनुसंधान सहायक के रूप में ये सहायता कर सकते हैं। यहां तक कि दवा की खोज (एआई-आधारित प्रोटीन फोल्डिंग सिमुलेशन के माध्यम से) भी कर सकते हैं। हालाँकि, हमें यह समझना चाहिए कि हम इस नई तकनीकी छलांग के शैशवावस्था में हैं और इनमें से कुछ वादों और संभावनाओं को पूरा करने के लिए और अधिक शोध की जरूरत है।

ओपनएआई (OpenAI) ने घोषणा की है कि उसके पास एआई-आर्टिफिशियल जनरल इंटेलिजेंस या एजीआई (AGI)- की पवित्र कब्र तक जाने का रास्ता है-जो मानव जैसी बुद्धि विकसित करने वाली मशीनों को संदर्भित करता है। हालांकि एआई में ट्रांसफॉर्मर मॉडल एक महत्वपूर्ण उन्नति है, हमें इस तरह के बड़े दावे से सावधान रहना चाहिए। कई लोगों ने बताया है कि ChatGPT गलत प्रतिक्रिया देती है या वह अस्पष्ट है जो सतही रूप से सार्थक लगता है। एक डॉक्टर ने बताया है कि ChatGPT एक प्रभावशाली चिकित्सा निदान का माध्यम है - एक अजीब दावा जो गलत लग रहा था। पूछे जाने पर, डॉक्टर ने एक प्रतिष्ठित पत्रिका को एक  वह संदर्भदिया, जिस पत्रिका में यह था और योगदान देने वाले लेखकों का जिक्र था। एकमात्र समस्या यह थी कि संदर्भ मौजूद नहीं था और ChatGPT ने इसे खुद ही बना लिया था। इसका मतलब यह है कि यह न केवल अविश्वसनीय है बल्कि वास्तव में यह वह नहीं "समझ" सकता है जिसे हम मनुष्य समझते हैं। यह केवल अपने सांख्यिकीय मॉडल के अनुसार सामग्री उत्पन्न करता है, जो हमें विश्वास दिलाने के मामले में बेवकुफ़ बना सकता है और यह विश्वास दिला सकता है कि यह ऐसा कर सकता है। हमें एजीआई के रास्ते के बारे में प्रचार से सावधान रहना होगा। हमारी बुद्धि और सहज ज्ञान सैकड़ों लाखों वर्षों के विकास और मानव सामाजिक विकास के एक लाख वर्षों से अधिक का परिणाम है। यह संभावना नहीं है कि परिष्कृत सीखने वाले एल्गोरिदम के साथ बहुत शक्तिशाली मशीनें, जो सभी लिखित ग्रंथों और छवियों और ध्वनियों का उपभोग करती हैं जो मानव निर्मित हैं, किसी भी तरह से मानव बुद्धि के बराबर समझ या बुद्धि विकसित करने में सक्षम होंगी। हालाँकि, मशीनें ऊपर वर्णित विधियों का इस्तेमाल करके विशिष्ट कार्यों को बहुत अच्छी तरह से करना सीख सकती हैं।

इस व्यापक समझ के साथ, हम ऐसे मॉडलों के साथ जुड़े कुछ मुद्दों को देखते हैं। शुरुवात के लिए, उनकी शक्ति डेटा की उस विशाल मात्रा से आती है जिन पर उन्हें प्रशिक्षित किया जाता है और उनके प्रशिक्षण तंत्रिका नेटवर्क का विशाल आकार है। जीपीटी-3 में 175 बिलियन पैरामीटर हैं, जो जीपीटी-2 के 1.5 बिलियन से अधिक है। इतने बड़े मॉडल को चलाने के लिए भारी मात्रा में हार्डवेयर की जरूरत होती है। ओपनएआई (OpenAI) के प्रशिक्षण बेड में 10,000 से अधिक जीपीयू और 285,000 सीपीयू कोर के होने का अनुमान है। माइक्रोसॉफ्ट, जिसने ओपनएआई में लगभग 3 बिलियन अमेरिकी डॉलर का निवेश किया था, ने दावा किया है कि यह सबसे बड़े सुपरकंप्यूटर समूहों में से एक था। जो इस सेटअप का इस्तेमाल करने की लागत के लिए भुगतान की गई सबसे बड़ी धनराशि है। अब कंपनी में 10 बिलियन अमेरिकी डॉलर और निवेश पर बातचीत हो रही है। अधिकांश शैक्षणिक संस्थानों और यहां तक कि कंपनियों के लिए भी ऐसा शोध सीमा से बाहर की बात है। केवल सबसे बड़े डिजिटल मोनोपोली/एकाधिकार कंपनियाँ, जैसे गूगल, माइक्रोसॉफ्ट अमज़ोन, फेसबुक आदि, या जिन कंपनियों को वे फंड देते हैं, वे इस तरह के मूल्य टैग और मॉडल को प्रशिक्षित करने के लिए आवश्यक विभिन्न स्रोतों से विशाल डेटा तक पहुंच हासिल कर सकते हैं। इस तरह की भविष्य की तकनीकों का विकास और आर्थिक लाभ केवल ऐसी कंपनियों को ही मिलेगा, जो उनके विशाल डिजिटल मोनोपोली को बढ़ाएंगे। इतना ही नहीं, ये कंपनियां मॉडलों को प्रशिक्षित करने के लिए इस्तेमाल किए गए डेटा या उस डेटा को फ़िल्टर करने के लिए इस्तेमाल किए जाने वाले नियमों को साझा करने की संभावना नहीं हैं। यह नैतिक प्रश्न उठाता है क्योंकि ये मॉडल डेटा के साथ किए गए विकल्पों के आधार पर पक्षपाती हो सकते हैं। हमारे पास अतीत के उदाहरण हैं जहां एआई मॉडल ने एक नस्लीय या लैंगिक पूर्वाग्रह विकसित किए थे। इसकी भी कोई संभावना नहीं है कि इन कंपनियों और उनकी प्रौद्योगिकी टीमों के पास ऐसे मुद्दों से निपटने की क्षमता या झुकाव है।

प्रशिक्षण डेटा चयन से परे की बात करें तो मॉडल भी अपारदर्शी हैं। यहां तक कि उन पर काम करने वाले लोग भी पूरी तरह से नहीं समझते हैं कि वे क्या काम कर रहे हैं, पैरामीटर क्या हैं और वास्तविक जीवन में पैरामीटर मान क्या हैं। ये विशाल सांख्यिकीय प्रतिगमन मॉडल हैं जो डेटा की विशाल मात्रा के आधार पर "आंकड़े" बनाने की अनुमति देते हैं जो कि अनपेक्षित हैं। इसके अलावा, जैसा कि स्टैनफोर्ड के शोधकर्ताओं ने कहा कि, मॉडल इस बात में मूलभूत हैं कि कई अलग-अलग अनुकूलन और अनुप्रयोगों को असंबद्ध क्षेत्रों में बनाया जा सकता है। इसलिए, पूरी तरह से विकसित होने के बाद भी, अधिकांश मामलों में मॉडल काम कर सकते हैं, लेकिन बड़ी कंपनियां अपनी गलतियाँ नहीं मानेंगी – फिर किसी भी क्षेत्र में होने वाली घातक गलतियों की तो आप बात ही छोड़ दें। अधिकांश शैक्षणिक संस्थान इतने महंगे हार्डवेयर सेटअप का खर्च नहीं उठा सकते हैं, और इन कंपनियों को अकादमिक शोध के लिए उन्हें उपलब्ध कराने की संभावना नहीं है। इसलिए, तृतीय पक्ष के लिए, इन मॉडलों को आज़माना और उनकी समीक्षा करना संभव नहीं होगा। अब तक, विज्ञान और प्रौद्योगिकी ने साथियों के सहयोग से प्रगति की है। सोशल मीडिया एल्गोरिदम ने लोकतंत्र और समाजों को उनके फ़िल्टर बुलबुले बनाकर और नकली और घृणास्पद समाचारों के प्रसार से भारी नुकसान पहुँचाया है, हम समुदायों के लिए इन नए मॉडलों की भयावहता के बारे में सोचने से भी कांपते हैं।

लेकिन तकनीकी मोनोपोली के अत्यंत अल्पकालिक दृष्टिकोण और ओपनएआई जैसे स्टार्टअप जिनके लिए वे फंडिंग कर रहे हैं, उनसे निपटने की अधिक तात्कालिक चिंता होगी।

ट्रांसफॉर्मर मॉडल एआई तकनीक में एक महत्वपूर्ण छलांग है, लेकिन वे अभी भी शोध के चरण में हैं। वे कैसे काम करते हैं, इसके बारे में बहुत कुछ समझने की जरूरत है। जिम्मेदारी के साथ तैनात किए जाने से पहले उन्हें कई तकनीकी जनरेशन के सुधार की जरूरत है। हालाँकि, हम देख रहे हैं कि ChatGPT को व्यावसायिक रूप से तुरंत लॉन्च करने की जल्दबाज़ी है। ओपनएआई ने ChatGPT एपीआई के इस्तेमाल के लिए 42 डॉलर प्रति माह "पेशेवर प्लान" शुल्क की घोषणा की है। यह डेवलपर्स के लिए व्यावसायिक पेशकश शुरू करने के लिए ChatGPT मॉडल खोलेगा। शिक्षकों के डर को कम करने के लिए, ओपनएआई ने एक ऐसी सेवा की घोषणा की है जो ChatGPT-निर्मित लेखन की पहचान करेगी। इसलिए, साहित्यिक चोरी की समस्या पैदा करने के बाद, ओपनएआई दुनिया भर के स्कूलों और विश्वविद्यालयों को इसका समाधान बेचकर भी पैसा कमा सकता है!

वेंचर कैपिटल के प्रचार और लालच को देखते हुए, हमारे पास पहले से ही ग्राहक सहायता ऑपरेटरों, लेखकों, कलाकारों, सामग्री निर्माताओं, पत्रकारों, वकीलों, शिक्षकों और सॉफ्टवेयर प्रोग्रामरों को निकट भविष्य में बेमानी बनाने के आधे-अधूरे प्रस्ताव हैं। इससे इन क्षेत्रों में काम करने वाले लोगों को नौकरी का नुकसान होगा, और समय से पहले तैनाती की पेशकश का विचार, व्यवसायों का बड़ा नुकसान पहुंचाएगा। उदाहरण के लिए, दुनिया भर में पत्रकारिता को खोखला कर दिया गया है, और डिजिटल युग में जीवित रहने के लिए समाचार संगठन भारी लागत में कटौती कर रहे हैं। एआई-जनित समाचार और राय इस प्रवृत्ति को बढ़ा सकते हैं। चूँकि ये मॉडल सतही रूप से उचित सामग्री उत्पन्न करते हैं (और कई व्यवसायों को लागत के दबाव का सामना करना पड़ता है), इसलिए प्रबंधक एआई-जनित सामग्री के मानवीय निरीक्षण को दरकिनार करने के मामले में लालची बन जाएंगे जिसके परिणामस्वरूप गंभीर गलतियाँ होंगी।

एआई-जनित कला, साहित्य और फिल्मों के आसपास नैतिक चिंताएं भी हैं। जबकि ऐसा लगता है कि यह जैसे कला के नए आयाम पैदा करता है, वास्तव में, यह मौजूदा कलात्मक शैलियों से सीखता है और सामग्री की नकल किए बिना उन्हें पुन: पेश करता है। इस तरह यह साहित्यिक चोरी के आरोप को दरकिनार कर देता है, लेकिन इस तरह की कलाकृति उच्च तकनीक की साहित्यिक चोरी है क्योंकि मॉडल रचनात्मकता के खिलाफ है। वे अपनी सीख के आधार पर भविष्यवाणी एल्गोरिदम के आधार पर सामग्री उत्पन्न करते हैं।

तो, समाज को ऐसी चिंताओं को कैसे दूर करना चाहिए?

जबकि ट्रांसफ़ॉर्मर-आधारित एआई मॉडल मशीन लर्निंग में काफी प्रगति हुई है, वे अभी भी अनुसंधान के चरण में हैं, और उनके इस्तेमाल के संबंध में नैतिकता और नियमों के बारे में कई अनुत्तरित प्रश्न खड़े हुए हैं। उनके रचनाकारों और धनदाताओं की अनुचित जल्दबाजी और लालच समाज को बहुत नुकसान पहुंचा सकते हैं। सरकारों को एक और बूम-बस्ट तकनीकी चक्र और इससे समाज को होने वाले नुकसान को रोकने के लिए जल्दी से कदम उठाने चाहिए। उनकी मूलभूत प्रकृति के कारण, सरकारों को इन तकनीकों को सार्वजनिक सामान के रूप में मानना चाहिए। सरकारों को इन आशाजनक तकनीकों में अनुसंधान और विकास को निधि देने के लिए सार्वजनिक पहल करनी चाहिए ताकि वे मानवता की भलाई के लिए सुरक्षित और नैतिक रूप से विकसित कर उन्हे तैनात किए जा सकें।

इस लेख को मूल अंग्रेज़ी में पढ़ने के लिए नीचे दिये गए लिंक पर क्लिक करें।

The Chatbot That is Dangerously Good

अपने टेलीग्राम ऐप पर जनवादी नज़रिये से ताज़ा ख़बरें, समसामयिक मामलों की चर्चा और विश्लेषण, प्रतिरोध, आंदोलन और अन्य विश्लेषणात्मक वीडियो प्राप्त करें। न्यूज़क्लिक के टेलीग्राम चैनल की सदस्यता लें और हमारी वेबसाइट पर प्रकाशित हर न्यूज़ स्टोरी का रीयल-टाइम अपडेट प्राप्त करें।

टेलीग्राम पर न्यूज़क्लिक को सब्सक्राइब करें

Latest