यह कंप्यूटर की छवि है जो वस्तुनिष्ठता या अंतिम अर्थ तक पहुंचने के शॉर्टकट के रूप में है – और यह कम से कम आंशिक रूप से वही है जो अब कृत्रिम बुद्धिमत्ता (AI) के प्रति आकर्षण को प्रेरित करता है। हालांकि AI के आधारभूत तकनीकें कुछ समय से मौजूद हैं, लेकिन 2022 के अंत से, OpenAI के ChatGPT के आगमन के साथ, वह तकनीक जो बुद्धिमत्ता के करीब पहुंचती है, अब अधिक निकट प्रतीत होती है। 2023 की एक रिपोर्ट में, Microsoft कनाडा के अध्यक्ष क्रिस बैरी ने घोषणा की कि "AI का युग यहां है, जो हमारे जीवन के हर पहलू को छूने की क्षमता के साथ एक परिवर्तनकारी लहर ला रहा है," और यह "सिर्फ एक तकनीकी प्रगति नहीं है; यह एक सामाजिक बदलाव है।" यह सबसे संतुलित प्रतिक्रियाओं में से एक है। कलाकार और लेखक चिंता में हैं कि वे अप्रचलित हो जाएंगे, सरकारें AI को नियंत्रित करने के लिए संघर्ष कर रही हैं, और विद्वान इस पर जोरदार बहस कर रहे हैं।
व्यवसाय उत्सुकता से इस प्रचार ट्रेन में सवार हो रहे हैं। Microsoft, Meta और Alphabet सहित दुनिया की कुछ सबसे बड़ी कंपनियां AI के पीछे अपनी पूरी ताकत लगा रही हैं। बड़ी टेक कंपनियों द्वारा खर्च किए गए अरबों के अलावा, AI स्टार्टअप्स के लिए वित्तपोषण 2023 में लगभग $50 बिलियन तक पहुंच गया। अप्रैल में स्टैनफोर्ड विश्वविद्यालय में एक कार्यक्रम में, OpenAI के CEO सैम ऑल्टमैन ने कहा कि उन्हें इस बात की कोई परवाह नहीं है कि कंपनी AI पर प्रति वर्ष $50 बिलियन खर्च करती है या नहीं। उनके दृष्टिकोण का हिस्सा एक तरह का सुपर-असिस्टेंट है, जो "एक सुपर-योग्य सहयोगी जो मेरे पूरे जीवन के बारे में सब कुछ जानता है, हर ईमेल, हर बातचीत जो मैंने कभी की है, लेकिन वह एक विस्तार जैसा महसूस नहीं होता।"
लेकिन एक गहरी धारणा भी है कि AI एक खतरे का प्रतिनिधित्व करता है। दार्शनिक निक बॉस्ट्रॉम सबसे प्रमुख आवाज़ों में से एक हैं जो यह दावा करते हैं कि AI एक अस्तित्वगत खतरा उत्पन्न करता है। जैसा कि उन्होंने अपनी 2014 की पुस्तक "सुपरइंटेलिजेंस" में बताया, अगर "हम मशीन मस्तिष्क बनाते हैं जो सामान्य बुद्धिमत्ता में मानव मस्तिष्क को पार कर जाते हैं... तो हमारी प्रजातियों का भविष्य मशीन सुपर-इंटेलिजेंस के कार्यों पर निर्भर करेगा।" यहां AI के बारे में चेतावनी देने वाली सबसे प्रमुख कहानी एक AI प्रणाली की है जिसका एकमात्र - प्रतीत होता है कि हानिरहित - लक्ष्य पेपरक्लिप्स बनाना है। बॉस्ट्रॉम के अनुसार, यह प्रणाली जल्दी से महसूस करेगी कि इस कार्य के लिए मनुष्य एक बाधा हैं, क्योंकि वे मशीन को बंद कर सकते हैं। वे उन संसाधनों का भी उपयोग कर सकते हैं जिनकी अधिक पेपरक्लिप्स के निर्माण के लिए आवश्यकता है। यह वही है जिसे AI के लिए खतरे की चिंता रखने वाले लोग "नियंत्रण समस्या" कहते हैं: डर है कि हम AI पर नियंत्रण खो देंगे क्योंकि इसमें हमने जो भी बचाव प्रणाली बनाई है, उसे वह बुद्धिमत्ता खत्म कर देगी जो हमसे लाखों कदम आगे है।
इससे पहले कि हम वास्तव में अपने टेक शासकों को और अधिक अधिकार सौंपें, यह याद करने योग्य है कि 1990 के दशक के मध्य में विश्वव्यापी वेब का आगमन हुआ था। वह भी एक नए यूटोपिया, एक जुड़े हुए विश्व जिसमें सीमाएं, भिन्नताएं और अभाव समाप्त हो जाएंगे, के दावों के साथ आया था। आज, यह तर्क देना कठिन होगा कि इंटरनेट किसी प्रकार का समस्यारहित अच्छा रहा है। जो कल्पनाएँ सच हुईं; हम अपनी जेबों में पूरी दुनिया का ज्ञान ले जा सकते हैं। इसका सिर्फ यह अजीब प्रभाव पड़ा कि लोगों को थोड़ा पागल बना दिया, असंतोष और ध्रुवीकरण को बढ़ावा दिया, दूर-दराज़ के पुनरुत्थान में सहायता की और लोकतंत्र और सच्चाई को अस्थिर कर दिया।
इसका मतलब यह नहीं है कि आपको प्रौद्योगिकी का विरोध करना चाहिए; आखिरकार, इसका मुक्ति दिलाने वाला प्रभाव भी हो सकता है। बल्कि, जब बड़ी टेक कंपनियां उपहार लेकर आती हैं, तो आपको शायद यह देखना चाहिए कि बॉक्स में क्या है।
हम जिस तकनीक को वर्तमान में AI कहते हैं, वह मुख्य रूप से बड़े भाषा मॉडलों, या LLMs, पर केंद्रित है। मॉडल को विशाल डेटा सेट - ChatGPT ने मूल रूप से पूरे सार्वजनिक इंटरनेट को स्कैन किया - और उनके अंदर पैटर्न खोजने के लिए प्रशिक्षित किया गया। अर्थ के यूनिट्स, जैसे शब्द, शब्दों के भाग और अक्षर, टोकन बन जाते हैं और उन्हें संख्यात्मक मान सौंपा जाता है। मॉडल सीखते हैं कि टोकन अन्य टोकनों से कैसे संबंधित हैं और समय के साथ कुछ इस तरह से संदर्भ सीखते हैं: एक शब्द कहां प्रकट हो सकता है, किस क्रम में, और इसी तरह।
यह अपने आप में प्रभावशाली नहीं लगता। लेकिन जब मैंने हाल ही में ChatGPT से एक कहानी लिखने के लिए कहा जिसमें एक संवेदनशील बादल उदास था क्योंकि सूरज निकला था, तो परिणाम आश्चर्यजनक रूप से मानवीय थे। न केवल चैटबॉट ने एक बच्चों की कहानी के विभिन्न घटकों का निर्माण किया, बल्कि इसमें एक कहानी चाप भी शामिल था जिसमें अंततः "निंबस" नामक बादल ने आकाश के एक कोने में जगह बना ली और एक धूप वाले दिन से शांति स्थापित कर ली। आप कहानी को अच्छी नहीं कह सकते, लेकिन यह शायद मेरे पांच साल के भतीजे का मनोरंजन कर सकती है।
विस्कॉन्सिन के बेलोइट कॉलेज में संज्ञानात्मक विज्ञान के प्रोफेसर और अध्यक्ष रॉबिन ज़ेब्रोवस्की ने इस मानवता की इस तरह व्याख्या की: "एकमात्र वास्तव में भाषाई चीजें जो हमने कभी देखी हैं, वे हैं जिनके पास दिमाग हैं। और इसलिए जब हम कुछ ऐसा पाते हैं जो भाषा को उसी तरह कर रहा है जैसे हम भाषा करते हैं, तो हमारे सभी पूर्व विचार सामने आ जाते हैं, और हम सोचते हैं: 'ओह, यह स्पष्ट रूप से एक दिमाग वाली चीज है।'"
यही कारण है कि दशकों से, यह मानक परीक्षण कि क्या प्रौद्योगिकी बुद्धिमत्ता के करीब पहुंच रही है, ट्यूरिंग परीक्षण था, जिसका नाम इसके निर्माता एलन ट्यूरिंग, ब्रिटिश गणितज्ञ और दूसरे विश्व युद्ध के कोड-ब्रेकर के नाम पर रखा गया था। परीक्षण में एक मानव पूछताछकर्ता शामिल होता है जो टेक्स्ट-आधारित संदेशों के माध्यम से दो अदृश्य विषयों - एक कंप्यूटर और एक अन्य मानव - से प्रश्न पूछता है ताकि यह निर्धारित किया जा सके कि मशीन कौन है। विभिन्न लोग पूछताछकर्ता और उत्तरदाता की भूमिकाएं निभाते हैं, और यदि पर्याप्त संख्या में पूछताछकर्ता को धोखा दिया जाता है, तो कहा जा सकता है कि मशीन ने बुद्धिमत्ता का प्रदर्शन किया। ChatGPT पहले से ही कुछ स्थितियों में कम से कम कुछ लोगों को धोखा दे सकता है।
Video - Power of AI
ऐसे परीक्षणों से यह पता चलता है कि हमारी बुद्धिमत्ता की धारणाएं भाषा से कितनी जुड़ी हुई हैं। हम सोचते हैं कि जो प्राणी "भाषा कर सकते हैं" वे बुद्धिमान होते हैं: हम उन कुत्तों पर आश्चर्य करते हैं जो अधिक जटिल आदेशों को समझने लगते हैं, या गोरिल्लाओं पर जो सांकेतिक भाषा में संवाद कर सकते हैं, क्योंकि ऐसे कार्य हमारी दुनिया को समझने के तंत्र के करीब होते हैं।
लेकिन बिना सोचे, महसूस किए, इच्छा किए या होने के बावजूद भाषा करने में सक्षम होना शायद यही कारण है कि एआई चैटबॉट द्वारा लिखी गई रचना इतनी निर्जीव और सामान्य होती है। क्योंकि एलएलएम (बड़े भाषा मॉडल) मूल रूप से विशाल डेटा सेट के पैटर्न को देख रहे होते हैं और वे एक-दूसरे से कैसे संबंधित हैं, यह विश्लेषण कर रहे होते हैं, वे अक्सर पूरी तरह से उचित लगने वाले बयान दे सकते हैं जो गलत, बेतुके या अजीब होते हैं। भाषा को केवल डेटा संग्रह में बदलने के कारण, उदाहरण के लिए, जब मैंने ChatGPT से मेरे लिए एक जीवनी लिखने के लिए कहा, तो उसने मुझे भारत में जन्मा, कार्लटन विश्वविद्यालय में पढ़ा और पत्रकारिता में डिग्री प्राप्त की बताया - जबकि यह तीनों मामलों में गलत था (यह यूके, यॉर्क विश्वविद्यालय और अंग्रेजी था)। ChatGPT के लिए, उत्तर का आकार, आत्मविश्वास से व्यक्त किया गया, सामग्री की तुलना में अधिक महत्वपूर्ण था, सही प्रतिक्रिया की तुलना में सही पैटर्न अधिक महत्वपूर्ण था।
फिर भी, एलएलएम को अर्थ के भंडार के रूप में देखने का विचार, जिसे फिर से जोड़ा जाता है, 20वीं सदी के दर्शन से कुछ दावों के साथ मेल खाता है कि मनुष्य कैसे सोचते हैं, दुनिया का अनुभव करते हैं और कला का सृजन करते हैं। फ्रांसीसी दार्शनिक जैक्स डेरिडा, भाषाविद् फर्डिनेंड डी सॉसुर के काम पर आधारित होकर, सुझाव देते हैं कि अर्थ भिन्नात्मक था - प्रत्येक शब्द का अर्थ अन्य शब्दों पर निर्भर करता है। शब्दकोश का उदाहरण लें: शब्दों का अर्थ केवल अन्य शब्दों द्वारा ही समझाया जा सकता है, जिन्हें बदले में केवल अन्य शब्दों द्वारा ही समझाया जा सकता है। जो हमेशा गायब रहता है वह कुछ प्रकार का "उद्देश्य" अर्थ है जो इस अनंत संकेत श्रृंखला को रोक देता है। हम इसके बजाय हमेशा इस अंतर के लूप में फंसे रहते हैं। कुछ, जैसे कि रूसी साहित्यिक विद्वान व्लादिमीर प्रोप्प, ने सिद्धांत दिया कि आप लोककथाओं के आख्यानों को संरचनात्मक तत्वों में विभाजित कर सकते हैं, जैसा कि उनके प्रभावशाली कार्य, मॉर्फोलॉजी ऑफ द फोल्कटेल में है। बेशक, यह सभी आख्यानों पर लागू नहीं होता, लेकिन आप देख सकते हैं कि आप कहानी के इकाइयों को कैसे जोड़ सकते हैं - एक प्रारंभिक क्रिया, एक संकट, एक संकल्प आदि - फिर एक सचेत बादल के बारे में एक कहानी बनाने के लिए।
आज, एआई पहले से असंबंधित, यहां तक कि यादृच्छिक चीजों को ले सकता है, जैसे टोरंटो के स्काईलाइन और इंप्रेशनिस्ट्स की शैली, और उन्हें जोड़ सकता है ताकि पहले से मौजूद नहीं थी, उसे बनाया जा सके। लेकिन यहां एक प्रकार का असहज या विचलित करने वाला निहितार्थ है। क्या यह भी, किसी न किसी तरह से, यह भी हमारे सोचने का तरीका नहीं है? सिडनी में मैक्वेरी विश्वविद्यालय के सहायक प्रोफेसर राफेल मिलियर कहते हैं कि, उदाहरण के लिए, हम जानते हैं कि एक पालतू क्या है (एक जीव जिसे हम घर में रखते हैं) और हम जानते हैं कि एक मछली क्या है (एक जानवर जो बड़े जल निकायों में तैरता है); हम इन दोनों को इस तरह से जोड़ते हैं जो कुछ विशेषताओं को बरकरार रखता है और अन्य को त्याग देता है ताकि एक नया अवधारणा बन सके: एक पालतू मछली। नवीनतम एआई मॉडल इस क्षमता को इस हद तक बढ़ाते हैं कि वे स्पष्ट रूप से नए के लिए गठबंधन कर सकें - और यह ठीक है कि उन्हें "सृजनात्मक" क्यों कहा जाता है।
यहां तक कि तुलनात्मक रूप से परिष्कृत तर्क भी इस तरह से काम कर सकते हैं। थियोडिसी की समस्या सदियों से धर्मशास्त्रियों के बीच बहस का विषय रही है। यह पूछती है: यदि एक बिल्कुल अच्छा भगवान सर्वज्ञ, सर्वशक्तिमान और सर्वव्यापी है, तो बुराई कैसे मौजूद हो सकती है जब भगवान को यह पता है कि यह होगा और इसे रोक सकता है? यह धर्मशास्त्रीय मुद्दे को मूल रूप से बहुत सरल बना देता है, लेकिन थियोडिसी भी किसी तरह से एक प्रकार की तार्किक पहेली है, विचारों का एक पैटर्न जो विशेष तरीकों से जोड़ा जा सकता है। मेरा मतलब यह नहीं है कि एआई हमारे गहनतम ज्ञानमीमांसा या दार्शनिक प्रश्नों को हल कर सकता है, लेकिन यह इस बात का सुझाव देता है कि सोचने वाले प्राणियों और पैटर्न मान्यता मशीनों के बीच की रेखा उतनी कठिन और स्पष्ट नहीं है जितनी हमने उम्मीद की थी।
एआई चैटबॉट्स के पीछे सोचने वाली चीज़ होने की भावना भी अब इस सामान्य ज्ञान से प्रेरित है कि हम यह नहीं जानते कि एआई सिस्टम वास्तव में कैसे काम करते हैं। जिसे ब्लैक बॉक्स समस्या कहा जाता है, अक्सर रहस्यमय शर्तों में तैयार किया जाता है - रोबोट इतने आगे या इतने विदेशी हैं कि वे कुछ ऐसा कर रहे हैं जिसे हम समझ नहीं सकते। यह सच है, लेकिन जिस तरह से यह लगता है, उस तरह से नहीं। न्यूयॉर्क विश्वविद्यालय के प्रोफेसर लीफ वेदरबी सुझाव देते हैं कि मॉडल इतनी अधिक डेटा के संयोजनों को संसाधित कर रहे हैं कि एक व्यक्ति के लिए इसे समझना असंभव है। एआई का रहस्यवाद पर्दे के पीछे एक छिपा हुआ या अपरिहार्य मस्तिष्क नहीं है; इसका संबंध पैमाने और बर्बर शक्ति से है।
यह पाठ आर्टिफिशियल इंटेलिजेंस (AI) से जुड़े जटिलताओं और चुनौतियों पर केंद्रित है, खासकर "टेक सॉल्यूशनिज्म" के विचार पर, जिसे कुछ सिलिकॉन वैली के लोग, जैसे कि मार्क आंद्रेसेन, ने अपनाया है। "टेक सॉल्यूशनिज्म" शब्द, जिसे एवगेनी मोरोज़ोव ने गढ़ा था, इस विश्वास को संदर्भित करता है कि प्रौद्योगिकी सभी सामाजिक समस्याओं का समाधान कर सकती है, जो अक्सर मानवीय मुद्दों में निहित बारीकियों और नैतिक विचारों को नजरअंदाज करती है।
मार्क आंद्रेसेन, एक अरबपति उद्यम पूंजीपति और सिलिकॉन वैली में एक प्रमुख व्यक्ति, इस विश्वास के प्रतीक हैं कि प्रौद्योगिकी की शक्ति पर अत्यधिक भरोसा किया जा सकता है। वह तर्क देते हैं कि प्रत्येक भौतिक समस्या को अधिक प्रौद्योगिकी के माध्यम से हल किया जा सकता है, और नियमन, अकादमिक क्षेत्र और प्रगतिशील सोच को नवाचार के लिए बाधा मानते हैं। यह दृष्टिकोण एक उदारवादी दृष्टिकोण में निहित है जो तकनीकी विकास पर किसी भी प्रकार के बाहरी नियंत्रण का विरोध करता है। उनके विचार, जो "टेक्नो-ऑप्टिमिस्ट मैनिफेस्टो" में व्यक्त किए गए हैं, प्रौद्योगिकी को एक रामबाण मानने के गहरे विश्वास को प्रकट करते हैं, साथ ही वह उन चीजों के प्रति तिरस्कार दिखाते हैं जिन्हें वह प्रगति के लिए बाधा मानते हैं।
पाठ में AI की वर्तमान सीमाओं पर भी प्रकाश डाला गया है। जबकि AI विशाल मात्रा में डेटा को संसाधित करने और पैटर्न को पहचानने में उत्कृष्ट है, यह नैतिक निर्णय लेने या उसके द्वारा संसाधित डेटा के आंतरिक मूल्य को समझने में असमर्थ है। यह सीमा महत्वपूर्ण है, क्योंकि यह मानव बुद्धिमत्ता और AI के यांत्रिक बुद्धिमत्ता के बीच के अंतर को उजागर करती है, जो केवल तर्क और डेटा पर संचालित होती है।
इसके अलावा, AI द्वारा उत्पन्न सामग्री की बढ़ती संख्या सूचना और कला की गुणवत्ता के लिए एक खतरा पैदा करती है। AI के माध्यम से सामग्री बनाने में आसानी से इंटरनेट पर निम्न-गुणवत्ता की सामग्री का सैलाब आ सकता है, जिससे वास्तविक मानवीय अभिव्यक्ति को सामने आना कठिन हो जाता है। यह AI-जनित सामग्री की बाढ़ हमारी कला के साथ संबंध को भी जटिल बनाती है, जिसे केवल उसके सौंदर्य गुणों के लिए नहीं, बल्कि इसके माध्यम से व्यक्त की गई मानवीय अनुभव और भावना के लिए मूल्यवान माना जाता है।
पाठ में AI के नैतिक निहितार्थों पर भी चर्चा की गई है, विशेष रूप से इसके मौजूदा पूर्वाग्रहों को बढ़ावा देने की क्षमता के बारे में। पिछले पूर्वाग्रहों को प्रतिबिंबित करने वाले विशाल डेटा सेटों पर प्रशिक्षित AI मॉडल अनजाने में रूढ़ियों और पूर्वाग्रहों को मजबूत कर सकते हैं। इस समस्या का एक उदाहरण गूगल का जेमिनी AI है, जिसने विवादास्पद और पूर्वाग्रही छवियों का उत्पादन किया, जो यह दर्शाता है कि निष्पक्ष AI सिस्टम बनाने में चुनौतियाँ हैं।
संक्षेप में, पाठ का तर्क है कि जबकि AI कुछ क्षेत्रों में संभावनाएं रखता है, विशेष रूप से "टेक सॉल्यूशनिज्म" के तहत इसका अंधाधुंध उपयोग नैतिक और सामाजिक मुद्दों को जन्म दे सकता है। यह विश्वास कि केवल प्रौद्योगिकी ही सभी समस्याओं का समाधान कर सकती है, एक खतरनाक सरलीकरण है, जो मानव अनुभव की जटिलताओं और तकनीकी विकास में नैतिक और नैतिक विचारों की आवश्यकता को नजरअंदाज करता है।
पूर्वाग्रह की संरचनात्मक समस्या काफी समय से मौजूद है। एल्गोरिदम का पहले से ही उपयोग क्रेडिट स्कोर जैसी चीज़ों के लिए किया जा रहा था, और अब भर्ती जैसे क्षेत्रों में AI का उपयोग पूर्वाग्रहों को दोहराने के लिए हो रहा है। दोनों मामलों में, पहले से मौजूद नस्लीय पूर्वाग्रह डिजिटल सिस्टम में उभर कर सामने आए। इसका मतलब यह नहीं है कि AI हमें मार ही देगा। हाल ही में, यह खुलासा हुआ कि इज़राइल गाजा में लक्ष्यों पर हमला करने के लिए लैवेंडर नामक AI का उपयोग कर रहा था। इस सिस्टम का उद्देश्य हमास और फिलिस्तीनी इस्लामी जिहाद के सदस्यों की पहचान करना और फिर उनके स्थानों को हवाई हमलों के संभावित लक्ष्यों के रूप में प्रस्तुत करना था – जिनमें उनके घर भी शामिल थे। इज़राइली-फिलिस्तीनी +972 मैगज़ीन के अनुसार, इनमें से कई हमलों में नागरिक मारे गए।