The Power and Pitfalls of AI: Why Human Oversight Is More Critical Than Ever by AI Sandeep Singh (Hindi Blog )

 

The Power and Pitfalls of AI: Why Human Oversight Is More Critical Than Ever by AI Sandeep Singh (Hindi Blog )


आर्थर सी क्लार्क की शॉर्ट स्टोरी "द नाइन बिलियन नेम्स ऑफ गॉड" में, तिब्बत के एक संप्रदाय के भिक्षु मानते हैं कि मानवता का एक दिव्य उद्देश्य है: भगवान के सभी विभिन्न नामों को लिखना। उनका मानना था कि जब यह सूची पूरी हो जाएगी, तो भगवान ब्रह्मांड को समाप्त कर देंगे। सदियों तक हाथ से काम करने के बाद, भिक्षु आधुनिक तकनीक का सहारा लेने का फैसला करते हैं। दो संदेहवादी इंजीनियर हिमालय पहुंचते हैं, अपने साथ शक्तिशाली कंप्यूटर लेकर। भगवान के नाम के सभी संभावित संयोजनों को लिखने में जहां 15,000 साल लग सकते थे, वही काम तीन महीनों में पूरा हो जाता है। जैसे ही इंजीनियर अपने टट्टुओं पर पहाड़ से नीचे उतरते हैं, क्लार्क की कहानी साहित्य के सबसे संक्षिप्त अंतिम लाइनों में से एक के साथ समाप्त होती है: "ऊपर, बिना किसी शोर के, तारे बुझ रहे थे।"

यह कंप्यूटर की छवि है जो वस्तुनिष्ठता या अंतिम अर्थ तक पहुंचने के शॉर्टकट के रूप में है – और यह कम से कम आंशिक रूप से वही है जो अब कृत्रिम बुद्धिमत्ता (AI) के प्रति आकर्षण को प्रेरित करता है। हालांकि AI के आधारभूत तकनीकें कुछ समय से मौजूद हैं, लेकिन 2022 के अंत से, OpenAI के ChatGPT के आगमन के साथ, वह तकनीक जो बुद्धिमत्ता के करीब पहुंचती है, अब अधिक निकट प्रतीत होती है। 2023 की एक रिपोर्ट में, Microsoft कनाडा के अध्यक्ष क्रिस बैरी ने घोषणा की कि "AI का युग यहां है, जो हमारे जीवन के हर पहलू को छूने की क्षमता के साथ एक परिवर्तनकारी लहर ला रहा है," और यह "सिर्फ एक तकनीकी प्रगति नहीं है; यह एक सामाजिक बदलाव है।" यह सबसे संतुलित प्रतिक्रियाओं में से एक है। कलाकार और लेखक चिंता में हैं कि वे अप्रचलित हो जाएंगे, सरकारें AI को नियंत्रित करने के लिए संघर्ष कर रही हैं, और विद्वान इस पर जोरदार बहस कर रहे हैं।

 

व्यवसाय उत्सुकता से इस प्रचार ट्रेन में सवार हो रहे हैं। Microsoft, Meta और Alphabet सहित दुनिया की कुछ सबसे बड़ी कंपनियां AI के पीछे अपनी पूरी ताकत लगा रही हैं। बड़ी टेक कंपनियों द्वारा खर्च किए गए अरबों के अलावा, AI स्टार्टअप्स के लिए वित्तपोषण 2023 में लगभग $50 बिलियन तक पहुंच गया। अप्रैल में स्टैनफोर्ड विश्वविद्यालय में एक कार्यक्रम में, OpenAI के CEO सैम ऑल्टमैन ने कहा कि उन्हें इस बात की कोई परवाह नहीं है कि कंपनी AI पर प्रति वर्ष $50 बिलियन खर्च करती है या नहीं। उनके दृष्टिकोण का हिस्सा एक तरह का सुपर-असिस्टेंट है, जो "एक सुपर-योग्य सहयोगी जो मेरे पूरे जीवन के बारे में सब कुछ जानता है, हर ईमेल, हर बातचीत जो मैंने कभी की है, लेकिन वह एक विस्तार जैसा महसूस नहीं होता।"

लेकिन एक गहरी धारणा भी है कि AI एक खतरे का प्रतिनिधित्व करता है। दार्शनिक निक बॉस्ट्रॉम सबसे प्रमुख आवाज़ों में से एक हैं जो यह दावा करते हैं कि AI एक अस्तित्वगत खतरा उत्पन्न करता है। जैसा कि उन्होंने अपनी 2014 की पुस्तक "सुपरइंटेलिजेंस" में बताया, अगर "हम मशीन मस्तिष्क बनाते हैं जो सामान्य बुद्धिमत्ता में मानव मस्तिष्क को पार कर जाते हैं... तो हमारी प्रजातियों का भविष्य मशीन सुपर-इंटेलिजेंस के कार्यों पर निर्भर करेगा।" यहां AI के बारे में चेतावनी देने वाली सबसे प्रमुख कहानी एक AI प्रणाली की है जिसका एकमात्र - प्रतीत होता है कि हानिरहित - लक्ष्य पेपरक्लिप्स बनाना है। बॉस्ट्रॉम के अनुसार, यह प्रणाली जल्दी से महसूस करेगी कि इस कार्य के लिए मनुष्य एक बाधा हैं, क्योंकि वे मशीन को बंद कर सकते हैं। वे उन संसाधनों का भी उपयोग कर सकते हैं जिनकी अधिक पेपरक्लिप्स के निर्माण के लिए आवश्यकता है। यह वही है जिसे AI के लिए खतरे की चिंता रखने वाले लोग "नियंत्रण समस्या" कहते हैं: डर है कि हम AI पर नियंत्रण खो देंगे क्योंकि इसमें हमने जो भी बचाव प्रणाली बनाई है, उसे वह बुद्धिमत्ता खत्म कर देगी जो हमसे लाखों कदम आगे है।

इससे पहले कि हम वास्तव में अपने टेक शासकों को और अधिक अधिकार सौंपें, यह याद करने योग्य है कि 1990 के दशक के मध्य में विश्वव्यापी वेब का आगमन हुआ था। वह भी एक नए यूटोपिया, एक जुड़े हुए विश्व जिसमें सीमाएं, भिन्नताएं और अभाव समाप्त हो जाएंगे, के दावों के साथ आया था। आज, यह तर्क देना कठिन होगा कि इंटरनेट किसी प्रकार का समस्यारहित अच्छा रहा है। जो कल्पनाएँ सच हुईं; हम अपनी जेबों में पूरी दुनिया का ज्ञान ले जा सकते हैं। इसका सिर्फ यह अजीब प्रभाव पड़ा कि लोगों को थोड़ा पागल बना दिया, असंतोष और ध्रुवीकरण को बढ़ावा दिया, दूर-दराज़ के पुनरुत्थान में सहायता की और लोकतंत्र और सच्चाई को अस्थिर कर दिया।

इसका मतलब यह नहीं है कि आपको प्रौद्योगिकी का विरोध करना चाहिए; आखिरकार, इसका मुक्ति दिलाने वाला प्रभाव भी हो सकता है। बल्कि, जब बड़ी टेक कंपनियां उपहार लेकर आती हैं, तो आपको शायद यह देखना चाहिए कि बॉक्स में क्या है।

हम जिस तकनीक को वर्तमान में AI कहते हैं, वह मुख्य रूप से बड़े भाषा मॉडलों, या LLMs, पर केंद्रित है। मॉडल को विशाल डेटा सेट - ChatGPT ने मूल रूप से पूरे सार्वजनिक इंटरनेट को स्कैन किया - और उनके अंदर पैटर्न खोजने के लिए प्रशिक्षित किया गया। अर्थ के यूनिट्स, जैसे शब्द, शब्दों के भाग और अक्षर, टोकन बन जाते हैं और उन्हें संख्यात्मक मान सौंपा जाता है। मॉडल सीखते हैं कि टोकन अन्य टोकनों से कैसे संबंधित हैं और समय के साथ कुछ इस तरह से संदर्भ सीखते हैं: एक शब्द कहां प्रकट हो सकता है, किस क्रम में, और इसी तरह।

यह अपने आप में प्रभावशाली नहीं लगता। लेकिन जब मैंने हाल ही में ChatGPT से एक कहानी लिखने के लिए कहा जिसमें एक संवेदनशील बादल उदास था क्योंकि सूरज निकला था, तो परिणाम आश्चर्यजनक रूप से मानवीय थे। न केवल चैटबॉट ने एक बच्चों की कहानी के विभिन्न घटकों का निर्माण किया, बल्कि इसमें एक कहानी चाप भी शामिल था जिसमें अंततः "निंबस" नामक बादल ने आकाश के एक कोने में जगह बना ली और एक धूप वाले दिन से शांति स्थापित कर ली। आप कहानी को अच्छी नहीं कह सकते, लेकिन यह शायद मेरे पांच साल के भतीजे का मनोरंजन कर सकती है।

विस्कॉन्सिन के बेलोइट कॉलेज में संज्ञानात्मक विज्ञान के प्रोफेसर और अध्यक्ष रॉबिन ज़ेब्रोवस्की ने इस मानवता की इस तरह व्याख्या की: "एकमात्र वास्तव में भाषाई चीजें जो हमने कभी देखी हैं, वे हैं जिनके पास दिमाग हैं। और इसलिए जब हम कुछ ऐसा पाते हैं जो भाषा को उसी तरह कर रहा है जैसे हम भाषा करते हैं, तो हमारे सभी पूर्व विचार सामने आ जाते हैं, और हम सोचते हैं: 'ओह, यह स्पष्ट रूप से एक दिमाग वाली चीज है।'"

यही कारण है कि दशकों से, यह मानक परीक्षण कि क्या प्रौद्योगिकी बुद्धिमत्ता के करीब पहुंच रही है, ट्यूरिंग परीक्षण था, जिसका नाम इसके निर्माता एलन ट्यूरिंग, ब्रिटिश गणितज्ञ और दूसरे विश्व युद्ध के कोड-ब्रेकर के नाम पर रखा गया था। परीक्षण में एक मानव पूछताछकर्ता शामिल होता है जो टेक्स्ट-आधारित संदेशों के माध्यम से दो अदृश्य विषयों - एक कंप्यूटर और एक अन्य मानव - से प्रश्न पूछता है ताकि यह निर्धारित किया जा सके कि मशीन कौन है। विभिन्न लोग पूछताछकर्ता और उत्तरदाता की भूमिकाएं निभाते हैं, और यदि पर्याप्त संख्या में पूछताछकर्ता को धोखा दिया जाता है, तो कहा जा सकता है कि मशीन ने बुद्धिमत्ता का प्रदर्शन किया। ChatGPT पहले से ही कुछ स्थितियों में कम से कम कुछ लोगों को धोखा दे सकता है।

Video - Power of AI


ऐसे परीक्षणों से यह पता चलता है कि हमारी बुद्धिमत्ता की धारणाएं भाषा से कितनी जुड़ी हुई हैं। हम सोचते हैं कि जो प्राणी "भाषा कर सकते हैं" वे बुद्धिमान होते हैं: हम उन कुत्तों पर आश्चर्य करते हैं जो अधिक जटिल आदेशों को समझने लगते हैं, या गोरिल्लाओं पर जो सांकेतिक भाषा में संवाद कर सकते हैं, क्योंकि ऐसे कार्य हमारी दुनिया को समझने के तंत्र के करीब होते हैं।

लेकिन बिना सोचे, महसूस किए, इच्छा किए या होने के बावजूद भाषा करने में सक्षम होना शायद यही कारण है कि एआई चैटबॉट द्वारा लिखी गई रचना इतनी निर्जीव और सामान्य होती है। क्योंकि एलएलएम (बड़े भाषा मॉडल) मूल रूप से विशाल डेटा सेट के पैटर्न को देख रहे होते हैं और वे एक-दूसरे से कैसे संबंधित हैं, यह विश्लेषण कर रहे होते हैं, वे अक्सर पूरी तरह से उचित लगने वाले बयान दे सकते हैं जो गलत, बेतुके या अजीब होते हैं। भाषा को केवल डेटा संग्रह में बदलने के कारण, उदाहरण के लिए, जब मैंने ChatGPT से मेरे लिए एक जीवनी लिखने के लिए कहा, तो उसने मुझे भारत में जन्मा, कार्लटन विश्वविद्यालय में पढ़ा और पत्रकारिता में डिग्री प्राप्त की बताया - जबकि यह तीनों मामलों में गलत था (यह यूके, यॉर्क विश्वविद्यालय और अंग्रेजी था)। ChatGPT के लिए, उत्तर का आकार, आत्मविश्वास से व्यक्त किया गया, सामग्री की तुलना में अधिक महत्वपूर्ण था, सही प्रतिक्रिया की तुलना में सही पैटर्न अधिक महत्वपूर्ण था।

फिर भी, एलएलएम को अर्थ के भंडार के रूप में देखने का विचार, जिसे फिर से जोड़ा जाता है, 20वीं सदी के दर्शन से कुछ दावों के साथ मेल खाता है कि मनुष्य कैसे सोचते हैं, दुनिया का अनुभव करते हैं और कला का सृजन करते हैं। फ्रांसीसी दार्शनिक जैक्स डेरिडा, भाषाविद् फर्डिनेंड डी सॉसुर के काम पर आधारित होकर, सुझाव देते हैं कि अर्थ भिन्नात्मक था - प्रत्येक शब्द का अर्थ अन्य शब्दों पर निर्भर करता है। शब्दकोश का उदाहरण लें: शब्दों का अर्थ केवल अन्य शब्दों द्वारा ही समझाया जा सकता है, जिन्हें बदले में केवल अन्य शब्दों द्वारा ही समझाया जा सकता है। जो हमेशा गायब रहता है वह कुछ प्रकार का "उद्देश्य" अर्थ है जो इस अनंत संकेत श्रृंखला को रोक देता है। हम इसके बजाय हमेशा इस अंतर के लूप में फंसे रहते हैं। कुछ, जैसे कि रूसी साहित्यिक विद्वान व्लादिमीर प्रोप्प, ने सिद्धांत दिया कि आप लोककथाओं के आख्यानों को संरचनात्मक तत्वों में विभाजित कर सकते हैं, जैसा कि उनके प्रभावशाली कार्य, मॉर्फोलॉजी ऑफ द फोल्कटेल में है। बेशक, यह सभी आख्यानों पर लागू नहीं होता, लेकिन आप देख सकते हैं कि आप कहानी के इकाइयों को कैसे जोड़ सकते हैं - एक प्रारंभिक क्रिया, एक संकट, एक संकल्प आदि - फिर एक सचेत बादल के बारे में एक कहानी बनाने के लिए।

आज, एआई पहले से असंबंधित, यहां तक कि यादृच्छिक चीजों को ले सकता है, जैसे टोरंटो के स्काईलाइन और इंप्रेशनिस्ट्स की शैली, और उन्हें जोड़ सकता है ताकि पहले से मौजूद नहीं थी, उसे बनाया जा सके। लेकिन यहां एक प्रकार का असहज या विचलित करने वाला निहितार्थ है। क्या यह भी, किसी न किसी तरह से, यह भी हमारे सोचने का तरीका नहीं है? सिडनी में मैक्वेरी विश्वविद्यालय के सहायक प्रोफेसर राफेल मिलियर कहते हैं कि, उदाहरण के लिए, हम जानते हैं कि एक पालतू क्या है (एक जीव जिसे हम घर में रखते हैं) और हम जानते हैं कि एक मछली क्या है (एक जानवर जो बड़े जल निकायों में तैरता है); हम इन दोनों को इस तरह से जोड़ते हैं जो कुछ विशेषताओं को बरकरार रखता है और अन्य को त्याग देता है ताकि एक नया अवधारणा बन सके: एक पालतू मछली। नवीनतम एआई मॉडल इस क्षमता को इस हद तक बढ़ाते हैं कि वे स्पष्ट रूप से नए के लिए गठबंधन कर सकें - और यह ठीक है कि उन्हें "सृजनात्मक" क्यों कहा जाता है।

यहां तक कि तुलनात्मक रूप से परिष्कृत तर्क भी इस तरह से काम कर सकते हैं। थियोडिसी की समस्या सदियों से धर्मशास्त्रियों के बीच बहस का विषय रही है। यह पूछती है: यदि एक बिल्कुल अच्छा भगवान सर्वज्ञ, सर्वशक्तिमान और सर्वव्यापी है, तो बुराई कैसे मौजूद हो सकती है जब भगवान को यह पता है कि यह होगा और इसे रोक सकता है? यह धर्मशास्त्रीय मुद्दे को मूल रूप से बहुत सरल बना देता है, लेकिन थियोडिसी भी किसी तरह से एक प्रकार की तार्किक पहेली है, विचारों का एक पैटर्न जो विशेष तरीकों से जोड़ा जा सकता है। मेरा मतलब यह नहीं है कि एआई हमारे गहनतम ज्ञानमीमांसा या दार्शनिक प्रश्नों को हल कर सकता है, लेकिन यह इस बात का सुझाव देता है कि सोचने वाले प्राणियों और पैटर्न मान्यता मशीनों के बीच की रेखा उतनी कठिन और स्पष्ट नहीं है जितनी हमने उम्मीद की थी।

एआई चैटबॉट्स के पीछे सोचने वाली चीज़ होने की भावना भी अब इस सामान्य ज्ञान से प्रेरित है कि हम यह नहीं जानते कि एआई सिस्टम वास्तव में कैसे काम करते हैं। जिसे ब्लैक बॉक्स समस्या कहा जाता है, अक्सर रहस्यमय शर्तों में तैयार किया जाता है - रोबोट इतने आगे या इतने विदेशी हैं कि वे कुछ ऐसा कर रहे हैं जिसे हम समझ नहीं सकते। यह सच है, लेकिन जिस तरह से यह लगता है, उस तरह से नहीं। न्यूयॉर्क विश्वविद्यालय के प्रोफेसर लीफ वेदरबी सुझाव देते हैं कि मॉडल इतनी अधिक डेटा के संयोजनों को संसाधित कर रहे हैं कि एक व्यक्ति के लिए इसे समझना असंभव है। एआई का रहस्यवाद पर्दे के पीछे एक छिपा हुआ या अपरिहार्य मस्तिष्क नहीं है; इसका संबंध पैमाने और बर्बर शक्ति से है।



यह पाठ आर्टिफिशियल इंटेलिजेंस (AI) से जुड़े जटिलताओं और चुनौतियों पर केंद्रित है, खासकर "टेक सॉल्यूशनिज्म" के विचार पर, जिसे कुछ सिलिकॉन वैली के लोग, जैसे कि मार्क आंद्रेसेन, ने अपनाया है। "टेक सॉल्यूशनिज्म" शब्द, जिसे एवगेनी मोरोज़ोव ने गढ़ा था, इस विश्वास को संदर्भित करता है कि प्रौद्योगिकी सभी सामाजिक समस्याओं का समाधान कर सकती है, जो अक्सर मानवीय मुद्दों में निहित बारीकियों और नैतिक विचारों को नजरअंदाज करती है।

मार्क आंद्रेसेन, एक अरबपति उद्यम पूंजीपति और सिलिकॉन वैली में एक प्रमुख व्यक्ति, इस विश्वास के प्रतीक हैं कि प्रौद्योगिकी की शक्ति पर अत्यधिक भरोसा किया जा सकता है। वह तर्क देते हैं कि प्रत्येक भौतिक समस्या को अधिक प्रौद्योगिकी के माध्यम से हल किया जा सकता है, और नियमन, अकादमिक क्षेत्र और प्रगतिशील सोच को नवाचार के लिए बाधा मानते हैं। यह दृष्टिकोण एक उदारवादी दृष्टिकोण में निहित है जो तकनीकी विकास पर किसी भी प्रकार के बाहरी नियंत्रण का विरोध करता है। उनके विचार, जो "टेक्नो-ऑप्टिमिस्ट मैनिफेस्टो" में व्यक्त किए गए हैं, प्रौद्योगिकी को एक रामबाण मानने के गहरे विश्वास को प्रकट करते हैं, साथ ही वह उन चीजों के प्रति तिरस्कार दिखाते हैं जिन्हें वह प्रगति के लिए बाधा मानते हैं।

पाठ में AI की वर्तमान सीमाओं पर भी प्रकाश डाला गया है। जबकि AI विशाल मात्रा में डेटा को संसाधित करने और पैटर्न को पहचानने में उत्कृष्ट है, यह नैतिक निर्णय लेने या उसके द्वारा संसाधित डेटा के आंतरिक मूल्य को समझने में असमर्थ है। यह सीमा महत्वपूर्ण है, क्योंकि यह मानव बुद्धिमत्ता और AI के यांत्रिक बुद्धिमत्ता के बीच के अंतर को उजागर करती है, जो केवल तर्क और डेटा पर संचालित होती है।

इसके अलावा, AI द्वारा उत्पन्न सामग्री की बढ़ती संख्या सूचना और कला की गुणवत्ता के लिए एक खतरा पैदा करती है। AI के माध्यम से सामग्री बनाने में आसानी से इंटरनेट पर निम्न-गुणवत्ता की सामग्री का सैलाब आ सकता है, जिससे वास्तविक मानवीय अभिव्यक्ति को सामने आना कठिन हो जाता है। यह AI-जनित सामग्री की बाढ़ हमारी कला के साथ संबंध को भी जटिल बनाती है, जिसे केवल उसके सौंदर्य गुणों के लिए नहीं, बल्कि इसके माध्यम से व्यक्त की गई मानवीय अनुभव और भावना के लिए मूल्यवान माना जाता है।

पाठ में AI के नैतिक निहितार्थों पर भी चर्चा की गई है, विशेष रूप से इसके मौजूदा पूर्वाग्रहों को बढ़ावा देने की क्षमता के बारे में। पिछले पूर्वाग्रहों को प्रतिबिंबित करने वाले विशाल डेटा सेटों पर प्रशिक्षित AI मॉडल अनजाने में रूढ़ियों और पूर्वाग्रहों को मजबूत कर सकते हैं। इस समस्या का एक उदाहरण गूगल का जेमिनी AI है, जिसने विवादास्पद और पूर्वाग्रही छवियों का उत्पादन किया, जो यह दर्शाता है कि निष्पक्ष AI सिस्टम बनाने में चुनौतियाँ हैं।

संक्षेप में, पाठ का तर्क है कि जबकि AI कुछ क्षेत्रों में संभावनाएं रखता है, विशेष रूप से "टेक सॉल्यूशनिज्म" के तहत इसका अंधाधुंध उपयोग नैतिक और सामाजिक मुद्दों को जन्म दे सकता है। यह विश्वास कि केवल प्रौद्योगिकी ही सभी समस्याओं का समाधान कर सकती है, एक खतरनाक सरलीकरण है, जो मानव अनुभव की जटिलताओं और तकनीकी विकास में नैतिक और नैतिक विचारों की आवश्यकता को नजरअंदाज करता है।

पूर्वाग्रह की संरचनात्मक समस्या काफी समय से मौजूद है। एल्गोरिदम का पहले से ही उपयोग क्रेडिट स्कोर जैसी चीज़ों के लिए किया जा रहा था, और अब भर्ती जैसे क्षेत्रों में AI का उपयोग पूर्वाग्रहों को दोहराने के लिए हो रहा है। दोनों मामलों में, पहले से मौजूद नस्लीय पूर्वाग्रह डिजिटल सिस्टम में उभर कर सामने आए। इसका मतलब यह नहीं है कि AI हमें मार ही देगा। हाल ही में, यह खुलासा हुआ कि इज़राइल गाजा में लक्ष्यों पर हमला करने के लिए लैवेंडर नामक AI का उपयोग कर रहा था। इस सिस्टम का उद्देश्य हमास और फिलिस्तीनी इस्लामी जिहाद के सदस्यों की पहचान करना और फिर उनके स्थानों को हवाई हमलों के संभावित लक्ष्यों के रूप में प्रस्तुत करना था – जिनमें उनके घर भी शामिल थे। इज़राइली-फिलिस्तीनी +972 मैगज़ीन के अनुसार, इनमें से कई हमलों में नागरिक मारे गए।

इसलिए, AI का खतरा वास्तव में उस मशीन या सिस्टम का नहीं है जो अनजाने में मानवता को मार डाले। यह वह धारणाएं हैं कि AI वास्तव में बुद्धिमान है, जो हमें महत्वपूर्ण सामाजिक और राजनीतिक कार्यों को कंप्यूटर सॉफ्टवेयर को सौंपने के लिए प्रेरित करता है – यह केवल तकनीक ही नहीं है जो दिन-प्रतिदिन के जीवन में एकीकृत हो जाती है, बल्कि तकनीक का विशिष्ट तर्क और इसकी उदारवादी-पूंजीवादी विचारधारा भी है।

प्रश्न तब यह होता है: AI का उपयोग किन उद्देश्यों के लिए किया जा रहा है, किस संदर्भ में, और किन सीमाओं के साथ। "क्या AI का उपयोग कारों को स्वयं चलाने के लिए किया जा सकता है?" यह एक दिलचस्प सवाल है। लेकिन क्या हमें सड़कों पर स्वचालित कारों को अनुमति देनी चाहिए, किन शर्तों के तहत, किन सिस्टमों में एम्बेडेड, या वास्तव में, क्या हमें कार को पूरी तरह से कम प्राथमिकता देनी चाहिए – ये अधिक महत्वपूर्ण प्रश्न हैं, और ये ऐसे हैं जिनका उत्तर AI सिस्टम हमारे लिए नहीं दे सकता।

हर कोई, चाहे वह कोई तकनीकी उत्साही हो जो मानव प्रगति के लिए अपनी उम्मीदें एक अतिमानव बुद्धिमत्ता पर रखता हो, या एक सेना जो लक्ष्यों को सूचीबद्ध करने के लिए AI सॉफ्टवेयर पर निर्भर करती हो, एक वस्तुनिष्ठ प्राधिकरण की आकांक्षा का प्रदर्शन करती है जिसे सहारा लिया जा सकता है। जब हम AI की ओर दुनिया को समझने के लिए देखते हैं – जब हम उससे वास्तविकता या इतिहास के बारे में सवाल पूछते हैं या उससे उम्मीद करते हैं कि वह दुनिया को वैसा ही प्रस्तुत करेगा जैसा वह है – क्या हम पहले से ही AI के तर्क में बंधे नहीं हैं? हम डिजिटल कचरे से घिरे हुए हैं, वर्तमान की कर्कशता से, और इसके जवाब में, हम एक अतिमानव सहायक की तलाश करते हैं जो झूठ और भ्रामक के झंझट से सच को निकाल सके – अक्सर खुद को गुमराह करते हुए जब AI इसे गलत कर देता है।

हम ऐसे समय में जी रहे हैं जहां सत्य अस्थिर है, बदल रहा है, लगातार विवाद में है। साजिश सिद्धांतों की स्वीकृति, एंटी-वेक्स मूवमेंट का उदय, या नस्लवादी छद्म विज्ञान का मुख्यधारा में आना, इसका उदाहरण हैं। हर युग में एक महान क्षति होती है – आधुनिकता के लिए, यह आत्म की संगति थी; उत्तर-आधुनिकता के लिए, मास्टर नैरेटिव्स की स्थिरता – और अब, 21वीं सदी में, एक साझा वास्तविकता के दृष्टिकोण पर बढ़ता दबाव है।

जब वे सिस्टम जो चीजों को आकार देते हैं, धुंधले या संदिग्ध हो जाते हैं, जैसा कि धर्म, उदारवाद, लोकतंत्र और अधिक के साथ हुआ है, तो कोई एक नए भगवान की तलाश में होता है। इसमें कुछ खास मार्मिक है कि चैटजीपीटी से यह पूछने की इच्छा होती है कि हमें उस दुनिया के बारे में कुछ बताएं जिसमें कभी-कभी ऐसा लगता है कि कुछ भी सच नहीं है। एक ऐसे समय में जब हम मानवता के समुद्र में डूबे हुए हैं, AI एक श्रेष्ठ चीज़ का प्रतीक बन जाता है: एक असंभव तार्किक मस्तिष्क जो हमें सच बता सकता है।

क्लार्क की छोटी कहानी के किनारों पर मंडराते हुए एक समान भावना थी कि प्रौद्योगिकी वह चीज़ है जो हमें हमारे मात्र नश्वर सीमाओं से परे जाने देती है। लेकिन परिणाम सब कुछ के अंत का होता है। गहरी आध्यात्मिक, मैन्युअल, कष्टदायक कार्य को अधिक कुशल बनाने के लिए प्रौद्योगिकी का सहारा लेने पर, क्लार्क के पात्र उस विश्वास के कार्य को मिटा देते हैं जो उनके उत्थान की यात्रा को बनाए रखता है। लेकिन यहां वास्तविक दुनिया में, शायद भगवान से मिलने का उद्देश्य नहीं है। यह तो यातना और प्रयास की उत्तेजना है जो हमें ऐसा करने की कोशिश में झकझोरती है। आर्टिफिशियल इंटेलिजेंस अपने दायरे, शक्ति और क्षमता में बढ़ता जा सकता है, लेकिन इसमें हमारी आस्था के आधारभूत धारणाएं – कि, कहने का तात्पर्य है, यह हमें भगवान के करीब ला सकता है – हमें केवल उससे और दूर ले जा सकती हैं।

10 या 20 साल बाद, AI निस्संदेह अब की तुलना में अधिक उन्नत होगा। फिर भी, अगर मैं इतने समय तक जीवित रहा, तो मैं अपने AI सहायक के कान में फुसफुसाते हुए अपने घर से बाहर निकलूंगा। फिर भी फुटपाथ में दरारें होंगी। जिस शहर में मैं रहता हूं, वह अभी भी निर्माणाधीन होगा। यातायात शायद अभी भी गड़बड़ होगा, भले ही कारें खुद चल रही हों। शायद मैं चारों ओर देखूंगा, या आकाश की ओर देखूंगा, और मेरा AI सहायक मुझे जो मैं देखता हूं उसके बारे में कुछ बताएगा। लेकिन चीजें केवल थोड़ी अलग तरह से चलती रहेंगी जैसे वे अब चल रही हैं। और तारे? जो अब इतनी अधिक बदलाव की तरह लग सकता है, आकाश फिर भी उनसे भरा होगा।

EDU Tech India

I am working as Asst. Professor at Dr. D Y Patil Pune. I have 15 years of experience in teaching.

Post a Comment

Previous Post Next Post