• July 23, 2023

कृत्रिम बुद्धिमत्ता ->नौकरियां छीन लेगा,हमले करना आसान,छात्र लिखना नहीं सीखेंगे,सबसे परिवर्तनकारी नवाचार है-बिल गेट्

कृत्रिम बुद्धिमत्ता ->नौकरियां छीन लेगा,हमले करना आसान,छात्र लिखना नहीं सीखेंगे,सबसे परिवर्तनकारी नवाचार है-बिल गेट्

कृत्रिम बुद्धिमत्ता द्वारा उत्पन्न जोखिम भारी लग सकते हैं। उन लोगों का क्या होता है जो एक बुद्धिमान मशीन के कारण अपनी नौकरी खो देते हैं? क्या AI चुनाव के नतीजों को प्रभावित कर सकता है? क्या होगा यदि भविष्य का AI यह निर्णय ले कि उसे अब मनुष्यों की आवश्यकता नहीं है और वह हमसे छुटकारा पाना चाहता है?

ये सभी उचित प्रश्न हैं, और जो चिंताएँ वे उठा रहे हैं उन्हें गंभीरता से लेने की आवश्यकता है। लेकिन यह सोचने का एक अच्छा कारण है कि हम उनसे निपट सकते हैं: यह पहली बार नहीं है कि किसी प्रमुख नवाचार ने नए खतरे पेश किए हैं जिन्हें नियंत्रित करना होगा। हमने इसे पहले भी किया है।

चाहे वह कारों की शुरूआत हो या पर्सनल कंप्यूटर और इंटरनेट का उदय, लोगों ने अन्य परिवर्तनकारी क्षणों को पार कर लिया है और, बहुत सारी उथल-पुथल के बावजूद, अंत में बेहतर स्थिति में आए हैं। पहली ऑटोमोबाइल के सड़क पर आने के तुरंत बाद, पहली कार दुर्घटना हुई। लेकिन हमने कारों पर प्रतिबंध नहीं लगाया – हमने गति सीमा, सुरक्षा मानकों, लाइसेंसिंग आवश्यकताओं, नशे में गाड़ी चलाने के कानून और सड़क के अन्य नियमों को अपनाया।

अब हम एक और गहन परिवर्तन, एआई के युग, के शुरुआती चरण में हैं। यह गति सीमा और सीट बेल्ट से पहले के अनिश्चित समय के समान है। एआई इतनी तेज़ी से बदल रहा है कि यह स्पष्ट नहीं है कि आगे क्या होगा। वर्तमान तकनीक जिस तरह से काम करती है, जिस तरह से लोग गलत इरादे के लिए इसका इस्तेमाल करेंगे, और जिस तरह से एआई हमें एक समाज और व्यक्ति के रूप में बदल देगा, उससे हम बड़े सवालों का सामना कर रहे हैं।

ऐसे क्षण में, बेचैनी महसूस होना स्वाभाविक है। लेकिन इतिहास बताता है कि नई प्रौद्योगिकियों द्वारा उत्पन्न चुनौतियों का समाधान संभव है।

मैंने पहले भी लिखा है कि एआई किस प्रकार हमारे जीवन में क्रांति लाने जा रहा है। यह उन समस्याओं को हल करने में मदद करेगा – स्वास्थ्य, शिक्षा, जलवायु परिवर्तन और अन्य – जो पहले कठिन लगती थीं। गेट्स फाउंडेशन इसे प्राथमिकता दे रहा है, और हमारे सीईओ, मार्क सुज़मैन ने हाल ही में साझा किया कि वह असमानता को कम करने में अपनी भूमिका के बारे में कैसे सोच रहे हैं।

एआई के लाभों के बारे में मुझे भविष्य में और भी बहुत कुछ कहना होगा, लेकिन इस पोस्ट में, मैं उन चिंताओं को स्वीकार करना चाहता हूं जो मैं अक्सर सुनता और पढ़ता हूं, जिनमें से कई को मैं साझा करता हूं, और समझाता हूं कि मैं उनके बारे में कैसे सोचता हूं।

एआई के जोखिमों के बारे में अब तक जो कुछ भी लिखा गया है और बहुत कुछ लिखा गया है, उससे एक बात स्पष्ट है कि किसी के पास सभी उत्तर नहीं हैं। एक और बात जो मेरे लिए स्पष्ट है वह यह है कि एआई का भविष्य उतना गंभीर नहीं है जितना कुछ लोग सोचते हैं या उतना उज्ज्वल नहीं है जितना अन्य सोचते हैं। जोखिम वास्तविक हैं, लेकिन मैं आशावादी हूं कि उन्हें प्रबंधित किया जा सकता है। जैसे-जैसे मैं प्रत्येक चिंता से गुज़रता हूँ, मैं कुछ विषयों पर लौटता हूँ:

एआई के कारण होने वाली कई समस्याओं की ऐतिहासिक मिसाल है। उदाहरण के लिए, इसका शिक्षा पर बड़ा प्रभाव पड़ेगा, लेकिन कुछ दशक पहले हैंडहेल्ड कैलकुलेटर और, हाल ही में, कक्षा में कंप्यूटर की अनुमति दी गई थी। हम अतीत में जो काम हुआ उससे सीख सकते हैं।

AI के कारण होने वाली कई समस्याओं को AI की मदद से भी प्रबंधित किया जा सकता है।

हमें पुराने कानूनों को अनुकूलित करने और नए कानूनों को अपनाने की आवश्यकता होगी – जैसे धोखाधड़ी के खिलाफ मौजूदा कानूनों को ऑनलाइन दुनिया के अनुरूप बनाया जाना था।

इस पोस्ट में, मैं उन जोखिमों पर ध्यान केंद्रित करने जा रहा हूं जो पहले से मौजूद हैं, या जल्द ही होंगे। मैं इस बात से निपट नहीं रहा हूं कि जब हम एक ऐसा एआई विकसित करते हैं जो किसी भी विषय या कार्य को सीख सकता है, तो आज के उद्देश्य-निर्मित एआई के विपरीत क्या होता है। चाहे हम उस बिंदु पर एक दशक या एक सदी में पहुँचें, समाज को गहन प्रश्नों पर विचार करने की आवश्यकता होगी। यदि कोई सुपर एआई अपने लक्ष्य स्वयं स्थापित कर ले तो क्या होगा? यदि वे मानवता के साथ संघर्ष करते हैं तो क्या होगा? क्या हमें एक सुपर एआई भी बनाना चाहिए?

लेकिन इन दीर्घकालिक जोखिमों के बारे में सोचना तत्काल जोखिमों की कीमत पर नहीं आना चाहिए। मैं अब उनकी ओर रुख करूंगा।

एआई द्वारा उत्पन्न डीपफेक और गलत सूचना चुनाव और लोकतंत्र को कमजोर कर सकती है।
यह विचार नया नहीं है कि प्रौद्योगिकी का उपयोग झूठ और असत्य फैलाने के लिए किया जा सकता है। लोग सदियों से किताबों और पर्चों के साथ ऐसा करते आ रहे हैं। वर्ड प्रोसेसर, लेजर प्रिंटर, ईमेल और सोशल नेटवर्क के आगमन से यह बहुत आसान हो गया।

एआई नकली पाठ की इस समस्या को लेता है और इसका विस्तार करता है, जिससे वस्तुतः कोई भी नकली ऑडियो और वीडियो बना सकता है, जिसे डीपफेक के रूप में जाना जाता है। यदि आपको एक ध्वनि संदेश मिलता है जो आपके बच्चे की तरह कह रहा है कि “मेरा अपहरण कर लिया गया है, तो कृपया अगले 10 मिनट के भीतर इस बैंक खाते में 1,000 डॉलर भेजें, और पुलिस को फोन न करें,” यह एक भयानक भावनात्मक प्रभाव डालने वाला है जो समान बात कहने वाले ईमेल के प्रभाव से कहीं अधिक होगा।

बड़े पैमाने पर, चुनाव को झुकाने की कोशिश के लिए एआई-जनित डीपफेक का इस्तेमाल किया जा सकता है। बेशक, किसी चुनाव के वैध विजेता के बारे में संदेह पैदा करने के लिए परिष्कृत तकनीक की आवश्यकता नहीं है, लेकिन एआई इसे आसान बना देगा।

पहले से ही नकली वीडियो मौजूद हैं जिनमें जाने-माने राजनेताओं के मनगढ़ंत फुटेज दिखाए गए हैं। कल्पना कीजिए कि एक प्रमुख चुनाव की सुबह, एक वीडियो वायरल हो जाता है जिसमें एक उम्मीदवार बैंक लूट रहा है। यह नकली है, लेकिन इसे साबित करने में समाचार आउटलेट्स और अभियान को कई घंटे लग जाते हैं। कितने लोग इसे देखेंगे और आखिरी मिनट में अपना वोट बदल देंगे? यह तराजू को झुका सकता है, खासकर करीबी चुनाव में।

जब OpenAI के सह-संस्थापक सैम ऑल्टमैन ने हाल ही में अमेरिकी सीनेट समिति के सामने गवाही दी, तो दोनों दलों के सीनेटरों ने चुनाव और लोकतंत्र पर AI के प्रभाव पर ध्यान केंद्रित किया। मुझे उम्मीद है कि यह विषय हर किसी के एजेंडे में आगे बढ़ता रहेगा।

हमने निश्चित रूप से गलत सूचना और डीपफेक की समस्या का समाधान नहीं किया है। लेकिन दो चीज़ें मुझे अत्यधिक आशावादी बनाती हैं। एक तो यह कि लोग हर चीज़ को अंकित मूल्य पर न लेना सीखने में सक्षम हैं। वर्षों से, ईमेल उपयोगकर्ता ऐसे घोटालों में फंसते रहे हैं जहां खुद को नाइजीरियाई राजकुमार बताने वाला कोई व्यक्ति आपका क्रेडिट कार्ड नंबर साझा करने के बदले में बड़ी रकम देने का वादा करता था। लेकिन अंततः, अधिकांश लोगों ने उन ईमेल को दो बार देखना सीख लिया। जैसे-जैसे घोटाले अधिक परिष्कृत होते गए, वैसे-वैसे उनके कई लक्ष्य भी परिष्कृत होते गए। हमें डीपफेक के लिए समान ताकत बनाने की आवश्यकता होगी।

दूसरी बात जो मुझे आशान्वित करती है वह यह है कि एआई डीपफेक की पहचान करने के साथ-साथ उन्हें बनाने में भी मदद कर सकता है। उदाहरण के लिए, इंटेल ने एक डीपफेक डिटेक्टर विकसित किया है, और सरकारी एजेंसी DARPA यह पहचानने के लिए तकनीक पर काम कर रही है कि वीडियो या ऑडियो में हेरफेर किया गया है या नहीं।

यह एक चक्रीय प्रक्रिया होगी: कोई व्यक्ति जालसाजी का पता लगाने का तरीका ढूंढता है, कोई और इसका मुकाबला करने का तरीका ढूंढता है, कोई और प्रति-प्रतिरोधी उपाय विकसित करता है, इत्यादि। यह पूर्ण सफलता नहीं होगी, लेकिन हम असहाय भी नहीं होंगे।

AI लोगों और सरकारों पर हमले करना आसान बनाता है।
आज, जब हैकर्स सॉफ़्टवेयर में शोषण योग्य खामियां ढूंढना चाहते हैं, तो वे इसे बलपूर्वक लिखते हैं – कोड लिखते हैं जो संभावित कमजोरियों को तब तक दूर कर देता है जब तक कि उन्हें कोई रास्ता नहीं मिल जाता। इसमें बहुत सारी अंधी गलियों में जाना शामिल है, जिसका अर्थ है कि इसमें समय और धैर्य लगता है।

सुरक्षा विशेषज्ञ जो हैकर्स का मुकाबला करना चाहते हैं उन्हें भी यही काम करना होगा। आपके द्वारा अपने फ़ोन या लैपटॉप पर इंस्टॉल किया गया प्रत्येक सॉफ़्टवेयर पैच अच्छे और बुरे इरादों वाले लोगों द्वारा समान रूप से कई घंटों की खोज का प्रतिनिधित्व करता है।

एआई मॉडल हैकर्स को अधिक प्रभावी कोड लिखने में मदद करके इस प्रक्रिया को तेज करेंगे। वे फ़िशिंग हमलों को विकसित करने के लिए व्यक्तियों के बारे में सार्वजनिक जानकारी का उपयोग करने में भी सक्षम होंगे, जैसे कि वे कहाँ काम करते हैं और उनके दोस्त कौन हैं, जो आज हम जो देखते हैं उससे कहीं अधिक उन्नत हैं।

अच्छी खबर यह है कि एआई का उपयोग अच्छे उद्देश्यों के साथ-साथ बुरे उद्देश्यों के लिए भी किया जा सकता है। सरकारी और निजी क्षेत्र की सुरक्षा टीमों के पास सुरक्षा खामियों को खोजने और उन्हें ठीक करने के लिए नवीनतम उपकरण होने चाहिए, इससे पहले कि अपराधी उनका फायदा उठा सकें। मुझे उम्मीद है कि सॉफ्टवेयर सुरक्षा उद्योग उस काम का विस्तार करेगा जो वे पहले से ही इस मोर्चे पर कर रहे हैं – यह उनके लिए सबसे बड़ी चिंता का विषय होना चाहिए।

यही कारण है कि हमें लोगों को एआई में नए विकास को लागू करने से अस्थायी रूप से रोकने की कोशिश नहीं करनी चाहिए, जैसा कि कुछ लोगों ने प्रस्तावित किया है। साइबर अपराधी नए उपकरण बनाना बंद नहीं करेंगे। न ही वे लोग ऐसा करेंगे जो परमाणु हथियार और जैव-आतंकवादी हमलों को डिजाइन करने के लिए एआई का उपयोग करना चाहते हैं। इन्हें रोकने का प्रयास इसी गति से जारी रखने की जरूरत है।

वैश्विक स्तर पर एक संबंधित जोखिम है: एआई के लिए हथियारों की दौड़ जिसका उपयोग अन्य देशों के खिलाफ साइबर हमले डिजाइन और लॉन्च करने के लिए किया जा सकता है। हर सरकार चाहती है कि उसके पास सबसे शक्तिशाली तकनीक हो ताकि वह अपने विरोधियों के हमलों को रोक सके। किसी को आगे न बढ़ने देने का यह प्रोत्साहन तेजी से खतरनाक साइबर हथियार बनाने की होड़ को बढ़ावा दे सकता है। हर किसी का बुरा हाल होगा.

यह एक डरावना विचार है, लेकिन हमारे पास हमारा मार्गदर्शन करने के लिए इतिहास है। हालाँकि दुनिया की परमाणु अप्रसार व्यवस्था में अपनी खामियाँ हैं, इसने उस संपूर्ण परमाणु युद्ध को रोक दिया है जिससे मेरी पीढ़ी तब बहुत डरती थी जब हम बड़े हो रहे थे। सरकारों को अंतर्राष्ट्रीय परमाणु ऊर्जा एजेंसी के समान एआई के लिए एक वैश्विक निकाय बनाने पर विचार करना चाहिए।

एआई लोगों की नौकरियां छीन लेगा.
अगले कुछ वर्षों में, काम पर एआई का मुख्य प्रभाव लोगों को अपना काम अधिक कुशलता से करने में मदद करना होगा। यह सच होगा चाहे वे किसी कारखाने में काम करें या किसी कार्यालय में बिक्री कॉल और देय खातों को संभालने में काम करें। अंततः, एआई विचारों को व्यक्त करने में इतना अच्छा हो जाएगा कि यह आपके ईमेल लिखने और आपके लिए आपके इनबॉक्स को प्रबंधित करने में सक्षम होगा। आप सादे अंग्रेजी या किसी अन्य भाषा में अनुरोध लिखने में सक्षम होंगे, और अपने काम पर एक समृद्ध प्रस्तुति तैयार कर सकेंगे।

जैसा कि मैंने अपनी फरवरी पोस्ट में तर्क दिया था, जब उत्पादकता बढ़ती है तो यह समाज के लिए अच्छा होता है। इससे लोगों को काम पर और घर पर अन्य काम करने के लिए अधिक समय मिलता है। और ऐसे लोगों की मांग जो दूसरों की मदद करते हैं – उदाहरण के लिए, पढ़ाना, मरीजों की देखभाल करना और बुजुर्गों का समर्थन करना – कभी खत्म नहीं होगी। लेकिन यह सच है कि जैसे ही हम एआई-संचालित कार्यस्थल में परिवर्तन कर रहे हैं, कुछ श्रमिकों को समर्थन और पुनः प्रशिक्षण की आवश्यकता होगी। यह सरकारों और व्यवसायों के लिए एक भूमिका है, और उन्हें इसे अच्छी तरह से प्रबंधित करने की आवश्यकता होगी ताकि श्रमिक पीछे न रहें – लोगों के जीवन में उस तरह के व्यवधान से बचें जो संयुक्त राज्य अमेरिका में विनिर्माण नौकरियों में गिरावट के दौरान हुआ है।

यह भी ध्यान रखें कि यह पहली बार नहीं है कि किसी नई तकनीक ने श्रम बाजार में बड़ा बदलाव लाया है। मुझे नहीं लगता कि एआई का प्रभाव औद्योगिक क्रांति जितना नाटकीय होगा, लेकिन यह निश्चित रूप से पीसी की शुरूआत जितना बड़ा होगा। वर्ड प्रोसेसिंग अनुप्रयोगों ने कार्यालय के काम को खत्म नहीं किया, लेकिन उन्होंने इसे हमेशा के लिए बदल दिया। नियोक्ताओं और कर्मचारियों को अनुकूलन करना पड़ा और उन्होंने ऐसा किया। एआई के कारण होने वाला बदलाव एक कठिन बदलाव होगा, लेकिन यह सोचने का हर कारण है कि हम लोगों के जीवन और आजीविका में व्यवधान को कम कर सकते हैं।

एआई को हमारे पूर्वाग्रह विरासत में मिलते हैं और वह चीजें बनाता है।
मतिभ्रम – यह शब्द तब होता है जब कोई एआई आत्मविश्वास से कुछ ऐसा दावा करता है जो सच नहीं है – आमतौर पर ऐसा होता है क्योंकि मशीन आपके अनुरोध के संदर्भ को समझ नहीं पाती है। किसी AI से चंद्रमा पर छुट्टियाँ बिताने के बारे में एक छोटी कहानी लिखने के लिए कहें और यह आपको एक बहुत ही कल्पनाशील उत्तर दे सकता है। लेकिन इसे तंजानिया की यात्रा की योजना बनाने में मदद करने के लिए कहें, और यह आपको ऐसे होटल में भेजने का प्रयास कर सकता है जो मौजूद नहीं है।

कृत्रिम बुद्धिमत्ता के साथ एक और जोखिम यह है कि यह कुछ लिंग पहचान, नस्ल, जातीयता आदि के लोगों के खिलाफ मौजूदा पूर्वाग्रहों को दर्शाता है या उन्हें और भी खराब कर देता है।

यह समझने के लिए कि मतिभ्रम और पूर्वाग्रह क्यों होते हैं, यह जानना महत्वपूर्ण है कि आज सबसे आम एआई मॉडल कैसे काम करते हैं। वे अनिवार्य रूप से कोड के बहुत परिष्कृत संस्करण हैं जो आपके ईमेल ऐप को आपके द्वारा टाइप किए जाने वाले अगले शब्द की भविष्यवाणी करने की अनुमति देते हैं: वे भारी मात्रा में टेक्स्ट को स्कैन करते हैं – कुछ मामलों में, ऑनलाइन उपलब्ध हर चीज के बारे में – और मानव भाषा में पैटर्न खोजने के लिए इसका विश्लेषण करते हैं।

जब आप एआई से कोई प्रश्न पूछते हैं, तो यह आपके द्वारा उपयोग किए गए शब्दों को देखता है और फिर पाठ के उन हिस्सों की खोज करता है जो अक्सर उन शब्दों से जुड़े होते हैं। यदि आप “पेनकेक के लिए सामग्री की सूची” लिखते हैं, तो यह ध्यान दिया जा सकता है कि शब्द “आटा, चीनी, नमक, बेकिंग पाउडर, दूध और अंडे” अक्सर उस वाक्यांश के साथ आते हैं। फिर, वह उस क्रम के बारे में जो जानता है उसके आधार पर कि वे शब्द आमतौर पर किस क्रम में प्रकट होते हैं, यह एक उत्तर उत्पन्न करता है। (एआई मॉडल जो इस तरह से काम करते हैं वे ट्रांसफॉर्मर कहलाने वाले का उपयोग कर रहे हैं। जीपीटी-4 ऐसा ही एक मॉडल है।)

यह प्रक्रिया बताती है कि एआई को मतिभ्रम का अनुभव क्यों हो सकता है या वह पक्षपाती प्रतीत हो सकता है। इसमें आपके द्वारा पूछे जाने वाले प्रश्नों या आपके द्वारा बताई गई बातों का कोई संदर्भ नहीं है। यदि आप किसी को बताते हैं कि उसने गलती की है, तो वह कह सकता है, “क्षमा करें, मैंने इसे गलत टाइप किया है।” लेकिन यह एक मतिभ्रम है – इसने कुछ भी टाइप नहीं किया। यह केवल इसलिए कहता है क्योंकि इसने यह जानने के लिए पर्याप्त पाठ को स्कैन किया है कि “क्षमा करें, मैंने इसे गलत टाइप किया है” एक ऐसा वाक्य है जिसे लोग अक्सर किसी के द्वारा सही करने के बाद लिखते हैं।

इसी तरह, एआई मॉडल को उस पाठ में जो भी पूर्वाग्रहों को शामिल किया गया है, वह विरासत में मिलता है, जिस पर उन्हें प्रशिक्षित किया जाता है। यदि कोई चिकित्सकों के बारे में बहुत कुछ पढ़ता है, मान लीजिए, पाठ में अधिकतर पुरुष डॉक्टरों का उल्लेख है, तो उसके उत्तर यह मानेंगे कि अधिकांश डॉक्टर पुरुष हैं।

हालाँकि कुछ शोधकर्ता सोचते हैं कि मतिभ्रम एक अंतर्निहित समस्या है, लेकिन मैं इससे सहमत नहीं हूँ। मैं आशावादी हूं कि, समय के साथ, एआई मॉडल को तथ्य को कल्पना से अलग करना सिखाया जा सकता है। उदाहरण के लिए, OpenAI इस मोर्चे पर आशाजनक काम कर रहा है।

एलन ट्यूरिंग इंस्टीट्यूट और नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी सहित अन्य संगठन पूर्वाग्रह की समस्या पर काम कर रहे हैं। एक दृष्टिकोण एआई में मानवीय मूल्यों और उच्च-स्तरीय तर्क का निर्माण करना है। यह एक आत्म-जागरूक मानव के काम करने के तरीके के अनुरूप है: शायद आप मानते हैं कि अधिकांश डॉक्टर पुरुष हैं, लेकिन आप इस धारणा के प्रति इतने सचेत हैं कि आपको जानबूझकर इससे लड़ना होगा। एआई समान तरीके से काम कर सकता है, खासकर यदि मॉडल विविध पृष्ठभूमि के लोगों द्वारा डिजाइन किए गए हों।

अंत में, एआई का उपयोग करने वाले प्रत्येक व्यक्ति को पूर्वाग्रह की समस्या के बारे में जागरूक होने और एक सूचित उपयोगकर्ता बनने की आवश्यकता है। आप एआई से जिस निबंध का मसौदा तैयार करने के लिए कहते हैं, वह तथ्यात्मक त्रुटियों की तरह ही पूर्वाग्रहों से भरा हो सकता है। आपको अपने AI के पूर्वाग्रहों के साथ-साथ अपने स्वयं के पूर्वाग्रहों की भी जांच करनी होगी।

छात्र लिखना नहीं सीखेंगे क्योंकि एआई उनके लिए काम करेगा।
कई शिक्षक इस बात से चिंतित हैं कि किस तरह एआई छात्रों के साथ उनके काम को कमजोर कर देगा। ऐसे समय में जब इंटरनेट एक्सेस वाला कोई भी व्यक्ति निबंध का सम्मानजनक पहला ड्राफ्ट लिखने के लिए एआई का उपयोग कर सकता है, तो छात्रों को इसे अपने काम के रूप में बदलने से क्या रोका जा सकता है?

पहले से ही एआई उपकरण हैं जो यह बताना सीख रहे हैं कि क्या कुछ किसी व्यक्ति द्वारा लिखा गया था या कंप्यूटर द्वारा, इसलिए शिक्षक यह बता सकते हैं कि जब उनके छात्र अपना काम नहीं कर रहे हैं। लेकिन कुछ शिक्षक अपने छात्रों को अपने लेखन में एआई का उपयोग करने से रोकने की कोशिश नहीं कर रहे हैं – वे वास्तव में इसे प्रोत्साहित कर रहे हैं।

जनवरी में, चेरी शील्ड्स नाम की एक अनुभवी अंग्रेजी शिक्षिका ने एजुकेशन वीक में एक लेख लिखा था कि वह अपनी कक्षा में चैटजीपीटी का उपयोग कैसे करती है। इससे उनके छात्रों को निबंध शुरू करने से लेकर रूपरेखा लिखने और यहां तक कि उन्हें उनके काम पर प्रतिक्रिया देने तक हर चीज में मदद मिली है।

उन्होंने लिखा, “शिक्षकों को एआई तकनीक को अपनाना होगा क्योंकि यह एक अन्य उपकरण है जिसकी छात्रों तक पहुंच है।” “जैसे हमने एक बार छात्रों को उचित Google खोज करना सिखाया था, शिक्षकों को इस बारे में स्पष्ट पाठ डिज़ाइन करना चाहिए कि चैटजीपीटी बॉट निबंध लेखन में कैसे सहायता कर सकता है। एआई के अस्तित्व को स्वीकार करना और छात्रों को इसके साथ काम करने में मदद करना हमारे पढ़ाने के तरीके में क्रांतिकारी बदलाव ला सकता है। प्रत्येक शिक्षक के पास एक नया उपकरण सीखने और उसका उपयोग करने का समय नहीं है, लेकिन चेरी शील्ड्स जैसे शिक्षक एक अच्छा तर्क देते हैं कि जो लोग ऐसा करते हैं उन्हें बहुत लाभ होगा।

यह मुझे उस समय की याद दिलाता है जब 1970 और 1980 के दशक में इलेक्ट्रॉनिक कैलकुलेटर व्यापक हो गए थे। कुछ गणित शिक्षकों को चिंता थी कि छात्र बुनियादी अंकगणित करना सीखना बंद कर देंगे, लेकिन दूसरों ने नई तकनीक को अपनाया और अंकगणित के पीछे सोचने के कौशल पर ध्यान केंद्रित किया।

एक और तरीका है जिससे एआई लेखन और आलोचनात्मक सोच में मदद कर सकता है। विशेष रूप से इन शुरुआती दिनों में, जब मतिभ्रम और पूर्वाग्रह अभी भी एक समस्या है, शिक्षक एआई से लेख तैयार करवा सकते हैं और फिर तथ्यों की जांच करने के लिए अपने छात्रों के साथ काम कर सकते हैं। खान अकादमी और ओईआर प्रोजेक्ट जैसी शिक्षा गैर-लाभकारी संस्थाएं, जिन्हें मैं वित्त पोषित करता हूं, शिक्षकों और छात्रों को मुफ्त ऑनलाइन टूल प्रदान करते हैं जो दावों के परीक्षण पर बड़ा जोर देते हैं। कुछ कौशल यह जानने से अधिक महत्वपूर्ण हैं कि क्या सच है और क्या गलत है, इसके बीच अंतर कैसे किया जाए।

हमें यह सुनिश्चित करने की ज़रूरत है कि शिक्षा सॉफ़्टवेयर उपलब्धि के अंतर को कम करने में मदद करे, न कि उसे बदतर बनाने में। आज का सॉफ़्टवेयर अधिकतर उन छात्रों को सशक्त बनाने पर केंद्रित है जो पहले से ही प्रेरित हैं। यह आपके लिए एक अध्ययन योजना विकसित कर सकता है, आपको अच्छे संसाधनों की ओर इंगित कर सकता है और आपके ज्ञान का परीक्षण कर सकता है। लेकिन यह अभी तक नहीं जानता है कि आपको उस विषय में कैसे आकर्षित किया जाए जिसमें आपकी पहले से रुचि नहीं है। यह एक समस्या है जिसे डेवलपर्स को हल करने की आवश्यकता होगी ताकि सभी प्रकार के छात्र एआई से लाभ उठा सकें।

आगे क्या होगा?
मेरा मानना है कि आशावादी न होने के अलावा और भी कारण हैं कि हम एआई के लाभों को अधिकतम करते हुए इसके जोखिमों का प्रबंधन कर सकते हैं। लेकिन हमें तेजी से आगे बढ़ने की जरूरत है.

सरकारों को कृत्रिम बुद्धिमत्ता में विशेषज्ञता विकसित करने की आवश्यकता है ताकि वे इस नई तकनीक का जवाब देने वाले सूचित कानून और नियम बना सकें। उन्हें गलत सूचना और डीपफेक, सुरक्षा खतरों, नौकरी बाजार में बदलाव और शिक्षा पर प्रभाव से जूझना होगा। केवल एक उदाहरण उद्धृत करने के लिए: कानून को यह स्पष्ट करने की आवश्यकता है कि डीपफेक का कौन सा उपयोग कानूनी है और डीपफेक को कैसे लेबल किया जाना चाहिए ताकि हर कोई समझ सके कि जो कुछ वे देख रहे हैं या सुन रहे हैं वह वास्तविक नहीं है

राजनीतिक नेताओं को अपने मतदाताओं के साथ जानकारीपूर्ण, विचारशील बातचीत करने के लिए सुसज्जित होने की आवश्यकता होगी। उन्हें यह भी तय करना होगा कि इन मुद्दों पर अन्य देशों के साथ कितना सहयोग करना है न कि अकेले काम करना है।

निजी क्षेत्र में, एआई कंपनियों को अपना काम सुरक्षित और जिम्मेदारी से करने की जरूरत है। इसमें लोगों की गोपनीयता की रक्षा करना, यह सुनिश्चित करना कि उनके एआई मॉडल बुनियादी मानवीय मूल्यों को प्रतिबिंबित करते हैं, पूर्वाग्रह को कम करना, जितना संभव हो उतने लोगों तक लाभ पहुंचाना और प्रौद्योगिकी को अपराधियों या आतंकवादियों द्वारा उपयोग किए जाने से रोकना शामिल है। अर्थव्यवस्था के कई क्षेत्रों की कंपनियों को अपने कर्मचारियों को एआई-केंद्रित कार्यस्थल में परिवर्तन करने में मदद करने की आवश्यकता होगी ताकि कोई भी पीछे न रह जाए। और ग्राहकों को हमेशा पता होना चाहिए कि वे किसी एआई के साथ बातचीत कर रहे हैं न कि किसी इंसान के साथ।

अंत में, मैं हर किसी को यथासंभव एआई में विकास का अनुसरण करने के लिए प्रोत्साहित करता हूं। यह सबसे परिवर्तनकारी नवाचार है जिसे हममें से कोई भी अपने जीवनकाल में देखेगा, और एक स्वस्थ सार्वजनिक बहस इस बात पर निर्भर करेगी कि हर कोई प्रौद्योगिकी, इसके लाभों और इसके जोखिमों के बारे में जानकार हो। लाभ बड़े पैमाने पर होंगे, और यह विश्वास करने का सबसे अच्छा कारण कि हम जोखिमों का प्रबंधन कर सकते हैं, यह है कि हमने इसे पहले किया है।

Bill signature

(BILL GATES  )

Related post

Leave a Reply