वैज्ञानिक आर्टिफिशियल इंटेलिजेंस के खतरों की चेतावनी देते हैं लेकिन समाधान पर सहमत नहीं हैं I

 

कंप्यूटर वैज्ञानिक जिन्होंने आज की कृत्रिम बुद्धिमत्ता तकनीक की नींव बनाने में मदद की, वे इसके खतरों के प्रति आगाह कर रहे हैं, लेकिन इसका मतलब यह नहीं है कि वे इस बात से सहमत हैं कि वे खतरे क्या हैं या उन्हें कैसे रोका जाए।

सिवानी बोलान में जिले का पहला ऑक्सी वन पार्क तैयार: पहले चरण में पार्क में ऑक्सीजन देने वाले 600 से ज्यादा पौधे लगाए, वॉकिंग ट्रैक भी बनेगा

Google से सेवानिवृत्त होने के बाद, ताकि वह अधिक स्वतंत्र रूप से बोल सकें, एआई जेफ्री हिंटन के तथाकथित गॉडफादर ने मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी में एक सम्मेलन में बुधवार को अपनी चिंताओं को रेखांकित करने की योजना बनाई। वह पहले से ही अपने काम के बारे में खेद व्यक्त कर चुका है और अगर मशीनें लोगों से ज्यादा स्मार्ट हो जाती हैं तो मानवता के अस्तित्व पर संदेह है।

शीर्ष कंप्यूटर विज्ञान पुरस्कार के हिंटन के सह-विजेता फेलो एआई अग्रणी योशुआ बेंगियो ने बुधवार को एसोसिएटेड प्रेस को बताया कि वह चैटजीपीटी और संबंधित प्रौद्योगिकी जैसे चैटबॉट्स द्वारा लाए गए हिंटन की चिंताओं के साथ “बहुत ज्यादा गठबंधन” है, लेकिन चिंता है कि बस “हम बर्बाद हो गए” कहने से मदद नहीं मिलने वाली है।

“मुख्य अंतर, मैं कहूंगा, वह एक निराशावादी व्यक्ति है, और मैं आशावादी पक्ष में अधिक हूं,” मॉन्ट्रियल विश्वविद्यालय के एक प्रोफेसर बेंगियो ने कहा। “मुझे लगता है कि खतरे – अल्पकालिक वाले, दीर्घकालिक वाले – बहुत गंभीर हैं और न केवल कुछ शोधकर्ताओं बल्कि सरकारों और आबादी द्वारा इसे गंभीरता से लेने की आवश्यकता है।”

धूमधाम से मनाया गया स. जस्सा सिंह आहलूवालिया का 305वां जन्मोत्सव प्रदेश प्रवक्ता विजयपाल सिंह आहलूवालिया व गण्यमान्य लोगों ने किया माल्यार्पण

बहुत सारे संकेत हैं कि सरकारें सुन रही हैं। व्हाइट हाउस ने Google, Microsoft और चैटजीपीटी-निर्माता OpenAI के सीईओ को गुरुवार को उपराष्ट्रपति कमला हैरिस से मिलने के लिए बुलाया है, जिसे अधिकारियों द्वारा निकट-अवधि और दीर्घकालिक जोखिमों को कम करने के तरीके पर एक स्पष्ट चर्चा के रूप में वर्णित किया जा रहा है। उनकी तकनीक। यूरोपीय सांसद भी व्यापक नए एआई नियमों को पारित करने के लिए बातचीत में तेजी ला रहे हैं।

लेकिन सबसे भयानक भविष्य के खतरों की सभी बातों ने कुछ चिंतित किया है कि अलौकिक मशीनों के आसपास प्रचार – जो अभी तक अस्तित्व में नहीं है – वर्तमान एआई उत्पादों पर व्यावहारिक सुरक्षा उपायों को स्थापित करने के प्रयासों से ध्यान भंग कर रहा है जो काफी हद तक अनियमित हैं।

Google की AI एथिक्स टीम की एक पूर्व नेता मार्गरेट मिशेल ने कहा कि वह इस बात से परेशान हैं कि Google में सत्ता की स्थिति में अपने दशक के दौरान हिंटन ने बात नहीं की, खासकर 2020 के प्रमुख अश्वेत वैज्ञानिक टिमनिट गेब्रू के निष्कासन के बाद, जिन्होंने नुकसान का अध्ययन किया था चैटजीपीटी और गूगल के बार्ड जैसे उत्पादों में व्यापक रूप से व्यावसायीकरण किए जाने से पहले बड़े भाषा मॉडल।

“यह एक विशेषाधिकार है कि वह अब भेदभाव के प्रचार की वास्तविकताओं से कूदता है, घृणास्पद भाषा का प्रचार, विषाक्तता और महिलाओं की गैर-सहमति अश्लीलता, ये सभी मुद्दे जो सक्रिय रूप से उन लोगों को नुकसान पहुंचा रहे हैं जो तकनीक में हाशिए पर हैं,” कहा गेब्रू के जाने के बाद मिचेल को भी गूगल से बाहर कर दिया गया था। “वह कुछ दूर के बारे में चिंता करने के लिए उन सभी चीजों को छोड़ रहा है।”

स्वस्थ लोकतंत्र के लिए मीडिया का स्वतंत्र होना बेहद जरूरी: महाबीर मित्तल धूमधाम से मनाया गया अंतर्राष्ट्रीय पत्रकारिता स्वतंत्रता दिवस

बेंगियो, हिंटन और एक तीसरे शोधकर्ता, यान लेकन, जो फेसबुक पैरेंट मेटा में काम करते हैं, सभी को कृत्रिम तंत्रिका नेटवर्क के क्षेत्र में उनकी सफलताओं के लिए 2019 में ट्यूरिंग पुरस्कार से सम्मानित किया गया, जो आज के एआई अनुप्रयोगों जैसे चैटजीपीटी के विकास के लिए महत्वपूर्ण है।

बेंगियो, उन तीन में से केवल एक, जिन्होंने एक तकनीकी दिग्गज के साथ नौकरी नहीं की, ने निकट अवधि के एआई जोखिमों के बारे में चिंता व्यक्त की है, जिसमें नौकरी बाजार की अस्थिरता, स्वचालित हथियार और पक्षपाती डेटा सेट के खतरे शामिल हैं।

 

लेकिन वे चिंताएँ हाल ही में बढ़ी हैं, बेंगियो को अन्य कंप्यूटर वैज्ञानिकों और टेक बिजनेस लीडर्स जैसे शामिल होने के लिए प्रेरित किया एलोन मस्क और Apple के सह-संस्थापक स्टीव वोज्नियाक ने OpenAI के नवीनतम मॉडल, GPT-4 की तुलना में अधिक शक्तिशाली AI सिस्टम विकसित करने पर छह महीने के विराम का आह्वान किया।

बेंगियो ने बुधवार को कहा कि उनका मानना ​​है कि नवीनतम एआई भाषा मॉडल पहले से ही ब्रिटिश कोडब्रेकर और एआई अग्रणी एलन ट्यूरिंग की विधि के नाम पर “ट्यूरिंग टेस्ट” पास करते हैं, जिसे मापने के लिए 1950 में पेश किया गया था, जब एआई मानव से अप्रभेद्य हो जाता है – कम से कम सतह पर।

“यह एक मील का पत्थर है जिसके गंभीर परिणाम हो सकते हैं यदि हम सावधान नहीं हैं,” बेंगियो ने कहा। “मेरी मुख्य चिंता यह है कि लोकतंत्र को अस्थिर करने, साइबर हमलों, दुष्प्रचार के लिए नापाक उद्देश्यों के लिए उनका शोषण कैसे किया जा सकता है। आप इन प्रणालियों के साथ बातचीत कर सकते हैं और सोच सकते हैं कि आप किसी मानव के साथ बातचीत कर रहे हैं। उनका पता लगाना मुश्किल है।

जहाँ शोधकर्ताओं के इस बात से सहमत होने की संभावना कम है कि कैसे वर्तमान एआई भाषा प्रणाली – जिसमें कई सीमाएँ हैं, जिसमें जानकारी गढ़ने की प्रवृत्ति भी शामिल है – वास्तव में मनुष्यों की तुलना में अधिक स्मार्ट हो जाएगी।

मोज़िला ने इस स्टार्टअप को खरीदा है जो नकली ऑनलाइन समीक्षाओं का पता लगाता है: सभी विवरण

एडन गोमेज़ 2017 के अग्रणी पेपर के सह-लेखकों में से एक थे, जिन्होंने मशीन-लर्निंग सिस्टम के प्रदर्शन में सुधार के लिए, विशेष रूप से वे पैसेज से कैसे सीखते हैं, एक तथाकथित ट्रांसफॉर्मर तकनीक – चैटजीपीटी के अंत में “टी” की शुरुआत की। पाठ का। फिर Google में सिर्फ 20 वर्षीय इंटर्न, गोमेज़ को कंपनी के कैलिफ़ोर्निया मुख्यालय में एक सोफे पर लेटना याद है जब उनकी टीम ने 3 बजे के आसपास पेपर भेजा था जब यह होने वाला था।

“एडन, यह बहुत बड़ा होने जा रहा है,” वह अपने एक सहयोगी को उस काम के बारे में बताते हुए याद करते हैं, जिसने तब से नई प्रणालियों की ओर ले जाने में मदद की है जो मानवीय गद्य और कल्पना उत्पन्न कर सकते हैं।

छह साल बाद और अब अपनी खुद की एआई कंपनी, कोहेरे के सीईओ, गोमेज़ इन प्रणालियों के संभावित अनुप्रयोगों के बारे में उत्साहित हैं, लेकिन भयभीत होने से परेशान हैं, वे कहते हैं कि उनकी वास्तविक क्षमताओं की “वास्तविकता से अलग” है और “कल्पना की असाधारण छलांग पर निर्भर करता है और विचार।”

गोमेज़ ने कहा, “यह धारणा कि ये मॉडल किसी तरह हमारे परमाणु हथियारों तक पहुंच बनाने वाले हैं और किसी प्रकार के विलुप्त होने के स्तर की घटना को लॉन्च करने के लिए एक उत्पादक प्रवचन नहीं है।” “यह उन वास्तविक व्यावहारिक नीतिगत प्रयासों के लिए हानिकारक है जो कुछ अच्छा करने की कोशिश कर रहे हैं।”

Follow us on Google News:-

.

Leave a Reply

Your email address will not be published. Required fields are marked *

error: Content is protected !!