विशेषज्ञों का मानना है कि एआई बहुत जल्द इंसानों की बराबरी कर सकता है। (प्रतिनिधि छवि / रायटर)
ऑल्टमैन के साथ-साथ, उनमें एआई फर्म डीपमाइंड और एंथ्रोपिक के सीईओ और माइक्रोसॉफ्ट और गूगल के अधिकारी शामिल थे।
OpenAI के सीईओ सैम ऑल्टमैन सहित शीर्ष कृत्रिम बुद्धिमत्ता (AI) के अधिकारी मंगलवार को “AI से विलुप्त होने के जोखिम” को बढ़ाने में विशेषज्ञों और प्रोफेसरों के साथ शामिल हुए, उन्होंने नीति निर्माताओं से महामारी और परमाणु युद्ध से उत्पन्न जोखिमों के बराबर होने का आग्रह किया।
क्या AI मानवता के ‘विलुप्त होने का खतरा’ पैदा करता है? शीर्ष AI अधिकारी इस प्रश्न का उत्तर दें
गैर-लाभकारी सेंटर फॉर एआई सेफ्टी (सीएआईएस) द्वारा प्रकाशित एक पत्र में 350 से अधिक हस्ताक्षरकर्ताओं ने लिखा, “एआई से विलुप्त होने के जोखिम को कम करना महामारी और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के जोखिमों के साथ एक वैश्विक प्राथमिकता होनी चाहिए।”
Altman के साथ-साथ, उनमें AI फर्मों DeepMind और Anthropic के CEO और Microsoft और Google के अधिकारी शामिल थे।
उनमें जेफ्री हिंटन और योशुआ बेंगियो भी थे – तीन तथाकथित “एआई के गॉडफादर” में से दो, जिन्हें गहन शिक्षा पर उनके काम के लिए 2018 ट्यूरिंग अवार्ड मिला – और हार्वर्ड से लेकर चीन के सिंघुआ विश्वविद्यालय तक के संस्थानों के प्रोफेसर।
CAIS के एक बयान ने मेटा को अलग कर दिया, जहां एआई के तीसरे गॉडफादर, यान लेकन, पत्र पर हस्ताक्षर नहीं करने के लिए काम करते हैं।
शीर्ष वरीय स्वोटेक ने फ्रेंच ओपन खिताब की रक्षा के लिए जीत की शुरुआत का लुत्फ उठाया
सीएआईएस के निदेशक डेन हेंड्रिक्स ने कहा, “हमने कई मेटा कर्मचारियों को हस्ताक्षर करने के लिए कहा।” मेटा ने तुरंत टिप्पणी के अनुरोधों का जवाब नहीं दिया।
पत्र स्वीडन में यूएस-ईयू व्यापार और प्रौद्योगिकी परिषद की बैठक के साथ मेल खाता है जहां राजनेताओं से एआई को विनियमित करने के बारे में बात करने की उम्मीद है।
एलोन मस्क और एआई विशेषज्ञों और उद्योग के अधिकारियों का एक समूह अप्रैल में समाज के लिए संभावित जोखिमों का हवाला देने वाले पहले व्यक्ति थे।
हेंड्रिक्स ने कहा, “हमने (मस्क को) निमंत्रण दिया है और उम्मीद है कि वह इस सप्ताह इस पर हस्ताक्षर कर देंगे।”
एआई में हाल के विकास ने टूल समर्थकों का कहना है कि मेडिकल डायग्नोस्टिक्स से लेकर कानूनी संक्षेप लिखने तक के अनुप्रयोगों में इस्तेमाल किया जा सकता है, लेकिन इससे डर पैदा हो गया है कि तकनीक गोपनीयता के उल्लंघन, शक्ति गलत सूचना अभियानों और “स्मार्ट मशीनों” के लिए सोच के मुद्दों को जन्म दे सकती है। खुद।
गैर-लाभकारी फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) ने मस्क और सैकड़ों अन्य लोगों द्वारा हस्ताक्षरित एक समान खुला पत्र जारी करने के दो महीने बाद चेतावनी दी है, जिसमें मानवता के लिए जोखिम का हवाला देते हुए उन्नत एआई अनुसंधान में तत्काल रोक लगाने की मांग की गई है।
एफएलआई के अध्यक्ष मैक्स टेगमार्क ने कहा, “हमारा पत्र मुख्य विराम है, यह मुख्यधारा का विलोपन है।”
एआई अग्रणी हिंटन ने पहले रॉयटर्स को बताया था कि एआई जलवायु परिवर्तन की तुलना में मानवता के लिए “अधिक जरूरी” खतरा पैदा कर सकता है।
पिछले हफ्ते OpenAI के सीईओ सैम अल्टमैन ने EU AI का उल्लेख किया – AI के लिए एक नियमन बनाने का पहला प्रयास – अति-विनियमन के रूप में और यूरोप छोड़ने की धमकी दी। राजनेताओं की आलोचना के कुछ दिनों के भीतर उन्होंने अपना रुख उलट दिया।
CET ग्रुप D के लिए 5 से ऑनलाइन आवेदन: HSSC ने जारी किया नोटिफिकेशन, 26 जून तक कर सकेंगे अप्लाई
चैटजीपीटी चैटबॉट के दुनिया भर में छा जाने के बाद ऑल्टमैन एआई का चेहरा बन गया है। यूरोपीय आयोग के अध्यक्ष उर्सुला वॉन डेर लेयेन गुरुवार को ऑल्टमैन से मिलेंगे, और यूरोपीय संघ के उद्योग प्रमुख थियरी ब्रेटन अगले महीने सैन फ्रांसिस्को में उनसे मुलाकात करेंगे।