सरकार सिंगापुर ने आज संयुक्त राज्य अमेरिका, चीन और यूरोप में एआई शोधकर्ताओं की एक बैठक के बाद आर्टिफिशियल इंटेलिजेंस में ग्लोबल एआई सुरक्षा सहयोग के लिए एक खाका जारी किया। दस्तावेज़ प्रतिस्पर्धा के बजाय अंतर्राष्ट्रीय सहयोग के माध्यम से एआई सुरक्षा प्राप्त करने की एक साझा दृष्टि का प्रस्ताव करता है।
एमआईटी के एक वैज्ञानिक मैक्स टेगमार्क ने कहा, “सिंगापुर पृथ्वी के कुछ देशों में से एक है जो पूर्व के साथ अच्छी तरह से मिलता है।” “वे जानते हैं कि वे इसका निर्माण नहीं करेंगे।” [artificial general intelligence] वे स्वयं – वे उनके साथ ऐसा करेंगे – इसलिए एक दूसरे से बात करने वाले देशों को स्थापित करने के लिए उनकी रुचि है। “
इन देशों का मानना है कि जिन देशों में एजीआई बनाने की सबसे अधिक संभावना है, वे निश्चित रूप से संयुक्त राज्य अमेरिका और चीन हैं, लेकिन ये देश एक साथ काम करने के अलावा एक -दूसरे को पार करने के लिए अधिक इच्छुक हैं। जनवरी में, चीनी स्टार्टअप दीपसेक ने एक अत्याधुनिक मॉडल जारी करने के बाद, राष्ट्रपति ट्रम्प ने इसे “हमारे उद्योग को वेक अप” कहा और कहा कि संयुक्त राज्य अमेरिका को “प्रतियोगिता पर ध्यान केंद्रित करने के रूप में लेज़रों के साथ जीतने की जरूरत है।”
सिंगापुर वैश्विक एआई सुरक्षा अनुसंधान के लिए प्राथमिकताओं पर एक आम सहमति पर पहुंच गया है, जिसमें शोधकर्ताओं को तीन प्रमुख क्षेत्रों में सहयोग करने की आवश्यकता है: फ्रंटियर एआई मॉडल द्वारा उत्पन्न जोखिमों का अध्ययन करना, इन मॉडलों के निर्माण के लिए सुरक्षित तरीकों की खोज करना, और अत्याधुनिक एआई प्रणालियों के व्यवहार को नियंत्रित करने के लिए तरीकों को विकसित करना।
सर्वसम्मति का गठन 26 अप्रैल को सिंगापुर में आयोजित एक प्रमुख एआई कार्यक्रम की एक बैठक में किया गया था, साथ ही लर्निंग रिप्रेजेंटेटिव्स (आईसीएलआर) पर अंतर्राष्ट्रीय सम्मेलन के साथ।
Openai, एन्थ्रोपिक, Google DeepMind, Xai और META के शोधकर्ताओं ने AI सुरक्षा गतिविधियों में भाग लिया, और MIT, STANFORD, TSINGHUA और चीनी एकेडमी जैसे संस्थानों के विद्वानों ने भी AI सुरक्षा गतिविधियों में भाग लिया। संयुक्त राज्य अमेरिका, यूनाइटेड किंगडम, फ्रांस, कनाडा, चीन, जापान और दक्षिण कोरिया में एआई सुरक्षा एजेंसियों के विशेषज्ञ भी बैठक में शामिल हुए।
“, एआई सुरक्षा पर अत्याधुनिक अनुसंधान का व्यापक एकीकरण एक आशाजनक संकेत है कि वैश्विक समुदाय एक सुरक्षित एआई भविष्य को आकार देने के लिए एक साझा प्रतिबद्धता के साथ जुड़ रहे हैं,” ज़ूथुआ विश्वविद्यालय के प्रमुख, ज़िंगहुआ विश्वविद्यालय के प्रमुख ने एक बयान में कहा।
तेजी से सक्षम एआई मॉडल के विकास, जिनमें से कुछ में आश्चर्यजनक क्षमताएं हैं, ने शोधकर्ताओं को कई जोखिमों के डर से डाल दिया है। जबकि कुछ हाल के नुकसान पर ध्यान केंद्रित करते हैं, जिसमें पक्षपाती एआई सिस्टम या अपराधियों की तकनीक का फायदा उठाने की क्षमता शामिल है, बड़ी संख्या में लोगों का मानना है कि एआई मनुष्यों के लिए एक अस्तित्वगत खतरा पैदा कर सकता है क्योंकि यह अधिक से अधिक मनुष्यों को फैलने लगता है। इन शोधकर्ताओं को कभी -कभी “एआई विध्वंसक” कहा जाता है और डर है कि मॉडल अपने स्वयं के लक्ष्यों की खोज में मनुष्यों को धोखा दे सकते हैं और हेरफेर कर सकते हैं।
एआई की क्षमता ने संयुक्त राज्य अमेरिका, चीन और अन्य शक्तिशाली देशों के बीच हथियारों की दौड़ के बारे में भी चर्चा की है। यह तकनीक नीति समुदाय में आर्थिक समृद्धि और सैन्य वर्चस्व के लिए महत्वपूर्ण के रूप में देखी जाती है, और कई सरकारें अपनी दृष्टि और नियमों को विकसित करने की कोशिश कर रही हैं ताकि वे कैसे विकसित हो सकें।