GPT-4 को तालिम रोक्न इलोन मस्क को आग्रह

सेयर गरौं

“OpenAI ल्याबहरूबाट GPT-4 भन्दा शक्तिशाली AI तंत्रको तालिम कम्तिमा ६ महिना सम्म तत्काल रोक्न अनुरोध गर्दछौं।” यो खुला पत्रमा इलोन मस्क, स्टीव वोझ्नियाक (एपल सह-संस्थापक), जान तल्लिन (स्काइप सह-संस्थापक) र म्याक्स टेगमार्क (एमआईटी) समेत अन्य बिभिन्न तकनीकी व्यक्तित्वहरूले सहमति गरेका छन्।

यो खुला पत्र, विश्वका १,००० भन्दा बढी तकनीकी व्यक्तित्वहरूद्वारा हस्ताक्षर गरिएको हो, जो विकासरत ब्यवसायको सबैभन्दा तेजीले बढ्ने विज्ञान तथा प्रयोगको प्रश्नचिन्ह हुन सक्छ।

“यो योजनाबद्धताको अभाव हो”: पहिलो ठाउँमा, खुला पत्रले स्पष्ट रुपमा जति कि एआई सिस्टमको विकास इतिहासमा गहिरो परिवर्तन ल्याउन सक्छ, तर यथार्थता अनुकूल ढंगले व्यवस्थापन र योजना गरिएको नभएको हुन चाहिँदैन। हस्ताक्षर गर्ने व्यक्तिहरू भन्छन् कि आज दिनका एइआई सिस्टमका निर्माताहरू पनि त्यसको व्यवहार सटिक रूपमा समझ्न सक्दैनन् वा आगामी बर्षमा त्यसको व्यवहार निश्चित गर्न सक्दैनन्।”

“समकालीन एआई प्रणालीहरू सामान्य कामहरूमा मानिसहरूसँग प्रतिस्पर्धा गर्दै आइरहेका छन्, र हामीलाई यो सोध्नु पर्छ: के हामीले म्यानमा आफ्नो सूचना नालीहरूलाई विज्ञापन र झूठलाई भरिएर मशीनले छोराएर बस्न दिने छौं? के हामी सबै काम अटोमेट गर्नु पर्छ? के हामी मानव बाहिरी मनहरू विकसित गर्नु पर्छ जो समयमा जनसंख्या, बुद्धिमत्ता, अप्रचलितता र स्थानांतरणमा हामीलाई उल्टो पर्छ?”

“GPT-4 मा ध्यान दिएर छानबीन गरिएको छ। पत्रले एक पूर्ण AI विकासमा पूर्ण रुपमा रुकावट लागू गर्दैन, तर जीपीटी-४ भन्दा अधिक क्षमता भएका त्यस्ता प्रणालिहरूमा समस्या उत्पन्न हुन्छ।” मुख्य बिन्दु यो हो कि वर्तमान विकासले “आजको शक्तिशाली अत्याधुनिक प्रणालीहरूलाई अझ सटीक, सुरक्षित, व्याख्यायोग्य, पारदर्शी, बलियो, पङ्क्तिबद्ध, भरपर्दो र वफादार बनाउने” मा केन्द्रित हुनुपर्छ।

अन्य शब्दमा, यी प्रणालीहरूको नियंत्रण र विश्वसनीयतामा ठोसी ल्याउन पूर्वक यस्ता प्रणालीहरूको सुधार गर्न पूर्वतयार भइरहेको र अधिकतम क्षमता विकास रोक्ने र आफ्नो संगठन र नियंत्रणको विश्वसनीयता बढाउने कुरामा काम गर्नु पर्छ।

ग्यारेन्टीहरू समावेश गर्ने प्रोटोकलहरू। यी आर्टिफिसियल इन्टेलिजेन्स प्रणालीहरूको विश्वसनीयता र सुरक्षामा काम गर्नु बाहेक, तिनीहरू बीच साझा गरिएको नयाँ सुरक्षा प्रोटोकलहरू विकास गर्ने आवश्यकतालाई टेबलमा राखिएको छ। “यी प्रोटोकलहरूले सुनिश्चित गर्नुपर्दछ कि तिनीहरूलाई पालन गर्ने प्रणालीहरू उचित शंका भन्दा बाहिर सुरक्षित छन्।” तसर्थ, यी प्रणालीहरूको राम्रो कामको ग्यारेन्टी गर्ने निश्चित मापदण्डहरूमा सिर्जना र आसंजन अनुरोध गरिन्छ।

ठूलो नियमन। तिनीहरूले एआईको क्षेत्रमा नयाँ नियामक अधिकारीहरू सिर्जना गर्न आवश्यक पनि टेबुलमा राखे। यी, अनुरोध अनुसार, “अत्यधिक सक्षम एआई प्रणालीहरू” को पर्यवेक्षण र पालना गर्नुपर्छ, साथै कृत्रिम रूपमा सिर्जना गरिएको कुराबाट वास्तविक के हो भनेर छुट्याउन फारमहरू प्रवर्द्धन गर्नुपर्दछ। AI द्वारा सिर्जना गरिएको सम्भावित क्षतिको सन्दर्भमा कानुनी नियमनको कुरा पनि छ, यी मोडेलहरूमा सम्भावित डाटा चुहावट वा यस क्षेत्रमा सुरक्षा अनुसन्धानको लागि सार्वजनिक वित्तिय प्रणालीहरूको ट्रेसिङ गर्नुपर्ने हुन्छ।

“एआईले निम्त्याउने कठोर आर्थिक र राजनीतिक अशान्ति (विशेष गरी लोकतन्त्रका लागि) सामना गर्न संस्थाहरूलाई स्रोतहरूले राम्रोसँग सम्पन्न गर्न आवश्यक छ।”

एक उत्तम समय। पत्र अधिक उपयुक्त समयमा पुग्न सकेन, किनकि यो AI मोडेलहरू प्रश्न गर्ने हप्ता जस्तो देखिन्छ। मार्च 27 मा, युरोपेली पुलिसले चेतावनी दियो कि आपराधिक नेटवर्कहरूले आफ्नो फाइदाको लागि यी प्रकारका उपकरणहरू प्रयोग गर्न सक्छन्। फिसिङ वा अन्य दुर्भावनापूर्ण उद्देश्यहरूमा लागू गरिएका पाठहरू सिर्जना गर्न प्रयोग गरी यी उपकरणहरूको प्रयोगलाई टेबलमा राखिएको विकृतिको सन्दर्भमा प्रभावहरू देखा पर्ने देखिन्छ।

यो खबर पढेर तपाईलाई कस्तो महसुस भयो ?
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
संवाददाता
संवाददाता
Articles: 1314