पिछले हफ्ते, Google ने चुपचाप हथियारों या निगरानी में कृत्रिम बुद्धिमत्ता (AI) तकनीक का उपयोग नहीं करने के लिए एक लंबे समय से चली आ रही प्रतिबद्धता को छोड़ दिया। अपने एआई सिद्धांतों के एक अद्यतन में, जो पहली बार 2018 में प्रकाशित किए गए थे, टेक दिग्गज ने बयानों को आगे नहीं बढ़ाने का वादा किया था: प्रौद्योगिकियां जो समग्र नुकसान, हथियार या अन्य प्रौद्योगिकियों का कारण बनती हैं, जिनका प्रमुख उद्देश्य या कार्यान्वयन का कारण या सीधे होना है लोगों को चोट की सुविधा, प्रौद्योगिकियों जो अंतरराष्ट्रीय स्तर पर स्वीकृत मानदंडों का उल्लंघन करने वाली निगरानी के लिए जानकारी एकत्र या उपयोग करते हैं, और जिन तकनीकों का उद्देश्य अंतर्राष्ट्रीय कानून और मानवाधिकारों के व्यापक रूप से स्वीकृत सिद्धांतों का उल्लंघन करता है।
संयुक्त राज्य अमेरिका के राष्ट्रपति डोनाल्ड ट्रम्प ने पूर्व राष्ट्रपति जो बिडेन के कार्यकारी आदेश को रद्द करने के उद्देश्य से एआई के सुरक्षित, सुरक्षित और भरोसेमंद विकास और उपयोग को बढ़ावा देने के उद्देश्य से यह अपडेट आया।
Google निर्णय राष्ट्रीय सुरक्षा क्षेत्र में प्रवेश करने और AI के अधिक सैन्य अनुप्रयोगों को समायोजित करने वाले बिग टेक की हालिया प्रवृत्ति का अनुसरण करता है। तो अब ऐसा क्यों हो रहा है? और एआई के अधिक सैन्य उपयोग का क्या प्रभाव होगा?
सैन्यीकृत एआई की बढ़ती प्रवृत्ति
सितंबर में, बिडेन सरकार के वरिष्ठ अधिकारियों ने एआई विकास पर चर्चा करने के लिए ओपनआईई जैसी प्रमुख एआई कंपनियों के मालिकों के साथ मुलाकात की। सरकार ने तब आर्थिक, राष्ट्रीय सुरक्षा और पर्यावरणीय लक्ष्यों का वजन करते हुए, डेटा केंद्रों के विकास का समन्वय करने के लिए एक कार्यबल की घोषणा की।
अगले महीने, बिडेन सरकार ने एक ज्ञापन प्रकाशित किया जिसमें भाग में “राष्ट्रीय सुरक्षा उद्देश्यों को पूरा करने के लिए एआई का दोहन” किया गया।
बिग टेक कंपनियों ने जल्दी से संदेश पर ध्यान दिया।
नवंबर 2024 में, टेक दिग्गज मेटा ने घोषणा की कि वह अपने “लामा” एआई मॉडल को सरकारी एजेंसियों और रक्षा और राष्ट्रीय सुरक्षा में शामिल निजी कंपनियों के लिए उपलब्ध कराएगा।
यह मेटा की अपनी नीति के बावजूद था जो लामा के उपयोग पर रोक लगाता है “[m]इलिटरी, वारफेयर, परमाणु उद्योग या अनुप्रयोग ”।
लगभग उसी समय, एआई कंपनी एंथ्रोपिक ने यह भी घोषणा की कि वह डेटा एनालिटिक्स फर्म पलंतिर और अमेज़ॅन वेब सर्विसेज के साथ मिलकर काम कर रही थी ताकि हमें अपने एआई मॉडल तक पहुंच प्रदान की जा सके।
अगले महीने, Openai ने घोषणा की कि उसने अमेरिकी रक्षा विभाग के लिए AI विकसित करने के लिए रक्षा स्टार्टअप एंडुरिल इंडस्ट्रीज के साथ भागीदारी की है।
कंपनियों का दावा है कि वे ड्रोन हमलों के खिलाफ अमेरिकी सेना के बचाव में सुधार करने के लिए एंडुरिल के सिस्टम और सॉफ्टवेयर के साथ Openai के GPT-4O और O1 मॉडल को जोड़ेंगे।
राष्ट्रीय सुरक्षा का बचाव
तीनों कंपनियों ने अमेरिकी राष्ट्रीय सुरक्षा हितों के आधार पर अपनी नीतियों में बदलाव का बचाव किया।
उदाहरण के लिए, Google लें। इस महीने की शुरुआत में प्रकाशित एक ब्लॉग पोस्ट में, कंपनी ने अपने एआई सिद्धांतों को बदलने के कारणों के रूप में ग्लोबल एआई प्रतियोगिता, जटिल भू -राजनीतिक परिदृश्य और राष्ट्रीय सुरक्षा हितों का हवाला दिया।
अक्टूबर 2022 में, अमेरिका ने एआई अनुसंधान के लिए उपयोग किए जाने वाले उच्च-अंत वाले कंप्यूटर चिप्स के विशेष प्रकार के चीन की पहुंच को प्रतिबंधित करते हुए निर्यात नियंत्रण जारी किए। जवाब में, चीन ने उच्च तकनीक वाले धातुओं पर अपने स्वयं के निर्यात नियंत्रण उपाय जारी किए, जो एआई चिप उद्योग के लिए महत्वपूर्ण हैं।
इस व्यापार युद्ध से तनाव हाल के हफ्तों में चीनी टेक कंपनी दीपसेक द्वारा अत्यधिक कुशल एआई मॉडल की रिहाई के लिए धन्यवाद दिया गया। दीपसेक ने अमेरिकी निर्यात नियंत्रण उपायों से पहले 10,000 NVIDIA A100 चिप्स खरीदे और कथित तौर पर अपने AI मॉडल को विकसित करने के लिए इनका उपयोग किया।
यह स्पष्ट नहीं किया गया है कि वाणिज्यिक एआई का सैन्यीकरण अमेरिकी राष्ट्रीय हितों की रक्षा कैसे करेगा। लेकिन इस बात के स्पष्ट संकेत हैं कि अमेरिका के सबसे बड़े भू -राजनीतिक प्रतिद्वंद्वी, चीन के साथ तनाव, किए जा रहे फैसलों को प्रभावित कर रहा है।
मानव जीवन पर एक बड़ा टोल
जो पहले से ही स्पष्ट है कि सैन्य संदर्भों में एआई के उपयोग में मानव जीवन पर एक प्रदर्शन किया गया है।
उदाहरण के लिए, गाजा में युद्ध में, इजरायली सेना उन्नत एआई उपकरणों पर बहुत अधिक भरोसा कर रही है। इन उपकरणों के लिए डेटा के विशाल संस्करणों और अधिक से अधिक कंप्यूटिंग और भंडारण सेवाओं की आवश्यकता होती है, जो Microsoft और Google द्वारा प्रदान की जा रही है। इन एआई उपकरणों का उपयोग संभावित लक्ष्यों की पहचान करने के लिए किया जाता है, लेकिन अक्सर गलत होते हैं।
इजरायल के सैनिकों ने कहा है कि इन अशुद्धियों ने युद्ध में मौत की गिरावट को तेज कर दिया है, जो अब 61,000 से अधिक है, गाजा में अधिकारियों के अनुसार।
Google अपने AI सिद्धांतों से “नुकसान” खंड को हटाने के लिए मानवाधिकारों पर अंतर्राष्ट्रीय कानून का उल्लंघन करता है। यह एक महत्वपूर्ण उपाय के रूप में “व्यक्ति की सुरक्षा” की पहचान करता है।
यह इस बात पर विचार करने से संबंधित है कि एक वाणिज्यिक तकनीक कंपनी को नुकसान के आसपास एक खंड को हटाने की आवश्यकता क्यों होगी।
ए-सक्षम युद्ध के जोखिमों से बचना
अपने अद्यतन सिद्धांतों में, Google का कहना है कि इसके उत्पाद अभी भी “अंतर्राष्ट्रीय कानून और मानवाधिकारों के व्यापक रूप से स्वीकृत सिद्धांतों” के साथ संरेखित करेंगे।
इसके बावजूद, ह्यूमन राइट्स वॉच ने मूल सिद्धांतों में हथियारों के विकास के बारे में अधिक स्पष्ट बयानों को हटाने की आलोचना की है।
संगठन यह भी बताता है कि Google ने यह नहीं बताया है कि उसके उत्पाद मानव अधिकारों के साथ कैसे संरेखित होंगे।
यह कुछ है जो एआई के बारे में जो बिडेन के निरस्त कार्यकारी आदेश से भी चिंतित थे।
बिडेन की पहल सही नहीं थी, लेकिन यह एआई प्रौद्योगिकियों के जिम्मेदार विकास और उपयोग के लिए रेलिंग स्थापित करने की दिशा में एक कदम था।
इस तरह के रेलिंग की आवश्यकता अब पहले से कहीं अधिक है क्योंकि बड़ी तकनीक सैन्य संगठनों के साथ अधिक है-और ए-सक्षम युद्ध के साथ आने वाले जोखिम और मानवाधिकारों का उल्लंघन बढ़ जाता है।