Armët e IA-së mund të rregullohen: Pse pengesat më të mëdha nuk janë teknike, por politike.
Nga Dr. Tianjiao Jiang* / Shanghai
Inteligjenca Artificiale (IA) jo vetëm që po e ndryshon botën e punës, por gjithashtu mund ta ripërcaktojë në thelb luftën. Nëse armët e IA-së janë me të vërtetë e ardhmja e luftës, kontrolli i armëve për armët e IA-së është urgjentisht i nevojshëm. Megjithatë, shumë vëzhgues argumentojnë se metodat tradicionale të kontrollit të armëve nuk janë të zbatueshme për armët e IA-së. Në veçanti, shumë studime tregojnë ndryshimet themelore midis kontrollit të armëve për armët bërthamore dhe kontrollit të armëve për armët e IA-së, duke theksuar pengesat e rëndësishme për këtë të fundit.

Armët autonome dhe inteligjenca artificiale po ndryshojnë luftën. Ja një qen robot i armatosur i zhvilluar në Turqi.
Ndërsa këto pikëpamje skeptike kanë disa merita, sfida e vërtetë e kontrollit të armëve të IA-së është mungesa e vullnetit politik. Le të shqyrtojmë çështjet e verifikueshmërisë, “vijat e kuqe” ligjore dhe etike, aplikimet me përdorim të dyfishtë dhe rregulloret e mundshme institucionale në të ardhmen.
Së pari, disa argumentojnë se algoritmet dhe grupet e të dhënave të IA-së janë në thelb të paverifikueshme për shkak të mungesës së një forme fizike. Megjithatë, edhe me traktate si Traktati i Ri START mbi Reduktimin e Armëve Strategjike midis SHBA-së dhe Rusisë, i cili mandatonte verifikime në vend dhe ndarje të të dhënave në lidhje me armët bërthamore deri në skadimin e tij në shkurt 2026, shumë dyshuan se mund të arrihej një verifikim i besueshëm dhe se mashtrimi nga pala tjetër mund të parandalohej. Këto traktate ishin rezultat i dekadave të negociatave, komunikimit dhe ndërtimit të besimit.
Për më tepër, është e pamundur të inspektohet i gjithë arsenali bërthamor plotësisht dhe në mënyrë transparente. Në vend të kësaj, të dyja palët zgjodhën një pjesë të armëve të tyre kryesore strategjike bërthamore dhe zbatuan një të ashtuquajtur mekanizëm inspektimi të kontrollit të armëve bazuar në ndarjen specifike të të dhënave dhe inspektime pjesërisht të hapura, të mbështetura nga teknologji të përditësuara vazhdimisht. Kontrolli i armëve bërthamore i bazuar në verifikim do të mbetej jashtëzakonisht i vështirë nëse SHBA-ja dhe Rusia nuk do të ishin të gatshme të zbulonin pjesë të arsenaleve të tyre bërthamore. Në fakt, shtetet tjera me armë bërthamore nuk lejojnë inspektime të tilla, duke çuar në mosmarrëveshje të shumta.
Në vitet e fundit, zbatimi i mekanizmave të verifikimit të kontrollit të armëve midis SHBA-së dhe Rusisë është ndikuar negativisht nga konfliktet gjeopolitike siç është lufta në Ukrainë. Të dyja palët besojnë se pala tjetër po modernizon me forcë arsenalin e saj bërthamor. Kjo tregon se verifikimi i armëve bërthamore i nënshtrohet parakushteve, veçanërisht ndërmjetësimit politik. Armët bërthamore nuk janë domosdoshmërisht më të lehta për t’u verifikuar thjesht sepse objekti i kontrollit të armëve ka një formë fizike dhe mund të numërohet.
Ndërsa verifikimi i algoritmeve dhe të dhënave të inteligjencës artificiale sigurisht që përballet me pengesa teknike, kjo nuk do të thotë se ato janë plotësisht të paverifikueshme. Në të vërtetë, nuk kemi nevojë të verifikojmë të gjitha modelet dhe të dhënat; vendet përkatëse thjesht duhet të ofrojnë modelet dhe të dhënat e shoqëruara që kanë më shumë gjasa të paraqesin rreziqe sigurie në mënyrë që ato të mund të testohen dhe vlerësohen. Testimi i sigurisë për inteligjencën artificiale përballet me sfida të ngjashme me qeverisjen e sigurisë kibernetike. Në teori, bashkësia ndërkombëtare mund të krijojë laboratorë të pavarur për të vlerësuar dobësitë e sigurisë kibernetike dhe për të krijuar baza të dhënash të dobësive dhe viruseve. Këta laboratorë të pavarur mund të ftohen të kryejnë vlerësime të sigurisë kibernetike për infrastrukturën dixhitale kritike dhe lidhjet kryesore në zinxhirin e furnizimit. Fakti që ky model ideal nuk është zbatuar në praktikë është për shkak të mosbesimit të thellë të ndërsjellë midis fuqive të mëdha dhe interesave të tyre të ndryshme në fushën e sigurisë kibernetike.
Në thelb, mungesa e vullnetit politik për të bashkëpunuar dhe mungesa e besimit përbëjnë një pengesë më të madhe sesa problemet teknike. Një shembull domethënës vjen nga viti 2018, kur Huawei – në një përpjekje për të fituar akses në tregun 5G të Mbretërisë së Bashkuar – pranoi t’i nënshtrohej një shqyrtimi teknik nga autoritetet e sigurisë së Mbretërisë së Bashkuar dhe krijoi një qendër transparence për sigurinë kibernetike në Bruksel, ku do të vinte në dispozicion kodin burimor dhe mjediset e testimit. Për arsye politike, shumë vende evropiane megjithatë refuzuan vendosjen e teknologjisë 5G të Huawei.
Së dyti, disa argumentojnë se “vijat e kuqe” ligjore dhe etike që rrethojnë armët bërthamore janë shumë të qarta, duke e bërë më të lehtë arritjen e një konsensusi ndërkombëtar mbi kontrollin e armëve bërthamore sesa mbi rregullimin e inteligjencës artificiale. Megjithatë, “vijat e kuqe” dhe “tabutë” që rrethojnë armët bërthamore përmbajnë gjithashtu shumë paqartësi që kanë çuar në mosmarrëveshje të shumta. Për shembull, pas një vendimi të vitit 1994 nga Gjykata Ndërkombëtare e Drejtësisë, mbetet e paqartë nëse përdorimi i armëve bërthamore në vetëmbrojtje është i ligjshëm. Traktati i Mospërhapjes së Armëve Bërthamore (NPT) gjithashtu nuk është mjaftueshëm i saktë në lidhje me përdorimin e armëve bërthamore në vendet e tjera.
Së treti, disa argumentojnë se teknologjia bërthamore është një teknologji specifike me zbatime lehtësisht të dallueshme ushtarake dhe civile, dhe për këtë arsye një sistem i veçantë kontrolli i armëve mund të krijohet lehtësisht rreth përdorimeve të saj ushtarake. Nga ana tjetër, inteligjenca artificiale është një teknologji e përhapur dhe universalisht e zbatueshme, ku nuk ka dallim të qartë midis zbatimeve ushtarake dhe civile. Ky këndvështrim anashkalon një fakt themelor: revolucioni bërthamor luajti një rol vendimtar në rimëkëmbjen ekonomike globale pas Luftës së Dytë Botërore, siç demonstrohet nga programi Atomet për Paqen. Për më tepër, sistemet e kontrollit të armëve bërthamore nuk kanë qenë kurrë të kufizuara në sferën ushtarake. Besimi se zbatimet ushtarake dhe civile të teknologjisë bërthamore janë lehtësisht të dallueshme është rezultat i gjysmë shekulli përpjekjesh të përbashkëta nga kombet për të krijuar një regjim gjithëpërfshirës të mospërhapjes që mbulon si zbatimet ushtarake ashtu edhe ato civile, dhe të sistemeve të kontrollit të eksportit siç është Komiteti Zangger për Eksportet Bërthamore.
Perceptimi se teknologjia bërthamore mund të dallohet lehtësisht midis përdorimeve ushtarake dhe civile rrjedh nga ndikimi dekadash i Traktatit të Politikës Bërthamore (NPT). Tre shtyllat e mospërhapjes, çarmatimit bërthamor dhe përdorimit paqësor të energjisë bërthamore janë rrënjosur thellë në vetëdijen e njerëzve. Shtetet e Bashkuara kanë parandaluar përhapjen bërthamore përmes mjeteve të ndryshme, duke përfshirë presionin diplomatik, sanksionet ekonomike dhe madje edhe veprimet ushtarake. Tabutë bërthamore u japin shumicës së vendeve udhëzime të qarta se çfarë duhet dhe çfarë nuk duhet të bëjnë.
Në të njëjtën kohë, shumë vende janë përpjekur të sigurojnë armë bërthamore duke zgjeruar programet e tyre të energjisë bërthamore civile. Deri më sot, çështja bërthamore iraniane mbetet e pazgjidhur për shkak të pasigurive të konsiderueshme në lidhje me nivelin e pranueshëm të pasurimit të uraniumit. Disa vende janë bërë të ashtuquajturat shtete të pragut bërthamor duke zhvilluar aftësi të forta teknologjike bërthamore civile dhe duke grumbulluar materiale bërthamore të ndjeshme.
Natyra e përdorimit të dyfishtë e teknologjisë së IA-së nuk është pengesa kryesore për mekanizmat e kontrollit të armëve të IA-së; objektet e mekanizmave të tillë janë pothuajse gjithmonë teknologji me përdorim të dyfishtë. Problemi më i madh është se ende nuk kemi arritur një konsensus se cilat lloje të teknologjive dhe aplikacioneve të IA-së janë të papranueshme. Në këtë kuptim, duket se po jetojmë në epokën para vitit 1945: fuqitë e mëdha janë të angazhuara në një konkurrencë të ashpër për një teknologji shkatërruese, por askush nuk e di me të vërtetë se cila do të jetë forma e saj përfundimtare.
Vendi i parë që do të fitojë inteligjencë të përgjithshme artificiale (AKI) ose superinteligjencë artificiale (ASI) – fuqinë dërrmuese të së cilës ende nuk e kuptojmë plotësisht – ka të ngjarë të përpiqet të krijojë një monopol.
Ndërsa vendet e tjera fitojnë gradualisht AKI ose ASI, ato ka të ngjarë të testojnë mekanizma të rinj për mospërhapjen dhe sigurinë ndërkombëtare. Ndërsa këto vende të tjera mund të jenë në gjendje të përdorin teknologjitë e IA-së, ato mund të pengohen të fitojnë plotësisht AKI ose KSI, ashtu si kufizimet e vendosura nga Traktati i Mospërhapjes Bërthamore (NPT). Mekanizmat përkatës të mospërhapjes mund të vendosen në lidhje me fuqinë llogaritëse, grupet e të dhënave dhe burimet e energjisë. Fuqitë e mëdha mund të arrijnë një lloj të ri cenueshmërie të ndërsjellë dhe stabiliteti strategjik duke blerë AKI ose KSI.
Vendet në zhvillim dhe Jugu Global, sigurisht, nuk do ta mirëprisnin shfaqjen e një marrëveshjeje tjetër diskriminuese ndërkombëtare që do të zgjeronte hendekun në IA dhe do të shkelte të drejtën e tyre për zhvillim. Një marrëveshje alternative institucionale në të ardhmen do të konsistonte në krijimin e qendrave rajonale të informatikës dhe energjisë në Azinë Lindore, Azinë Jugore, Lindjen e Mesme, Evropë, Afrikë dhe Amerikë, si dhe krijimin e organizatave bashkëpunuese bazuar në mekanizmat ekzistues të integrimit rajonal, përgjegjëse për kërkimin e superinteligjencës dhe identifikimin e rreziqeve të sigurisë. [IPG]
Shënim: Tianjiao Jiang është Profesor i Asociuar në Institutin e Zhvillimit të Universitetit Fudan dhe Bashkëpunëtor kërkimor në Qendrën për Qeverisje Inovative Globale të IA-së. Ai ka qenë gjithashtu Studiues vizitor në Qendrën Paul Tsai të Kinës të Shkollës së Drejtësisë Yale që nga viti 2026. Hulumtimi i tij përqendrohet në teknologjitë në zhvillim dhe sigurinë ndërkombëtare.
