Autor: Prof. univ. dr. Mircea DUTU, Director emerit al Institutului de Cercetări Juridice al Academiei Române, Preşedintele Universităţii Ecologice din Bucureşti

Distribuie pe Facebook Distribuie pe X Distribuie pe Email

În urmă cu un an, la 1 noiembrie 2023, Prima Comisie (pentru dezarmare şi securitatea internaţională) a Adunării generale a ONU a adoptat (cu votul a 164 state, 5 contra şi 8 abţineri) întâia rezoluţie privind armele autonome, subliniind „necesitatea urgentă pentru comunitatea internaţională de a răspunde provocărilor şi preocupărilor ridicate de sistemele de arme automate. După 10 ani de discuţii internaţionale şi faţă de evoluţiile tehnologice rapide, adoptarea respectivei rezoluţii constituia un pas înainte, deschizând calea instaurării unui cadru juridic menit să garanteze un control uman semnificativ, privind recurgerea la forţă, chiar dacă în acest fel nu s-a mers prea departe în privinţa angajării unor negocieri intense pe acest subiect, însă documentul întărea încrederea internaţională şi semnala că o acţiune politică urgentă trebuie întreprinsă pentru a ne pune la adăpost de riscurile grave generate de implicarea noilor tehnologii, în frunte cu aplicaţiile IA în domeniu.

Prezentată de Austria şi de alte 43 de state (coiniţiatoare), rezoluţia recunoştea „dezvoltarea rapidă de tehnologii noi şi emergente” şi făcea referinţă la „provocările serioase şi preocupările pe care noile aplicaţii tehnologice în domeniul militar, inclusiv cele legate de inteligenţa artificială şi autonomia sistemelor de arme le ridică, deopotrivă, din punct de vedere umanitar, juridic, securitar tehnologic şi etic”. Se exprimau, de asemenea, îngrijorări referitoare la „consecinţele negative posibile şi impactul sistemelor de arme automate asupra securităţii mondiale şi stabilităţii regionale şi internaţionale, inclusiv riscul unei curse a armamentelor emergente, coborând pragul conflictelor şi proliferării, inclusiv pentru actorii nestatali”. Rezoluţia cerea Secretarului general al ONU să pregătească un raport care să reflecte punctele de vedere ale statelor membre şi observatoare asupra sistemelor de arme autonome şi mijloacele de a releva provocările şi preocupările ridicate din punct de vedere umanitar, juridic, securitar, tehnologic şi etic şi asupra rolului urmărilor în recurgerea la forţă. S-a prevăzut ca pe ordinea de zi a forumului mondial al statelor să se înscrie un punct intitulat „Sisteme de arme letale autonome”, furnizând o platformă suplimentară în cadrul ONU care să permită statelor să urmărească acţiunile pertinente.

Evenimente

28 noiembrie - Profit Financial.Forum

În acelaşi context, în octombrie 2023, Secretarul general al ONU şi preşedintele Comitetului internaţional al Crucii Roşii au adoptat un apel conjugat pentru un nou drept internaţional privind armele autonome şi, în acest sens la încheierea, până în 2026 a unui instrument juridic (obligatoriu), sprijinindu-se pe o declaraţie comună a 70 de state. Ca un prim rezultat al acestor demersuri, la 22 decembrie 2023 Adunarea generală a ONU adopta rezoluţia 78/241 privind Sisteme de arme letale autonome (cu 150 de voturi pentru, 4 contra şi 11 abţineri) prin care se recunoşteau „mizele mari şi viile îngrijorări pe care le ridică… utilizarea noilor aplicaţii tehnologice în domeniul militar, inclusiv cele legate de inteligenţa artificială şi autonomia sistemelor de arme”. Documentul sublinia pericolele reprezentate de suprimarea controlului uman în recurgerea la forţă, iar largul sprijin de care s-a bucurat adoptarea sa arăta că guvernele sunt gata să acţioneze aşa încât, în termenul cel mai scurt, să se treacă la negocierea unui tratat internaţional în materie. Unele sisteme de arme autonome există de mai mulţi ani, dar tipurile, durata funcţionării, amploarea geografică şi mediul în care funcţionează sunt limitate. În acelaşi timp, progresele tehnologice stimulează dezvoltarea sistemelor de arme autonome fără control uman semnificativ, delegându-se decizii de viaţă şi de moarte maşinilor, care să determine unde, când ori contra căror adversari ele vor fi utilizate, mai degrabă decât un operator uman. Se cerea Secretarului general al ONU să solicite avizul statelor şi al altor părţi interesate asupra mijloacelor de a răspunde provocărilor şi preocupărilor ridicate de sistemele de arme autonome „din punct de vedere umanitar, juridic, securitar, tehnologic şi etic” şi de a reflecta aceste punct de vedere într-un raport prezentat Adunării generale a ONU. În fine, se prevedea înscrierea unui punct pe ordinea de zi a sesiunii acesteia din 2024 intitulat Sisteme de arme letale autonome, oferind astfel o platformă de discuţie statelor care doreau să continue acţiunea în vederea elaborării unui răspuns politico-juridic acestei probleme.

1. O necesară dezbatere teoretică. Recursul la noile tehnologii în conflictele armate este în plină ascensiune în condiţiile progreselor fulgurante din domeniul inteligenţei artificiale şi al roboticii. Printre atari noi instrumente de război, „sistemele de arme letale autonome” ori „roboţii ucigaşi” cu denumirile lor utilizate în mass-media, fac obiectul unei ample dezbateri, inclusiv din perspective juridice.

Printre lucrările recente consacrate subiectului se remarcă volumul La Guerre à l’ère de l’intelligence artificielle (PUF, Paris, 2024) datorat şefei departamentului de geopolitică al Institutului Francez de Relaţii Internaţionale (IFRI), dr. Laure de Roucy-Rochegonde.

Într-un articol cu titlul sugestiv Comment „l’intelligence artificielle” conduirait la guerre publicat în urmă cu aproape patru decenii (Le Monde Diplomatique, septembrie 1985), analistul D. Desbois considera că anul 1983 ar fi reprezentat punctul de plecare spre această „nouă frontieră” a puterii de calcul a ordinatoarelor, prin crearea succesivă a Microelectronics and Computer Technology Corporation (MCC) în SUA, apoi lansarea de către Comisia Comunităţilor Europene a programului ESPRIT (European Strategic Program for Research in Information Technology), ale căror roluri erau acelea de coordonare a eforturilor de cercetare şi de a centraliza rezultatele în scopul de a anunţa programele aflate în lucru la Institute for New Generation Computer Technology (ICOT) sub tutela ministerului japonez al industriei şi comerţului internaţional (MITI). Cu precizarea că în SUA ministerul apărării dăduse semnalul mobilizării partenerilor industriali prin intermediul agenţiei sale specializate în programe de cercetare, DARPA publicând în octombrie 1983 un proiect intitulat „informatică strategică”, elaborat de Information Processing Techniques Office (IPTO) devenit principalul „sponsor” al laboratoarelor industriale şi universitare în materie de informatică. La acele începuturi anunţate, efortul în privinţa componentelor de soft era organizat în jurul „inteligenţei artificiale” şi se fonda, în particular, pe perspectivele deschise printr-o utilizare „largă şi intensivă” a sistemelor experte. Se arăta, în acelaşi timp, că viitorul software trebuia să doteze maşinile de a cincea generaţie cu funcţii echivalente capacităţilor intelectuale ale umanilor, precum înţelegerea limbajului natural, viziunea, cuvântul şi diverse tipuri de raţionament autonom. În concret se vorbea, de exemplu, pentru armata terestră de o nouă clasă de vehicule capabile să evolueze într-un mediu ostil pe baza unei lungi autonomii a mişcării şi raţionamentului, în privinţa aviaţiei, un „copilot” care să poată asista personalul navigant, adesea debordat de masa de informaţii în timpul deciziilor critice de angajare a aparatelor de vânătoare ori bombardierelor şi, în fine, în zona marinei de un sistem de conduită a câmpului de luptă capabil să ia în calcul date neverificate pentru a prezice apariţia evenimentelor probabile, precum şi să elaboreze strategii de acţiune şi scenarii, pe baza unei învăţări, explicitând opţiunile la care prezidează logica deciziilor.

Respectivele trei aplicaţii, care imaginau vehicule uscat-aer-mare complet autonome şi capabile să îndeplinească misiuni complexe de recunoaştere, de atac şi de apărare la mare distanţă trebuiau să ilustreze puterea tehnologiei şi să catalizeze procesul de creare tehnică.

Totuşi, primele anunţuri privind integrarea IA în sistemele de armament datează cu puţin înainte de 2010; în 2022 se estima că statele cele mai avansate în materie erau SUA şi China şi într-o măsură mult mai mică şi Federaţia Rusă. Primele exemplificări concrete ale „armelor IA” aveau să se producă în cadrul conflictelor militare în curs, cel din Ucraina (declanşat în 2022) şi, respectiv, din Orientul Mijlociu (2023).

2. Implicaţii operative. Din punct de vedere operaţional, asemenea tehnologii ameliorează viteza, anduranţa şi coordonarea pe câmpul de luptă, ceea ce reprezintă un avantaj decisiv. Ele permit, de asemenea, o reducere a costurilor operaţiunilor respective, precum şi o mai bună folosire a capacităţilor umane, permiţând, în fapt, unui stat să-şi apere interesele sale fără a sacrifica şi nici măcar a risca vieţi. Într-un context de reducere a formatului armelor occidentale şi de redusă toleranţă a pierderilor umane, aceste arme emergente se dovedesc deosebit de atractive. În consecinţă, cum sublinia un specialist chinez al domeniului, „lupta fără oameni e pe cale a se afirma progresiv ca viitor al progresului”. Totuşi, ideea nu întruneşte unanimitateşi nu puţini sunt militarii care contestă o atare perspectivă; potrivit unui studiu realizat în 2013 în rândul americanilor, 55% din persoanele intervievate se opuneau tendinţei în favoarea utilizării armelor în întregime autonome. Această opinie era reprezentată în mod omogen la persoane de genuri, vârste şi convingeri politice diferite. Membrii personalului militar în serviciul activ, a căror înţelegere a realităţii conflictelor armate e mai directă şi mai sofisticată, constituiau în acelaşi timp grupul care respingea în modul cel mai ferm aceste arme, respectiv 73% dintre ei se opuneau ideii. De altfel, istoria dezvoltării de arme autonomizate în armata americană cunoaşte mai multe exemple de programe anulate în pofida investiţiilor considerabile consacrate. Într-un raport pe această temă se identifica chiar o „reticenţă cultuală faţă de încredinţarea deciziilor de atac algoritmilor şi softurilor”. Cum s-ar explica, atunci, această rezistenţă la armele autonome din partea profesioniştilor folosirii forţei, care sunt militarii? Emergenţa acestor sisteme trebuie văzută într-o dorinţă mai largă de prezervarea umanului a efectelor forţei. Aceasta s-ar explica prin trei tendinţe principale. Prima, multiplicarea angajamentelor exterioare şi de mai redusă importanţă – adică unele ce nu ating în mod direct interesele vitale ale statelor angajate în conflict – fiind mai dificil faptul de a cere combatanţilor „sacrificiul suprem”. Dacă un soldat e gata să moară pentru patria sa atunci când aceasta e ameninţată, el nu e în mod necesar dispus să facă aceasta pentru intervenţii care nu reprezintă un risc existenţial pentru stat. Pe de altă parte, pentru opinia publică e mai puţin tolerabil de a vedea murind tinerii pentru cauze îndepărtate şi adeseori rău înţelese. Apoi, apariţia noilor tehnologii din ce în ce mai sofisticate generează o „credinţă într-un război fără aléa, unde putem distinge obiecte automate sacrificate nerecuperabile de obiectele umane apărate”. Odată cu armele autonome un nou prag tehnologic e pe cale să fie depăşit, care lasă să se întrevadă un orizont în care umanul ar putea să fie total retras din câmpul de luptă, nu numai din mediile periculoase, ci şi din faţa combatanţilor adverşi pe un teritoriu clasic. În fine, în al treilea rând, reducerea pierderilor printre militari nu e preconizată numai ca o miză morală ci, totodată, ca o chestiune de prudenţă. Şi aceasta, având în vedere atât eficienţa militară, pierderile umane compromiţând în mod logic capacitatea forţelor de a rezista inamicului, cu cât costul ridicat al formării militare în armatele profesioniste face pierderea unui soldat deosebit de costisitoare din punct de vedere economic, cât şi că practicienii forţei, la rândul lor, se dovedesc mai puţin entuziaşti faţă de această tendinţă de autonomizare. Organizaţiile militare se dovedesc, în mod tradiţional, mai puţin grăbite în a adopta inovaţiile tehnologice, în special atunci când acestea sunt susceptibile să modifice în profunzime modul în care sunt duse războaiele, iar autonomia nu face excepţie de la regulă. Şi aceasta întrucât în starea actuală a lucrurilor, dacă potenţialul său pentru apărare aeriană, şi sarcini plictisitoare, ingrate ori periculoase este în mod larg admis, există încă obiecţie asupra integrării sale în funcţiile critice ale sistemelor de arme, în special pentru operaţiunile de luptă. Dacă militarii nu au o aversiune naturală faţă de schimbare, totuşi, aşa cum se susţine frecvent, orice schimbare într-un context militar e un risc. O nouă tehnologie cunoaşte, în mod necesar, disfuncţionalităţi atunci când e integrată şi adoptarea sa necesită o perioadă de învăţare şi de adaptare care în timpul unui conflict poate să fie o sursă de vulnerabilitate ori de reducere a eficienţei. În acest fel, personalul militar tinde să prefere tehnologiile mai vechi, chiar dacă le sunt disponibile instrumente mai recente şi cu potenţial mai eficace. În fapt, ofiţerii preferă adesea să se sprijine pe o tehnologie pe care ştiu să o utilizeze şi în care au încredere, mai degrabă decât pe una de care se teme de înfrângere la un moment crucial. Aşadar, prudenţa şi conservatorismul instituţiei militare faţă de noile tehnologii reprezintă un fenomen istoric bine documentat şi relativ cunoscut. Raţiunile care, în trecut, au motivat opoziţia la trecerea la puterea aeriană, la navele pe abur şi la carele de asalt nu sunt foarte diferite de cele care explică scepticismul şi rezistenţa faţă de autonomia de astăzi.

3. Provocări morale. În acelaşi context complicat se manifestă şi o altă dimensiune a problemei, cea de ordin moral. Încă în 2017, generalul american Paul Selva, pe atunci adjunctul şefului statului major interarme, declara că el „nu consideră că ar fi rezonabil să se dea roboţilor sarcina de a decide dacă luăm o viaţă umană sau nu”. Există deci un puternic stigmat moral la ideea ca maşinile să poată să selecţioneze şi să deschidă focul asupra ţintelor umane, fără ca un operator să ia decizia. Unii ofiţeri apreciază emergenţa armelor autonome nu numai ca incompatibilă cu paradigmele operaţionale cu care sunt obişnuiţi, dar şi ca punând în pericol etica lor profesională. Autonomia e uneori văzută de militari ca o ameninţare – chiar o insultă – pentru identitatea lor profesională căci, potrivit opiniei lor, ar face, progresiv, ca meseria lor să apară ca mai puţin „nobilă” şi ar face să fie depăşite competenţele şi responsabilităţile lor fundamentale. Precedentul dronelor armate ilustrează foarte bine o atare idee. Numai piloţii de vânătoare continuă să se opună adoptării de vehicule aeriene teleportate. O anchetă asupra atitudinii piloţilor USAir Force faţă de drone a relevat că identitatea lor profesională era atât de intersectată cu actul de a zbura încât aceştia ar prefera mai degrabă să părăsească serviciul decât să piloteze o dronă! În plus, contractul moral pe care se bazează războiul e pus sub semnul întrebării de aceste mijloace de luptă dezumanizate. Desigur, moralitatea războiului e prin esenţa sa paradoxală; în timp ce statele se află sub o obligaţie moral-juridică de a minimaliza riscurile pentru soldaţii lor prin crearea de „situaţii asimetrice” spre a domina adversarul, această asimetrie pune în pericol „permisul de a ucide” acordat soldaţilor, care se întemeiază pe legitimitatea apărării reciproce. Se avansează ideea că acest drept e astfel concedat combatanţilor care se apără ei înşişi de ameninţarea adusă de combatanţii inamici. Fiecare reprezintă un risc pentru altul, având dreptul de a se proteja, mergând la moarte dacă e necesar. Dreptul de a ucide se bazează prin consecinţă pe faptul că toţi participanţii sunt expuşi la un risc mortal în luptă. E raţiunea pentru care mulţi autori se îngrijorează de impactul pe care armele autonomeîl poate avea asupra soldaţilor: modificarea dreptului de a ucide prezintă, în consecinţă, riscul de a-şi vedea valorile lor războinice că se erodează.

Această schimbare de paradigmă e susceptibilă să inducă ceea ce un autor denumea şi descria precum o „criză a etosului militar”. Fără posibilitatea sacrificiului suprem, care fondează eroismul, pe ce valori s-ar putea sprijini funcţia militară?

4. Dimensiuni juridice. Ideea de a vedea o maşină care să ia viaţa unei fiinţe umane este, în consecinţă, deosebit de tulburătoare pentru că atunci când soldatul ucide el recunoaşte, chiar dacă aceasta în mod paradoxal, umanitatea victimei sale. El îşi identifică adversarul ca o altă fiinţă umană, chiar dacă aceasta reprezintă o ameninţare pentru el. Pentru un timp foarte scurt ei se întâlnesc, afirmându-şi astfel în mod reciproc existenţa şi umanitatea lor. Dimpotrivă, atunci când un robot trage asupra unei persoane, această întâlnire nu are loc; umanitatea victimei este deci negată sau, în orice caz, nu primeşte recunoaşterea pe care o merită. În acest fel opozanţii armelor autonome avertizează asupra unui risc de dezumanizare a războiului, dincolo de simpla retragere a omului de pe câmpul de luptă. Această viziune negativă a tehnologiei se bazează pe ideea că dacă vizează iniţial umanul, ajunge a se transforma într-un răspuns fasonat de tehnologie. Unii denunţă în acest sens apariţia unui „război fără virtuţi” în care curajul, onoarea, camaraderia ori loialitatea ar fi aneantizate prin sosirea roboţilor pe teatrul de operaţiuni.

În avizul său asupra integrării autonomiei sistemelor de arme, Comitetul de etică al armatei franceze nota în acest sens că folosirea acestora de forţele armate ale Hexagonului „ar aduce atingere demnităţii soldaţilor francezi şi eticii militare”. Se trăgea un semnal de alarmă asupra riscurilor în perceperea de către militarii înşişi a operaţiunilor militare şi a legitimităţii lor. În fine, cum anticipa Carl von Clausewitz în tratatul său „Despre război”, orice metodă ce ar furniza planuri de război şi de campanie fixe şi ieşite de-a gata dintr-o maşină ar trebui să fie respinse fără condiţii.

Din punctul de vedere al dreptului internaţional umanitar în vigoare, asemenea evoluţii ridică numeroase probleme de acceptabilitate şi de conformare. La nivelul regulilor fundamentale, mai întâi potrivit principiului precauţiei e nevoie ca, în caz de conflict, civilii să fie puşi la adăpost înainte de a se ţinti un obiectiv; apoi, imperativul distincţiei între civili şi militari prezintă cerinţe particulare în atari situaţii; nu în ultimul rând, principiul proporţionalităţii, conform cu care „lovitura nu trebuie să fie excesivă în raport cu avantajul concret şi direct aşteptat”, ridică aspecte specifice de respectare a cerinţelor sale.

4.1. Necesitatea controlului uman. Dincolo de aprecierile de ordin tehnico-politic, este de domeniul evidenţei că armele autonome reprezintă o ameninţare deosebit de gravă şi controlul asupra lor o prioritate, inclusiv şi mai ales din perspectiva reglementării juridice. După mai bine de un deceniu de dezbateri şi negocieri în cadrul ONU nu s-a ajuns la un acord privind interzicerea armelor letale autonome. Dreptul internaţional umanitar cere ca militarii să facă distincţie între combatanţii înarmaţi şi civili şi să le aplice tratamente şi reguli diferite. Printre tezele avansate în acest context a fost şi aceea ca un actor uman să facă parte din ciclul decizional, înainte ca o armă să fie lansată. În acelaşi timp, în anumite împrejurări, cum ar fi apărarea împotriva rachetelor care se apropie, nu există timp pentru o intervenţie umană. Deoarece contextul e important, se impune astfel să se definească strict în codul de programare ce pot şi ce nu trebuie să facă armele. Cu alte cuvinte, ar trebui să existe un om „deasupra buclei”, mai degrabă decât „în buclă” (referire la modul de luare a deciziilor strategic-militare numit „bucla OODA” (Observă, Orientează-te, Decide şi Acţionează) după cum sugerează unii din specialiştii domeniului. Cu precizarea că nu e vorba doar de o chestiune speculativă, aşa cum o arată deja experienţele concrete. Aşa, de exemplu, în războiul din Ucraina, ruşii au bruiat semnalele forţelor armate ucrainene, obligându-le să-şi programeze dispozitivele spre a lua decizii finale în mod autonom cu privire la momentul în care să tragă. Se apreciază că unul dintre cele mai mari pericole sunt legate de utilizarea aplicaţiilor IA în războiul biologic sau în cadrul acţiunilor teroriste. La momentul în care, prin tratat internaţional în 1972 şi ţinând seama de nivelul de dezvoltare tehnologică de atunci s-a convenit să se interzică armele biologice, convingerea generală era aceea că astfel de dispozitive nu sunt utile, din cauza riscului de „detonare” în propria tabără. Dar, cu ajutorul biologiei sintetice, a devenit posibilă dezvoltarea unei arme care să distrugă selectiv un anumit grup, şi nu pe un altul. Referitor la terorism, o persoană de acest gen care are la dispoziţie un laborator şi ar dori să ucidă, pur şi simplu, cât mai mulţi oameni cu putinţă – aşa cum a făcut cultul apocaliptic Aum Shinrikyo în Japonia, în 1995 – s-ar putea folosi IA pentru a dezvolta un virus contagios. În privinţa reglementării, una prin excelenţă internaţională, s-a propus ca model, cu adaptările necesare, cea existentă în domeniul tehnologiei nucleare, respectiv tratatul de neproliferare din 1968, cu sistemul său de inspecţii periodice din partea AIEA a programelor energetice naţionale pentru confirmarea utilizării sale exclusiv în scopuri paşnice. De asemenea, se fac trimiteri şi la acordul din 1978 privind instituirea de restricţii în exportul de instalaţii şi informaţii tehnice critice, reglatori care au asigurat până acum un anumit control şi o siguranţă în folosirea energiei nucleare. Un atare precedent ar sugera câteva posibile perspective pentru situaţia IA, chiar dacă între cele două tehnologii există diferenţe evidente. Desigur, progresul tehnologic se desfăşoară mult mai rapid decât înaintează rezultatele concrete ale negocierilor şi se pot stabili reglementări juridice pertinente.

4.2. Imperativul unei reglementări urgente şi perspectivele adecvate. Este de domeniul evidenţei că proliferarea „roboţilor ucigaşi” constituie o ameninţare şi pentru dreptul internaţional umanitar şi protecţia civililor, ceea ce presupune ca problema să fie reglementată printr-un tratat internaţional adecvat. Aşadar, armele automate sunt sisteme care, odată activitate, au capacitatea de a selecţiona o ţintă şi a angaja o forţă letală numai graţie analizei captatorilor, fără intervenţie umană. Ele ridică chestiuni fundamentale de ordin etic, umanitar, juridic, operaţional, moral şi securitar. Perspectiva utilizării şi proliferării lor devine o ameninţare serioasă, care nu mai poate fi ignorată şi impune intervenţia dreptului. Şi aceasta întrucât, de lege lata, e mai mult decât incert că armele automate ar avea capacitatea de a respecta legile războiului, în particular atunci când e vorba de a distinge combatanţii de necombatanţi, ori de a determina dacă daunele civile anticipate ale unui atac sunt proporţionale avantajului militar scontat, o decizie care nu poate fi luată decât de la caz la caz şi care implică judecata umană. Civilii riscă să plătească un preţ enorm. În plus, în caz de nerespectare a dreptului internaţional, va fi foarte dificil din punct de vedere juridic, chiar injust, de a angaja răspunderea pertinentă a operatorilor umani pentru acţiunile întreprinse de sistemele de arme autonome care nu puteau nici să le prevadă şi nici controla. Tocmai spre a face totul spre a se evita să se întâmple ceea ce experţii în materie şi organizaţiile societăţii civile avertizează, s-a iniţiat ca acţiune preventivă de urgenţă interzicerea şi reglementarea sistemelor de arme autonome.

Conflictele militare în desfăşurare ilustrează în mod dramatic cum războaiele se digitalizează şi accelerează; în Orientul Mijlociu armata israeliană utilizează sisteme de ţintire asistate de IA „Gospel” şi „Lavender”; în Burkina Faso şi în Etiopia se recurge la drone armate cu bombe şi alte muniţii ghidate prin laser. În Ucraina, Nagorno-Karabah şi în Libia sunt utilizate muniţiile Zombi. Asemenea investiţii militare în autonomie şi alte tehnologii emergente antrenează omenirea pe o pantă glisantă, din ce în ce mai periculoasă. În trecut, statele au acţionat în mod concertat pentru a interzice armele chimice şi biologice, laserele oarbe, minele antipersonal şi armele cu muniţie în dispersie. Tratatele privind dezarmarea (umanitară) au condamnat orice utilizare a acestor arme de către orice actor şi în toate împrejurările. Chiar statele nesemnatare ale acestor documente au sfârşit aliniindu-se unor atari reguli, punând capăt utilizării lor ori reducându-le drastic, salvând astfel numeroase vieţi civile.

Începând cu 2013, provocările ridicate de armele automate fac obiectul dezbaterilor internaţionale, mai întâi în cadrul Comisiei pentru drepturile omului a ONU de la Geneva (înlocuită apoi de Consiliul drepturilor omului), apoi în cadrul Convenţiei privind interzicerea sau limitarea folosirii anumitor categorii de arme clasice care ar putea fi considerate ca producând efecte traumatice excesive sau care ar lovi fără discriminare, încheiată la New York la 8 aprilie 1982 (ratificată de România prin Legea nr. 40 din 24 mai 1995) [CCAC]. Astăzi, în condiţiile regulii consensului, o minoritate de state, printre care Federaţia Rusă şi India, blochează propunerile vizând negocierea unei noi reglementări internaţionale privind sistemele automate în cadrul CCAC. Pentru ieşirea din impas, Austria şi alte ţări au propus discutarea problemei în cadrul Adunării generale a ONU, un forum mondial ce include mai multe state decât statele-părţi la Convenţia privind unele arme clasice. Acest cadru permite, totodată, tratarea unor chestiuni mai largi relative la drepturile umane, la proliferare, securitate şi alte mize ridicate de armele autonome şi în plus respectarea dreptului războiului. Progresele înregistrate într-un atare context vor fi mult mai puţin susceptibile să fie blocate de un număr restrâns de state care se opun oricărei reglementări în domeniu.

Aşadar, Adunarea generală a ONU a reprezentat cadrul capabil de a oferi ocazia avansării negocierilor în vederea încheierii unui tratat internaţional care să răspundă numeroaselor preocupări referitoare la sistemele de arme automate; faţă de pericolele indicate de oamenii de ştiinţă, de jurişti, de organizaţiile de apărare a drepturilor omului, precum şi de urgenţa de a opri automatizarea violenţei în războaie şi în afara lor, protecţia civililor şi fixarea de repere juridice ferme şi pertinente devin o prioritate absolută.

Într-un raport publicat la 6 august 2024, Secretarul general al ONU a reiterat apelul său faţă de statele membre în vederea încheierii până în 2026 a unui nou tratat internaţional care să „interzică sistemele de arme care funcţionează fără control ori supervizare umană şi a căror utilizare e incompatibilă cu dreptul internaţional umanitar”. Un atare acord ar trebui să reglementeze toate celelalte tipuri de arme autonome.

Documentul reflectă 58 de contribuţii provenind din 73 de ţări, precum şi alte 33 contribuţii aparţinătoare Comitetului internaţional al Crucii Roşii şi organizaţiilor civice. De menţionat că 47 din cele 58 de contribuţii reflectă poziţii favorabile anumitor forme de interzicere ori de reglementare a sistemelor de arme autonome. Totodată, Adunarea generală a ONU e considerată „locul propice discuţiilor inclusive” pertinente ţinându-se seama de reprezentativitatea aproape universală şi aşteptările oferite.

La 24 octombrie 2024 Prima Comisie a Adunării generale a ONU a anunţat că a încheiat discuţiile tematice anuale asupra armelor clasice, iar printre concluziile reţinute în acest context se află şi aceea că nu există un răspuns unic pentru controlul circulaţiei, utilizării, distrugerii ori interdicţiei lor. De aceea, în afara tratelor deja existente, pe care marea majoritate cere să fie aplicate pe deplin şi să le universalizeze, statele membre pledează pentru luarea de măsuri specifice în cadrul proceselor multilaterale în curs, în special prin intermediul diverselor proiecte de rezoluţie, aspectele legate de dezvoltarea rapidă a înaltelor tehnologii militare urmând mai degrabă dimensiunile „etice şi umanitare”. Discuţiile purtate se desfăşoară în cadrul Grupului de experţi guvernamentali privind sistemele de arme letale autonome (SALA) instituit în cadrul CCAC. În poziţiile exprimate cu această ocazie, relevându-se inevitabila dezvoltare a tehnologiilor bazate pe IA în sistemele de arme, se încurajează o utilizare de apărare a IA responsabile şi cu respectarea dreptului internaţional; unele delegaţii au apreciat ca îngrijorător faptul ca algoritmul să poată decide viaţa oamenilor şi au susţinut imperativul menţinerii unui control uman asupra oricărei folosiri eventuale a forţei şi, în consecinţă, nevoia adoptării unui instrument juridic internaţional pertinent. În fine, China s-a pronunţat, la rându-i, în favoarea negocierii unui atare acord dar „numai în cadrul Convenţiei privind anumite categorii de arme clasice”.

Impactul aplicaţiilor militare ale IA asupra dreptului internaţional în general, şi cel umanitar în special reprezintă deja o provocare reală şi majoră a lumii. Reglementarea sa şi respectarea principiului controlului uman asupra noilor tehnologii reprezintă o prioritate absolută. În acelaşi timp, respectarea normelor interstatale imperative pendinte în cauză şi adoptarea altora noi adecvate, presupune o abordare la nivel mondial, cu o deschidere universală şi urmarea căii adoptării unui tratat internaţional special privind interzicerea producerii, proliferării şi utilizării armelor letale automate, cu participarea unui număr cât mai mare de state-părţi, în frunte cu marile puteri tehnologice şi militare.

viewscnt
Urmărește-ne și pe Google News

Conținutul acestui comunicat de presă este în întregime responsabilitatea autorului său. News.ro nu își asumă în niciun fel responsabilitatea pentru acuratețea informațiilor prezentate sau a modului de redactare a comunicatului.