Raportul, publicat în martie, susținea că drona, un quadcopter Kargu-2, produsă de compania de tehnică militară turcă STM, a atacat soldații în retragere fideli generalului libian Khalifa Haftar.
Raportul de 548 de pagini al Grupului de experți al Consiliului de Securitate al ONU asupra Libiei nu a detaliat dacă au existat victime din cauza incidentului, dar ridică întrebări dacă mai au rost eforturile globale de interzicere a roboților autonomi ucigași.
Pe parcursul anului, Guvernul de acord național recunoscut de ONU a împins forțele afiliate Haftar (HAF) înapoi din capitala libiană Tripoli, iar drona ar fi putut fi funcțională din ianuarie 2020, au remarcat experții citați de New Scientist
„Convoaiele logistice și retragerea forțelor afiliate Haftar (HAF) au fost urmărite ulterior și atacate la distanță de vehiculele aeriene de luptă fără pilot sau de sistemele letale de arme autonome, cum ar fi STM Kargu-2”, a menționat raportul ONU.
Kargu este o dronă care folosește clasificarea obiectelor bazată pe învățarea automată pentru a selecta și angaja ținte, conform STM, și are, de asemenea, capacități de a zbura în roiuri pentru a permite 20 de drone să lucreze împreună.
„Sistemele de arme autonome letale au fost programate pentru a ataca ținte fără a necesita conectivitate între operator și muniție”, au scris experții în raport.
Drona fanion a lui Erdogan îi convinge pe aliați. Care țară din NATO a spart gheața
Mulți cercetători în domeniul roboticii și AI în trecut, inclusiv Elon Musk, și alte câteva personalități proeminente precum Stephen Hawking și Noam Chomsky au cerut interzicerea „armelor autonome de atac”, cum ar fi cele cu potențialul de a căuta și ucide anumite persoane pe baza programării lor.
Experții au avertizat că seturile de date utilizate pentru instruirea acestor roboți ucigași autonomi pentru a clasifica și identifica obiecte precum autobuze, mașini și civili ar putea să nu fie suficient de complexe sau robuste și că sistemul de inteligență artificială (AI) ar putea învăța greșit.
Ei au avertizat, de asemenea, despre „cutia neagră” în învățarea automată, în care procesul de luare a deciziilor în sistemele de AI este adesea opac, prezentând un risc real ca dronele militare complet autonome să execute ținte greșite, motivele rămânând greu de dezlegat.
Zachary Kallenborn, un consultant de securitate națională specializat în vehicule aeriene fără pilot, consideră că există un risc mai mare ca ceva să mearga prost atunci când mai multe astfel de drone autonome comunică și își coordonează acțiunile, cum ar fi un roi de drone.
„Comunicarea creează riscuri de eroare în cascadă, în care o eroare a unei unități este împărtășită cu alta”, a scris Kallenborn în Buletin.
„Dacă cineva ar fi ucis într-un atac autonom, ar reprezenta probabil un prim caz istoric cunoscut de arme autonome bazate pe inteligență artificială folosite pentru a ucide”, a adăugat el.
Fiți la curent cu ultimele noutăți. Urmăriți DCBusiness și pe Google News
Ţi s-a părut interesant acest articol?
Urmărește pagina de Facebook DCBusiness pentru a fi la curent cu cele mai importante ştiri despre evoluţia economiei, modificările fiscale, deciziile privind salariile şi pensiile, precum şi alte analize şi informaţii atât de pe plan intern cât şi extern.