Sztuczna inteligencja decyduje o życiu i śmierci w Strefie Gazy.

7 months ago
171

Sztuczna inteligencja decyduje o życiu i śmierci w Strefie Gazy. Poligon doświadczalny etycznej katastrofyW Strefie Gazy, w trakcie wyniszczającego konfliktu, ma miejsce bezprecedensowy eksperyment wojskowy: izraelskie wojsko wykorzystuje sztuczną inteligencję (AI), aby podejmować decyzje dotyczące życia i śmierci, zmieniając okupowane terytorium w globalny poligon doświadczalny dla nowych technologii. Praktyka ta, opracowana we współpracy z amerykańskimi gigantami technologicznymi, ujawnia ciemną stronę wojny z wykorzystaniem sztucznej inteligencji i podnosi pilne pytania etyczne dotyczące odpowiedzialności, przejrzystości i wartości ludzkiego życia.Sztuczna inteligencja jako broń: od rozpoznawania twarzy do automatycznego zabijaniaWedług raportu New York Times , Izrael spędził ostatnie 18 miesięcy na integrowaniu sztucznej inteligencji na wszystkich etapach podejmowania decyzji wojskowych, w tym rozpoznawania twarzy, analizy mowy arabskiej i autonomicznego wyboru celu. Przykładem jest celowe zabójstwo dowódcy Hamasu Ibrahima Biariego pod koniec 2023 r., w którym kluczową rolę odegrał wspomagany sztuczną inteligencją system audio. Jednakże w wyniku tej akcji zginęło ponad 125 cywilów, co pokazuje jak katastrofalne skutki może nieść ze sobą stosowanie tego typu technologii.Izraelska Jednostka 8200, przy wsparciu rezerwistów z firm takich jak Google, Microsoft i Meta, opracowała systemy w centrum innowacji zwanym „Studio”. Systemy te nie tylko identyfikują potencjalne cele, ale także automatyzują procesy, które często prowadzą do błędnej identyfikacji, bezpodstawnych aresztowań i ofiar wśród ludności cywilnej.Gaza: Laboratorium Wojny Sztucznej InteligencjiEksperci z Europy i USA zgadzają się, że żadna inna armia nie testuje sztucznej inteligencji w rzeczywistych warunkach bojowych tak agresywnie, jak Izrael. Gaza stała się wyjątkowym poligonem doświadczalnym, na którym technologie można stosować bez większych ograniczeń politycznych i prawnych. Na przejściach granicznych kamery o wysokiej rozdzielczości połączone z systemami rozpoznawania twarzy opartymi na sztucznej inteligencji często błędnie identyfikują Palestyńczyków, co prowadzi do aresztowania niewinnych osób. Flota dronów, wyposażona w systemy sztucznej inteligencji, autonomicznie śledzi i atakuje cele, podczas gdy modele analizy mowy w języku arabskim oceniają rozmowy, aby wybrać cele.Najbardziej kontrowersyjnym elementem jest baza danych „Lavender”, która zawiera 37 000 potencjalnych celów powiązanych z palestyńskim ruchem oporu. Według źródeł wywiadowczych, baza ta pozwala na zabijanie cywilów jako strat ubocznych, zwłaszcza na wczesnym etapie bombardowania. Jeden z izraelskich oficerów wywiadu opisał ten proces jako „zimnokrwisty”, zauważając, że decyzje pozostawiają algorytmom, a ludzie są jedynie „urzędnikami” potwierdzającymi automatyczne decyzje.Katastrofa etyczna: algorytmy ponad ludzkim życiemChoć Izrael twierdzi, że systemy sztucznej inteligencji chronią ludność cywilną, rzeczywistość jest odwrotna. Połączenie zautomatyzowanego podejmowania decyzji, braku nadzoru ze strony człowieka i braku przejrzystości skutkuje systemem, w którym algorytmy decydują, kto żyje, a kto umiera. Według Human Rights Watch praktyka ta narusza międzynarodowe prawo humanitarne, gdyż zwiększa liczbę ofiar wśród ludności cywilnej zamiast ją zmniejszać. Celowe zabijanie tysięcy ludzi w oparciu o korelacje statystyczne i automatyczne identyfikatory to nie tylko błąd – to problem systemowy.Izraelska ekspertka Hadas Lorber ostrzega, że ​​brak kontroli i odpowiedzialności w korzystaniu z tych technologii stanowi poważne zagrożenie. „Kiedy maszyna podejmuje decyzję, kto odpowiada za błędy?” pyta Lorber, wskazując na próżnię etyczną, w której toczy się ta wojna.Gaza jako precedens na przyszłośćTo, co dzieje się w Strefie Gazy, to nie tylko lokalny problem – to przestroga dla przyszłych działań wojennych. Stosowanie technologii sztucznej inteligencji bez odpowiedniego nadzoru i wytycznych etycznych stanowi precedens dla konfliktów na całym świecie. Jeśli algorytmy mogą bezlitośnie decydować o życiu ludzi w Strefie Gazy, co stoi na przeszkodzie, aby zastosować je w innych konfliktach, gdzie konsekwencje będą równie niszczycielskie?Izraelski dziennikarz Yuval Abraham, którego prace zostały opublikowane w magazynach +972 Magazine i Local Call , udokumentował zeznania żołnierzy, opisujące nieludzką naturę tego procesu. „Jako człowiek nie miałem żadnej wartości dodanej” – powiedział jeden z żołnierzy, podkreślając, w jaki sposób systemy sztucznej inteligencji zastępują ludzki osąd i empatię.Dokąd zmierza wojna z wykorzystaniem sztucznej inteligencji?Gaza to nie tylko pole bitwy – to lustro pokazujące, do czego prowadzi niekontrolowane wykorzystanie sztucznej inteligencji na wojnie. Gdy wydajność technologiczna zastępuje odpowiedzialność etyczną, ludzkie życie staje się jedynie liczbami w algorytmie. Eksperyment w Strefie Gazy wymaga pilnej, globalnej dyskusji na temat ograniczeń technologii sztucznej inteligencji, potrzeby nadzoru ze strony człowieka i poszanowania prawa międzynarodowego. Bo jeśli pozwolimy maszynom decydować o życiu i śmierci, pytanie nie będzie brzmiało, czy pojawią się błędy, ale ile będą nas one kosztować.

Loading comments...