AI z podtekstem biblijnym. Izrael w walce z Hamasem wykorzystuje sztuczną inteligencję

Grzegorz Kuczyński
Grzegorz Kuczyński
Część celów ataków Izraela wskazuje system sztucznej inteligencji
Część celów ataków Izraela wskazuje system sztucznej inteligencji Fot. SAID KHATIB/AFP/East News
Izraelskie wojsko atakuje cele w Strefie Gazy z niespotykaną intensywnością, na dodatek – przy takiej sile ognia – straty wśród ludności cywilnej są niższe, niż można by się spodziewać. Czy to zasługa wprowadzania na coraz większą skalę sztucznej inteligencji, zwłaszcza jednego systemu, namierzania celów, noszącego nazwę… Ewangelia?

W najnowszym konflikcie Izrael wykorzystuje swoją sztuczną inteligencję na niespotykaną dotąd skalę. Wojna wywołana brutalnym atakiem Hamasu trwa już dwa i pół miesiąca, w tym czasie siły izraelskie uderzyły w ponad 22 tys. celów w Strefie Gazy. Izraelskie wojsko twierdzi, że wykorzystuje sztuczną inteligencję do wybierania celów w czasie rzeczywistym. Chodzi o system AI, który pomaga szybko identyfikować wrogich bojowników i ich sprzęt, jednocześnie zmniejszając liczbę ofiar wśród ludności cywilnej.

Jednak pomimo zastosowania tak zaawansowanej technologii w izraelskich atakach na Strefę Gazy zginęło ok. 18,6 tys. osób, z czego niemal jedna trzecia to dzieci.

Ewangelia dla Gazy

System namierzania AI, z którego korzysta Izrael, może generować cele w szybkim tempie. Habsora (ang. gospel, pol. Ewangelia) został opracowany przez Jednostkę 8200 wchodzącą w skład wojskowego wywiadu Aman. Jest ona odpowiednikiem amerykańskiej NSA – mówiąc krótko: wywiad radioelektroniczny. Żołnierze Jednostki 8200 należą do najlepszych i najzdolniejszych izraelskich ekspertów w dziedzinie zaawansowanych technologii, często biegle posługujących się językiem arabskim. System Ewangelia jest stosunkowo nowy – pierwszy raz o nim usłyszano publicznie w 2020 roku, gdy dostał nagrodę za innowacyjność.

Ewangelia jest jednym z kilku programów AI wykorzystywanych przez izraelski wywiad. Inne systemy sztucznej inteligencji agregują ogromne ilości danych wywiadowczych i klasyfikują je. Celami mogą być pojedynczy bojownicy, sprzęt taki jak wyrzutnie rakiet lub obiekty takie jak stanowiska dowodzenia Hamasu. Ewangelia jest znacznie bardziej wydajny od analityków ludzkich. Grupa 20 oficerów może namierzyć 50-100 celów w ciągu 300 dni. Dla porównania, Ewangelia i powiązane z nim systemy sztucznej inteligencji mogą zasugerować około 200 celów w ciągu 10-12 dni - tempo to jest co najmniej 50 razy szybsze.

Chociaż nie wiadomo dokładnie, jakich danych używa Ewangelia do tworzenia swoich sugestii, prawdopodobnie pochodzą one z wielu różnych źródeł: wiadomości z telefonów komórkowych, zdjęć satelitarnych, nagrań z dronów, a nawet czujników sejsmicznych. System rekomenduje cel, zaś analityk wywiadu wojskowego decyduje, czy przekazać informację żołnierzom w terenie, czy to siłom powietrznym, lądowym czy morskim. Służy do tego specjalna aplikacja, jaką mają w swoich smartfonach dowódcy oddziałów.

Nie wiadomo, ile celów jest obecnie generowanych przez samą sztuczną inteligencję. Gdy Izrael prowadził operację wojskową w Strefie Gazy w 2021 roku, armia mówiła, że z 1500 celów około 200 wskazała AI. Należy zakładać, że obecnie ten udział jest wyższy.

Bank celów AI

Działania oddziału, utworzonego w 2019 r. w dyrekcji Aman, są niejawne. Jednak w krótkim oświadczeniu na stronie internetowej IDF stwierdzono, że w wojnie z Hamasem wykorzystywany jest system oparty na sztucznej inteligencji o nazwie Habsora (Ewangelia), aby "produkować cele w szybkim tempie". W ostatnich latach dział celów pomógł IDF zbudować bazę danych zawierającą od 30-40 tys. podejrzanych bojowników. Systemy takie jak Ewangelia odegrały kluczową rolę w tworzeniu list osób przeznaczonych do likwidacji.

Precyzja ataków zalecanych przez "bank celów AI" jest podkreślana w wielu doniesieniach izraelskich mediów. Dziennik „Yedioth Ahronoth” informował, że jednostka "upewnia się, że w miarę możliwości nie będzie żadnych szkód dla cywilów". Operatorzy w terenie używają "bardzo dokładnego" pomiaru liczby cywilów ewakuujących się z budynku na krótko przed atakiem. Wywiad używa algorytmu do oceny liczby pozostałych cywilów w celu – od tego zależy, czy wojsko dostanie światło zielone, żółte czy czerwone.

Według danych opublikowanych przez IDF w listopadzie, w ciągu pierwszych 35 dni wojny Izrael zaatakował 15 000 celów w Strefie Gazy, co jest liczbą znacznie wyższą niż poprzednie operacje wojskowe na gęsto zaludnionym terytorium przybrzeżnym. Dla porównania, w wojnie z 2014 roku, która trwała 51 dni, IDF zaatakowały od 5 000 do 6 000 celów.

Wojna przyszłości

Izraelskie wojsko IDF (Cahal) od dawna ma reputację jednego z liderów na świecie, jeśli chodzi o wykorzystywanie nowych technologii na polu walki. Ewangelia był używany do tworzenia automatycznych zaleceń dotyczących atakowania celów, takich jak prywatne domy osób podejrzanych o bycie członkami Hamasu lub Islamskiego Dżihadu. Już po kampanii majowej w Strefie Gazy w 2021 mówiono, że Izrael stoczył "pierwszą wojnę AI". Podczas 11-dniowej operacji system generował 100 celów dziennie, z czego średnio połowa była atakowana. W przeszłości analitycy Amanu identyfikowali w Strefie Gazy 50 celów… rocznie.

Izrael nie jest oczywiście jedynym państwem, które w coraz większym stopniu wprowadza AI na użytek czy to wojska, czy służb wywiadowczych. Na dużą skalę robią to USA, ale też wiadomo o takich działaniach w Rosji i Chinach. Wojsko wykorzystuje zdalne i autonomiczne systemy, aby zwiększyć wpływ swoich oddziałów i chronić życie żołnierzy. Systemy AI mogą sprawić, że żołnierze będą bardziej wydajni i prawdopodobnie zwiększą szybkość i śmiercionośność działań wojennych - nawet gdy ludzie staną się mniej widoczni na polu bitwy, zamiast tego zbierając dane wywiadowcze i celując z daleka.

Wykorzystanie sztucznej inteligencji może utrudnić pociągnięcie do odpowiedzialności za na przykład omyłkowe uderzenie w cywilów. Chociaż ludzie nadal ponoszą odpowiedzialność prawną za ataki, nie jest jasne, kto jest odpowiedzialny, jeśli system celowania zawiedzie. Czy jest to analityk, który zaakceptował rekomendację AI? Programiści, którzy stworzyli system? Oficerowie wywiadu, którzy zebrali dane szkoleniowe?

Pomimo różnych zastrzeżeń i obaw co do skuteczności AI w namierzaniu wroga, większość ekspertów zgadza się, że jest to początek nowego etapu w wykorzystaniu sztucznej inteligencji w działaniach wojennych. Były szef amerykańskiego wywiadu wojskowego (DIA) Robert Ashley zwraca uwagę na to, że algorytmy mogą przesiewać dane wywiadowcze znacznie szybciej niż ludzie-analitycy. Algorytmy celowania mogą być krokiem ku systemom autonomicznym, które ostatecznie zostaną wdrożone na polu bitwy. Te zrobotyzowane systemy będą prawdopodobnie w stanie identyfikować i zabijać cele bez większej lub żadnej interwencji człowieka. Sprawi to, że walka w przyszłości będzie jeszcze szybsza i bardziej śmiercionośna.

Źródło: NPR, Guardian

ag

emisja bez ograniczeń wiekowych
Wideo

Wskaźnik Bogactwa Narodów, wiemy gdzie jest Polska

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na X!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na X!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Komentarze

Komentowanie artykułów jest możliwe wyłącznie dla zalogowanych Użytkowników. Cenimy wolność słowa i nieskrępowane dyskusje, ale serdecznie prosimy o przestrzeganie kultury osobistej, dobrych obyczajów i reguł prawa. Wszelkie wpisy, które nie są zgodne ze standardami, proszę zgłaszać do moderacji. Zaloguj się lub załóż konto

Nie hejtuj, pisz kulturalne i zgodne z prawem komentarze! Jeśli widzisz niestosowny wpis - kliknij „zgłoś nadużycie”.

Podaj powód zgłoszenia

Nikt jeszcze nie skomentował tego artykułu.
Wróć na i.pl Portal i.pl