Izraelská armáda používá AI k výběru cílů: Jak je to záhadný systém Fire Factory
Přestože armáda nekomentuje konkrétní operace, úředníci tvrdí, že nyní používají systém doporučení SI, který může zpracovat obrovské množství dat pro výběr cílů pro letecké údery.
Všechny nájezdy a údery jsou předpovídány pro analýzu z systému Fire Factory System, který používá údaje o vojenských cílech schválených pro výpočet počtu munice, upřednostňuje priority a naznačuje tisíce cílů podle letadel a dronů a nabízí vhodnou optimální mrtvici. To vše je způsobeno skutečností, že systém je založen na umělé inteligenci a algoritmech pro progresivní výpočet.
Podrobnosti o armádě se samozřejmě neodhalují, ale říkají, že továrna na ohniště, speciálně navržená pro rychlou a přesnou analýzu zpracování obrovských polí nahoru -date a archivních dat „Co trvalo o hodinu dříve, nyní trvá minuty , s několika minutami na kontrolu osoby, “ - řekl plukovník Uri, který vede armádní jednotku digitální transformace tanku.
„Díky rozvoji neurotranů se stejným počtem lidí děláme mnohem víc než dříve,“ zdůraznila armáda. Izraelská obranná armáda používá AI po dlouhou dobu, ale v posledních letech tyto systémy rozšířila na různé jednotky. Některé z těchto systémů byly postaveny izraelskými dodavateli obrany; Jiní, jako jsou hvězdné hraniční kontrolní kamery, vyvinuly samotnou armádu.
Tento systém kombinuje funkci video dohledu s rychlou identifikací lidí a objektů, které byly identifikovány. Systém je společně velká digitální architektura určená k analýze obrovského množství videí z kamer dronů a video pro sledování a satelitní obrázky. Tahal odmítá hlásit jakékoli podrobnosti o technologii rozpoznávání obličeje používané v Startrack.
Tento systém je aktivně kritizován aktivisty v oblasti lidských práv, ale izraelská armáda slibuje, že nebude integrovat umělou inteligenci do softwaru pro najímání vojenského personálu kvůli rizikům rozlišování žen a potenciálních kadetů od nižších sociálně-ekonomických skupin.
Nejdůležitějším faktorem, který se obává obránců lidských práv, jsou rizika obětí mezi civilisty, které se mohou objevit kvůli nesprávným řešením nástrojů pro umělou inteligenci. Izraelská armáda je odůvodněna skutečností, že neuronové sítě jsou velmi přesným nástrojem a analytické algoritmy mohou překročit lidské schopnosti a mohou vojenskému pomoci minimalizovat ztráty.
Někteří analytici však tuto odpověď nevyhovují, věnují pozornost rychlé a téměř nekontrolované skutečnosti vývoje a používání systémů založených na umělé inteligenci. Podle některých odborníků navíc je dnes hranice mezi poloautonomními a zcela autonomními systémy tak rozmazaná, že je často nemožné pochopit, kdo nakonec učiní vojenské rozhodnutí: osoba nebo auto.
„Pokud ve výpočtech CI dojde k chybě, kdo za tuto chybu obviňujeme?“, - - zeptá se Tal Mimran, učitel mezinárodního práva na židovské univerzitě v Jeruzalémě a bývalý právní poradce armády. „Můžete zničit nevinnou rodinu nebo polovinu města kvůli chybě neuronové sítě nebo nesprávné analýze a kdo bude vinen?“ Dodává. Dříve se zaměřením uvedl, že v budoucích válkách s roboty a SI by mohly začít.