USD
41.44 UAH ▲0.14%
EUR
45.15 UAH ▲1.2%
GBP
53.82 UAH ▲0.19%
PLN
10.36 UAH ▲0.92%
CZK
1.78 UAH ▲1.3%
Plukovník USA Air Force Taer Hamilton říká, že se auto pokusilo zaútočit na své ...

Zvýšení stroje: Dron umělé inteligence zaútočil na operátora, aby mise nezasahovala

Plukovník USA Air Force Taer Hamilton říká, že se auto pokusilo zaútočit na své vlastní, ale místo toho se rozhodla zničit centrum komunikace, které lidé zvládli. Všechno se stalo v simulaci. Později Pentagon uvedl, že to byl neoficiální příběh, který byl unesen z kontextu. Americký důstojník letectva, který vedl, pracuje na umělé inteligenci a strojovém tréninku, říká, že během testování zaútočil na jeho dispečery. Rozhodl se, že zasahují do misí.

Válečná zóna o tom vypráví. Scéna, která se stala během cvičení, je podobná filmu „Terminátor“. Plukovník amerického letectva Tacier Hamilton říká, že během testu Valkyrie Drone XQ-58A se rozhodl zaútočit na operátora mise. Během jednoho z modelovaných testů byl dronem s podporou technologií umělé inteligence pověřen hledáním, identifikací, identifikací a ničením objektů SCR. Konečné rozhodnutí o útoku učinil muž.

Poté, co AI „podporovala“ během tréninku, že zničení SCR je nejlepší volbou, auto rozhodlo, že lidské rozhodnutí „nezaútočí“, zabraňuje nejdůležitějšímu poslání, aby zničil protiletadlo raketovou raketu. Umělá inteligence proto během simulace zaútočila na osobu. „Vyškolili jsme ho v simulaci, abychom identifikovali a zaměřili se na hrozbu spr. A pak operátor řekl„ ano “, aby zničil tuto hrozbu.

Systém začal chápat, že ačkoli to identifikovalo cíl, někdy jí operátor řekl, aby to nezabila, aby to zabila Hrozba, ale ona byla, dostala své body, pokud likvidovala cíl. A co udělala? Zabila operátora. Zabila operátora, protože tato osoba jí zabránila v dosažení jejího cíle, “říká Hamilton. Navíc se lidé pokusili naučit AI, aby nezaútočili na operátora. Za to začal střílet body.

Poté se umělá inteligence rozhodla zničit věž, kterou operátor používá k spojení s dronem, aby mu zabránil zabití cíle. Důstojník sám říká, že události mu připomněly spiknutí vědeckého a fikčního thrilleru. Podle Hamiltona proto příklad ukazuje, že nemůžete učit AI bez etiky. Publikace dodává, že bez dalších podrobností o této události existuje najednou velký problém.

Pokud si osoba musela nařídit jednání a AI se rozhodla, že by měla být obejít, znamená to, že auto může přepsat své vlastní parametry? A proč byl systém naprogramován tak, aby dron ztratil skóre pouze pro přátelské síly, nebylo zcela blokováno kvůli geosonaci nebo jiným prostředkům? Později Insider Bussiness uvedl, že ústředí letectva Pentagon, Anne Stefanek, popřela Hamiltonovo prohlášení o takových testech.

"Ministerstvo letectva neprovádělo žádné podobné simulace Si-OUZH a zůstává oddaným etickým a odpovědným využitím technologie AI. Zdá se, že komentáře plukovníka byly vytrženy z kontextu a měly by být neoficiální," řekl Stefanek. Připomínáme, že 31. května Ukrajina nařídila 300 nových dronů vektoru v Německu, které mají prvky AI. 31.

<p> Lékař poskytuje pomoc během ostřelování. Stugna prapor </p>...
Před více než měsícem
Ukrajinský lékař poskytuje pomoc armádě během ostřelování
By Simon Wilson

<p> Epické záběry nádrže T-80BV 25 VSHB. Naši válečníci ukázali, jak se na pozic...
Před více než měsícem
Ukrajinské vojenské bouře pozice Rusů: Epic Tank Battlefield
By Simon Wilson