Technologie

Pokročilé státy jsou schopny vytvořit kybernetický popis, který obchází jakoukoli ochranu: co je ohrožující

Škodlivý software vytvořený umělou inteligencí vám umožní provádět rychlé a nepostřehnutelné zelí, které ovlivňují počítače a další oběti. Prostřednictvím umělé inteligence školení o velkých databázích mohou technologicky pokročilé státy již vytvořit obezřetnou kybernetickou obranu. To je varováno Národním střediskem kybernetické bezpečnosti Spojeného království (NCSC).

Za účelem vytvoření takového výkonného softwaru musí subjekty hrozby učit model AI pomocí databází s vysokou kvalitou - škodlivé počítačové programy, fragmenty kódů nebo příkazy, které používají zranitelnost systémů. Výsledný systém vytvoří nový kód, který obchází aktuální bezpečnostní opatření.

„Existuje realistická pravděpodobnost, že státy s vysokými technologiemi mají škodlivé programy, které jsou dostatečně velké, aby pro tento účel vyučovaly model umělé inteligence,“ varovala NCSC. Toto varování bylo pouze součástí řady poplachových signálů, které NCSC ve své zprávě zmínila.

Agentura očekává, že umělá inteligence zhoršuje globální hrozbu válečníků, zlepší pátrání a sledování obětí a sníží bariéru pro pronikání kybernetických zločinů. Generativní AI také zhoršuje hrozby v oblasti sociálního inženýrství, jako jsou přesvědčivé interakce s oběťmi a vytvoření svůdných dokumentů. AIS komplikuje detekci phishingu, vyčerpání a škodlivých požadavků e -mailem nebo resetem hesla.

Z tohoto důvodu obdrží národové state nejsilnější zbraně. „Velmi schopné státní subjekty mají téměř jistě největší potenciál jako zdroj kybernetických hrozeb využívat potenciál umělé inteligence v rozšířené kybernetickém provozu. “ V blízké budoucnosti se však očekává, že umělá inteligence zhoršuje dostupné hrozby a ne vytvoří kvalitativně nová rizika. Odborníci se obávají zejména toho, že to zhoršuje globální hrozbu válečníků.

„Válečníci jsou i nadále ohroženi národní bezpečností,“ říká James Babbage, generální ředitel agentury. Je nepravděpodobné, že by pokročilejší možnosti útoku byly implementovány do roku 2025, ale po zlepší se systém umělé inteligence, říkají vědci. To začne úspěšné krádeže dat, stále přesnější zelí. Dokonce i dostupné systémy AI jsou schopny vyvolat nebezpečí kvůli jejich trvalé tendenci klamat, která byla napsána zaměřením.