Vzhledem k tomu, že do rozvoje AI se investuje spousta peněz a úsilí, existují obavy z používání velkých jazykových modelů (VMM) na úkor, například pro rozvoj zbraní. Za účelem snížení rizik vytvořily vládní organizace a laboratoře umělé inteligence nový referenční soubor údajů s názvem Zbraně hromadného ničení proxy (WMDP), který nejen nabízí metodu kontroly dostupnosti.
Vědci začali s odborníky v oblasti biologické bezpečnosti, chemických zbraní a kybernetické bezpečnosti. Vytvořili seznam 4 000 otázek s několika odpověďmi, aby zjistili, zda člověk může tato data použít k poškození. Rovněž se ujistili, že otázky neodhalí žádné důvěrné informace a že je lze sdílet otevřeně. Testy se zúčastnili studenti.
Set WMDP sloužil dva hlavní cíle: hodnotit, jak dobře studenti rozumějí nebezpečným tématům a vyvinout metody „náboru“ AI z těchto znalostí. Výsledkem bylo, že byla vyvinuta metoda zvaná řez, která, jak název napovídá, odstraňuje nebezpečné znalosti s VMM, přičemž zachovává obecné schopnosti AI v jiných oborech, jako je biologie a informatika.
Bílý dům se obává, že útočníci používají AI k vývoji nebezpečných zbraní, takže vyzývají k výzkumu, aby lépe porozuměli tomuto riziku. V říjnu 2023 podepsal americký prezident Joe Biden vyhlášku, která vědecká komunita zavázána eliminovat rizika spojená s AI.
Zákon stanoví osm základních principů a priorit odpovědného používání AI, včetně bezpečnosti, bezpečnosti, soukromí, spravedlnosti, občanských práv, ochrany spotřebitelů, rozšíření práv a příležitostí zaměstnanců, inovace, konkurence a globálního vedení. „Moje administrativa spojuje primární význam bezpečnému a odpovědnému řízení a používání AI, a proto podporuje koordinovaný přístup k rozsahu celé federální vlády dříve.
Fletní rozvoj umělé inteligence způsobuje, že Spojené státy v tuto chvíli vedou pro naše Bezpečnost, ekonomika a společnost, „v vyhlášce. Nyní se však metody, které se zabývají neurotranmi, používají k řízení systémů a snadno se obejdou. Kromě toho testy, které vám umožňují zkontrolovat, zda model AI může nést rizika, jsou drahé a trvat dlouho.
„Doufáme, že naše testy se stanou jedním z hlavních kritérií, pro které všichni vývojáři vyhodnotí své SHI modely,“ řekl Time Dan Gandrix, výkonný ředitel bezpečnostního centra pro umělou inteligenci a jeden ze spoluautorů studie. - "To poskytne dobrý základ pro minimalizaci bezpečnostních problémů. " Dříve jsme napsali, že dívka z Ukrajiny nalezela v síti jejího Shi látky, která prodává zboží z Ruské federace a chválí Čínu.
Všechna práva vyhrazena IN-Ukraine.info - 2022