Didzhital“ na Facebooku podle Eric Schmidt v blízké budoucnosti kvůli problémům s Čínou a americkou bezpečnost bude muset uzavřít dohodu o omezení v oblasti umělé inteligence, stejně jako dříve zakázal test jaderných bomb a podepsal další důležité smlouvy v této oblasti. V 60. letech vytvořily země svět, který znemožnil „překvapení“ a dosáhl rovnováhy důvěry.
Nyní nikdo nepracuje na takových omezeních pro umělou inteligenci, i když je „stejně mocný“. „Jsem velmi znepokojen tím, že americký postoj k Číně jako zkorumpované, komunistické nebo jiné země a čínský postoj k Americe jako selhání umožní lidem říci:„ Můj Bože, myslí si něco “a pak zahájit něco jako hádanku. Začínáme něco dělat pro zbraně nebo přípravu, způsobujete obavy druhé strany, “řekl Eric Schmidt.
Podle Schmidta si nebyl plně vědom síly informací, když Google zamířil. Nyní vidí potenciální poškození technologie, a proto je vyzývá, aby je vytvořili v úvahu etické normy a morální hodnoty lidstva. Hirošima a Nagasaki jsou dvě japonská města, která Spojené státy zničily na konci druhé světové války upuštěním jaderných bomb. Tento útok si vyžádal životy desítek tisíc lidí a ukázal, jak silné a děsivé jaderné zbraně jsou.
Poté SSSR a Čína také zvládli technologii a lidstvo žije pod hrozbou zaručeného vzájemného ničení. Teorie omezení naznačuje, že pokud jedna země zahajuje jaderné hlavice, bude jim zodpovězena stejná a dojde k globální katastrofě. Vice uvádí, že AI a strojové učení jsou výrazné technologie, které často chápou špatné.
Z velké části nejsou stroje tak chytré, jak si lidé myslí, ale jsou schopny vytvářet mistrovská díla umění, vyhrávat videohry nebo komunikovat s klienty telefonicky. Někteří vývojáři se snaží donutit umělou inteligenci, aby řídili auto ve velkých městech bez účasti na lidské účasti, ale stále existují případy. Jiní navrhli, abyste měli kontrolu nad jadernými zbraněmi a věřili, že to nebude dělat chyby a pomůže se vyhnout katastrofě.
„AI zdaleka není tak destruktivní jako jaderné zbraně. Ale lidé, kteří jsou u moci, se bojí této nové technologie a zpravidla z zcela nesprávných důvodů,“ říkají analytici. Vysvětlují, že hlavním problémem umělé inteligence není potenciál, který lze porovnat s jadernými zbraněmi, ale nevýhody vývojářů. Algoritmy strojů jsou dobré stejně jako lidé, které vytvářejí.
Například rasisté, vědomě nebo ne, sdělují své názory na chatboty, které pak umožňují rasistická prohlášení. DeepMind Depmind CEO Hasabis, který vytvořil AI, schopný vítězství lidí v počítačové hře Starcraft II: „AI, je velmi velká věc, která vytváří SI, z nichž kultury pocházejí a jaké hodnoty v nich, tvůrci, tvůrci, tvůrci ze systémů AI. Systémy umělé inteligence se naučí sami, ale zbytek kultury a hodnot tvůrců tohoto systému zůstane.
Všechna práva vyhrazena IN-Ukraine.info - 2022