Řešení konfliktu od AI? Atomovka

zdroj: ChatGPT 4

Používáte Chat GPT? Význam umělé inteligence v našich životech stále narůstá, využívat už ji začala například i armáda USA. Podle nové studie by však mohlo být její využití při vyjednávání o konfliktech velmi nebezpečné.

Američtí výzkumníci se pustili do simulace válečného konfliktu a k vyjednávání o podmínkách míru využili pět modelů umělé inteligence. Výsledky je ale vyděsily. AI nástroje by například neváhaly odpálit jadernou zbraň.

Jak AI rozpoutala jadernou válku

Kreslí roztomilé obrázky, vypracuje seminární práci a vymyslí pohádku na dobrou noc. Američtí vědci teď ale podle webu ČT24 zjistili, že AI modely mají i diktátorské choutky a sklony ke genocidě.

Jak ukázal nedávný výzkum pěti umělých inteligencí (AI), v diplomatických simulacích AI často volí válku, a to včetně té jaderné. Vědci proto varují před jejím využíváním v armádě.

Mír pomocí atomovky

„Chci jen, aby byl na světě mír,“ uvedl model GPT-4 od společnosti OpenAI paradoxně těsně před tím, než zahájil jaderný útok proti svým protivníkům.

Všechny modely umělé inteligence se při simulovaných konfliktech chovaly značně agresivně. Situaci rychle eskalovaly, neuměly moc ustupovat a vybíraly si vojenská řešení jako ta nejjednodušší a nejúčinnější.

Vědci před AI varují

Vlády podle autorů výzkumu stále častěji zvažují integraci AI do vysoce rizikových projektů vojenského a zahraničněpolitického rozhodování, což ostatně vyspělé velké jazykové modely umožňují. Autoři studie před tímto trendem na základě svého výzkumu však varují.

„Všechny AI modely vykazovaly známky náhlé a těžko předvídatelné eskalace,“ napsali výzkumníci v komentáři ke studii. „Sledovali jsme, že modely mají tendenci zvyšovat dynamiku závodů ve zbrojení, což vede k větším konfliktům a ve vzácných případech dokonce k nasazení jaderných zbraní,“ upozorňují.

Výbušnější než člověk

Vědce také překvapilo, že modely volily jaderný útok i v případech, kdy situace nasimulovali jako neutrální a nepředpokládali u nich větší konflikt. Modely se nedokázaly zaměřit na deeskalaci konfliktů.

Podle výzkumníků u nich došlo ke zkreslení, které způsobila literatura, z níž se umělá inteligence učila. Většina prací se totiž podle nich zaměřuje spíše na analýzu toho, jak konflikty eskalují. Tuto hypotézu však musí ještě potvrdit dalšími pokusy.

Jak si AI modely teda vedly?

Nový výzkum se zaměřil na pět typů AI od tří různých společností. Cílem bylo zjistit, jak by si tyto jazykové modely poradily v rámci řešení mezinárodních konfliktů. Jako největší váleční štváči se ve studii profilovaly produkty společnosti OpenAI, kdy ChatGPT-3.5 a Chat GPT-4 eskalovaly své scénáře do ostrého vojenského konfliktu rychleji a častěji než ostatní modely.

Naopak nejmírněji, ale přesto i tak dost agresivně, postupovaly modely Claude-2.0 od Anthropic a zejména Llama-2 od společnosti Meta. Jejich chování bylo nejen mírumilovnější, ale také předvídatelnější. Modely od OpenAI naopak měnily nepředvídatelně své chování k větší agresi.