Jacquelyn Schneider dostrzegła niepokojący schemat i nie była pewna, co o tym myśleć. W zeszłym roku Schneider, dyrektorka inicjatywy Hoover Wargaming and Crisis Simulation na Uniwersytecie Stanforda, rozpoczęła eksperymenty z grami wojennymi, w których sztuczna inteligencja (AI) przejęła rolę strategicznych decydentów.
W grach trzy różne wersje ChataGPT, a także Claude 2 i Llama 2, zostały skonfrontowane z fikcyjnymi scenariuszami kryzysowymi przypominającymi rosyjską inwazję na Ukrainę lub chińską agresję na Tajwan.
Rezultat? Prawie wszystkie modele sztucznej inteligencji wykazywały tendencję do agresywnej eskalacji, bezkrytycznego używania siły ognia i przekształcania kryzysów w wojny – nawet do momentu użycia broni jądrowej. "To prawie tak, jakby sztuczna inteligencja rozumiała eskalację, ale nie deeskalację. Tak naprawdę nie wiemy, dlaczego tak jest” – mówi Schneider.
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Google.



![Zendaya w filmie oscarowego twórcy „Tamtych dni, tamtych nocy”. To pełna napięcia gra, która rozpala zmysły [RECENZJA]](https://images.immediate.co.uk/production/volatile/sites/64/2025/10/okladka-01c585e.png?resize=1200%2C630)



English (US) ·
Polish (PL) ·