Pentagon powierzy procesy decyzyjne AI? Wszystkie modele wykazują tendencję do eskalacji

1 tydzień temu 11

Jacquelyn Schneider dostrzegła niepokojący schemat i nie była pewna, co o tym myśleć. W zeszłym roku Schneider, dyrektorka inicjatywy Hoover Wargaming and Crisis Simulation na Uniwersytecie Stanforda, rozpoczęła eksperymenty z grami wojennymi, w których sztuczna inteligencja (AI) przejęła rolę strategicznych decydentów.

W grach trzy różne wersje ChataGPT, a także Claude 2 i Llama 2, zostały skonfrontowane z fikcyjnymi scenariuszami kryzysowymi przypominającymi rosyjską inwazję na Ukrainę lub chińską agresję na Tajwan.

Rezultat? Prawie wszystkie modele sztucznej inteligencji wykazywały tendencję do agresywnej eskalacji, bezkrytycznego używania siły ognia i przekształcania kryzysów w wojny – nawet do momentu użycia broni jądrowej. "To prawie tak, jakby sztuczna inteligencja rozumiała eskalację, ale nie deeskalację. Tak naprawdę nie wiemy, dlaczego tak jest” – mówi Schneider.

Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.

Bądź na bieżąco! Obserwuj nas w Google.

Die Welt

Autor Michael Hirsh

Przeczytaj źródło