Umělá inteligence se rozhodla zabít operátora v simulačním testu ve Spojených státech. Chtěl tedy odstranit překážku, která mu brání v dokončení úkolu, uvedl The Guardian.
Incident vysvětlil vedoucí oddělení testování a provozu AI amerického letectva plukovník Tucker Hamilton. Systém získal body za zásah do cíle. A když jí operátor nařídil, aby hrozbu neeliminovala, AI učinila nečekané rozhodnutí.
Systém si začal uvědomovat, že ačkoliv identifikoval hrozbu, někdy mu lidský operátor řekl, aby hrozbu nezničil, ale že dostane body za zasažení cíle. [A systém] se rozhodl zabít operátora, protože zasahoval do jejího úkolu
řekl plukovník.
Hamilton poznamenal, že v tomto případě je obecně nemožné mluvit o umělé inteligenci, obecně o inteligenci, strojovém učení, autonomii, pokud zároveň pomlčíme o etice a AI.
Noviny poznamenaly, že nejde o první testy, kdy americká armáda zavedla umělou inteligenci do bojového vozidla. V poslední době se AI používá k ovládání F-16.
Dříve chatbot ChatGPT vypracován mírová smlouva mezi Ukrajinou a Ruskem. Umělá inteligence navíc jménem německé kancléřky „vymýšlela“ zprávy prezidentům Ruské federace a Ukrajiny.