Według niego systemy sztucznej inteligencji nie powinny brać udziału w kontroli broni jądrowej, ponieważ są one uruchamiane zgodnie z określonymi parametrami i wskaźnikami. W niektórych sytuacjach sztuczna inteligencja może uznać czynniki niebędące niebezpiecznymi za zagrażające i jest to „niepokojąca perspektywa”.
W szczególności przytoczono przykład rosyjskiego systemu „Perimetr”, który może odebrać aktywność sejsmiczną za wybuchy jądrowe, po czym wysłać żądanie do kwatery głównej wojsk, a jeśli nie otrzyma odpowiedzi, może wydać polecenie wystrzelenia międzykontynentalnych rakiet balistycznych.
Wyobraź sobie system sztucznej inteligencji w centrum dowodzenia chińskich wojsk, po przeanalizowaniu danych operacyjnych stwierdza, że Stany Zjednoczone przygotowują się do ataku na Chiny i zaleca uderzenie zapobiegawcze
- powiedział Work.
Niemniej jednak zauważa, że sztuczna inteligencja z pewnością może być przydatna dla wojska, ale jej użycie powinno być ograniczone i nie powinno obejmować broni nuklearnej, ponieważ może to doprowadzić do „katastrofalnego scenariusza”.