"Żadna część decyzji o życiu i śmierci, które wpływają na całe rodziny, nie powinna być powierzana zimnej kalkulacji algorytmów," powiedział Guterres dziennikarzom w piątek. "AI powinna być wykorzystywana jako siła dobra, służąca światu, a nie do przyczyniania się do prowadzenia wojny na skalę przemysłową, co zaciera granice odpowiedzialności" - dodał sekretarz generalny ONZ.
Wykorzystanie wojskowe AI stało się rosnącym problemem, ponieważ mocarstwa, w tym USA i Chiny, spieszą się z inkorporacją jej do swoich sił zbrojnych. Izraelskie wojsko oświadczyło, że polegało na nowych technologiach w swojej kampanii mającej na celu zniszczenie Hamasu od ataków grupy bojowej z 7 października, które spowodowały śmierć 1200 osób i porwanie 250. Odwetowa kampania Izraela uśmierciła do tego czasu 32 tys. Palestyńczyków, zgodnie z danymi ministerstwa zdrowia zarządzanego przez Hamas, który jest uznawany za organizację terrorystyczną przez USA i Unię Europejską.
W artykule z 3 kwietnia, opublikowanym przez serwis internetowy z Tel Awiwu (+972 Magazine) poinformowano, że Izrael wykorzystuje program sztucznej inteligencji o nazwie "Lavender" do wyznaczania celów zabójstw. Raport, który został zakwestionowany przez Izrael, stwierdził, że system AI odegrał "centralną rolę w bezprecedensowym bombardowaniu Palestyńczyków."
Uwagi Guterresa pojawiły się tuż po decyzji Izraela o zwolnieniu dwóch oficerów za atak rakietowy, który w tym tygodniu zabił siedmiu pracowników pomocy humanitarnej, w tym Polaka.