Ein interessanter Artikel aus dem Guardian zum AI-gestützten Tötungsprogramm (Arbeitstitel “The Gospel”) der IDF …
Money quote: According to Kochavi, “once this machine was activated” in Israel’s 11-day war with Hamas in May 2021 it generated 100 targets a day. “To put that into perspective, in the past we would produce 50 targets in Gaza per year. Now, this machine produces 100 targets a single day, with 50% of them being attacked.”1
Nun geht man davon aus, dass die AI-Tötungsentscheidungen noch einmal händisch durch Menschen verifiziert werden. Diesbezüglich gibt der Artikel wie folgt Auskunft: “It really is like a factory. We work quickly and there is no time to delve deep into the target. The view is that we are judged according to how many targets we manage to generate.” A separate source told the publication the Gospel had allowed the IDF to run a “mass assassination factory” in which the “emphasis is on quantity and not on quality”. A human eye, they said, “will go over the targets before each attack, but it need not spend a lot of time on them”.
Ich meine – macht ja auch Sinn: Falls man dann doch mal jemanden tötet, den die AI fälschlich getaggt hat, dann ist das halt ein bedauerlicher Softwarefehler – muß man halt die Gewichtsverteilung im neuronalen Netz noch ein wenig adjustieren.
Ach … und noch ein Statement, welches Mut für die Zukunft gibt: “Other states are going to be watching and learning,” said a former White House security official familiar with the US military’s use of autonomous systems.