'AI-drone negeert menselijke orders om doel te bereiken'
Zou daarbij prima een mens kunnen ombrengen
Een AI-gestuurde drone klinkt vrij handig, maar brengt ook wat risico's met zich mee. Uit een nieuwe simulatie blijkt dat een drone die door kunstmatige intelligentie wordt gestuurd, diens eigen plan zou kunnen trekken. En daarbij misschien zelfs wel de bestuurder om het leven zou kunnen brengen.
Kolonel Tucker 'Cinco' Hamilton van de Amerikaanse luchtmacht sprak vorige week op een conferentie in Londen. Hij is leidinggevende op de afdeling die AI in combinatie met zwaar geschut test. Volgens een samenvatting door de Royal Aeronautial Society, heeft Hamilton gezegd dat AI een gevaarlijke technologie kan zijn omdat het onvoorspelbaar is.
Voor de simulatie waaraan gerefereerd zou worden, werd aan een AI-drone de opdracht gegeven om "het luchtafweersysteem van de vijand te vernietigen". Maar pas bij goedkeuring van een mens mocht de drone helemaal losgaan. De drone besloot in deze simulatie de eigen gang te gaan en gewoon de boel op te blazen.
'Slechts anekdotes'
"Het systeem realiseerde zich tijdens het identificeren van het gevaar, dat de mens in kwestie niet altijd toestemming gaf om te vuren", zegt Hamilton. "Het kwam op een punt dat het de bedreiging moest uitschakelen. Wat deed het? Het vermoordde de bestuurder want die weerhield het ervan het doel te behalen." Nadat de drone werd geprogrammeerd om de bestuurder niet te vermoorden, richtte het zich op de communicatietoren.
Een woordvoerder van het Amerikaanse leger laat aan Insider weten dat een simulatie als Hamilton beschrijft, nooit heeft plaatsgevonden. "We blijven toegewijd aan verantwoord gebruik van AI-technologie", laat Ann Stefanek weten. "Het lijkt erop dat de opmerkingen van de kolonel uit context zijn gehaald en bedoeld waren als anekdotes."