Racisme-algoritme blokkeert schaakvideos vanwege comments over ‘wit tegen zwart’

Robots en context gaan niet goed samen
Volgens een onderzoek naar foute uitwerkingen van kunstmatige intelligentie en zelflerende algoritmes kunnen YouTube-kanalen over schaken in de problemen komen omdat kijkers in de reacties praten over ‘zwart tegen wit’.
Onderzoekers van de Carnegie-universiteit begonnen hun project nadat het grootste schaakkanaal op YouTube, Agadmator van de Kroaat Antonio Radic, voor 24 uur opgeschort werd. YouTube gaf geen specifieke reden maar noemde de pot tegen grootmeester Hikaru Nakamura wel ’schadelijk en gevaarlijk’.
YouTube kan alle geüploade en gestreamde videos niet handmatig controleren en gebruikt daarom een mix van menselijke moderatoren en (zelf)lerende AI-algoritmes. Vooral de robotagenten zijn nog wel eens minder goed in het herkennen van context, zo blijkt.
De onderzoekers lieten een hypermodern algoritme los op meer dan 680.000 reacties op schaakvideos, schrijft The Independent. Toen ze in een lijst van duizend commentaren doken die volgens de robot racistisch waren bleek 82% verkeerd ingedeeld te zijn. De robot dacht dat de termen ‘zwart’, ‘wit’, ‘aanval’, en ‘dreiging’ over ras gingen, terwijl het eigenlijk veelvoorkomende frasen zijn in het schaakjargon.