
Vorurteile beim Einsatz von Künstlicher Intelligenz sind ein bekanntes Problem. Auch Twitter ist nicht davor gefeit. Durch einen Wettbewerb wollte der Kurznachrichtendienst nun herausfinden, welche Fehler beim eigenen Twitter-Algorithmus auftauchen.
Künstliche Intelligenz (KI) wurde dafür geschaffen, die Funktionsweise des menschlichen Gehirns nachzuahmen. Mit der Hilfe von Training kann KI lernen, wie Siri oder Alexa auf Fragen zu antworten oder selbst Entscheidungen zu treffen.
Doch dies führt oft auch zu Problemen – zum Beispiel wenn Minderheiten durch die eingesetzte KI benachteiligt werden oder es zu geschlechterspezifischen Vorurteilen kommt.
Mit diesem Problem hatte auch Twitter zu kämpfen. Ende 2020 wurde Kritik laut, dass der Algorithmus, der die Bilder im Feed zuschneidet, von Vorurteilen geprägt ist. So wurden im Zuschnitt beispielsweise weiße Gesichter gegenüber schwarzen bevorzugt.
Daraufhin hat … weiterlesen →