
Forscher haben herausgefunden, dass KI-Systeme zur Hausüberwachung völlig willkürlich handeln. Die Gründe dafür bleiben mangels Transparenz aber unklar. Die Hintergründe.
Eine neue Studie vom MIT und der Penn State University zeigt: Der Einsatz von Künstlicher Intelligenz (KI) in der Heimüberwachung könnte zu großen Problemen führen. Sprachmodelle wie GPT-4 seien inkonsequent und würden demnach unvorhersehbar handeln. Oft empfehlen sie, die Polizei zu rufen, auch wenn keine kriminellen Aktivitäten erkennbar sind. Diese Inkonsistenz könnte gefährlich werden.
Noch problematischer: Die Modelle reagieren unterschiedlich auf ähnliche Szenen. Ein Video zeigte etwa einen Autodiebstahl und das Modell schlug Alarm, während ein ähnliches Video keine Reaktion hervorrief. Diese Unterschiede werfen die Frage auf, wie zuverlässig KI wirklich ist. Besonders in heiklen Situationen kann das fatale Folgen haben.
Voreingenommenheit von KI bei der … … weiterlesen →