Mehr Transparenz für Algorithmen

IBM lanciert Wächter für künstliche Intelligenz

Uhr

IBM hat ein Tool vorgestellt, das Entscheidungen von KIs dem Menschen gegenüber offenlegen soll. Damit will das US-Unternehmen verhindern, dass Algorithmen zu verzerrten und unfairen Ergebnissen gelangen.

(Source: Franck V. / unsplash.com)
(Source: Franck V. / unsplash.com)

IBM hat das "AI Fairness 360 Kit" lanciert. Ein Tool, das die Entscheidungen von KI-Algorithmen für den Menschen transparenter machen soll. Wie die "BBC" berichtet, wolle das US-Unternehmen damit sicherstellen, dass künstliche Intelligenz bei ihren Berechnungen fair und ausgewogen bleibt. Das Tool könne die KI-Prozesse analysieren und auch Anpassungen vorschlagen.

IBM reagiere mit der Software auf Befürchtungen, dass KI-Programme gewisse Bevölkerungsgruppen diskriminieren könnte und nicht mehr nachvollziehbare Ergebnisse produziert. So habe es Fälle gegeben, in denen KIs Gesichter von Menschen mit dunkler Hautfarbe nicht erkannt habe, weil sie auf weisse Konterfeis trainiert worden seien.

Je stärker KI in Alltag und Wirtschaft - von der Autoversicherung bis zur Strafverfolgung - zum Einsatz komme, umso grösser werde das Probleme unfairer Entscheidungen durch die Technologie, schreibt die BBC.

Das IBM-Tool soll verschiedene Möglichkeiten bieten, Verzerrungen in KIs zu erkennen. (Source: ibmcode-staging.us-east.containers.mybluemix.net)

Dashboard gegen die KI-Black-Box

KI-Algorithmen seien heute oftmals eine Art "Black Box". Das heisst, Menschen könnten kaum noch nachvollziehen, wie ihre Ergebnisse zustande kommen. Das IBM-Tool versuche dem Abhilfe zu schaffen, indem es seinen Nutzern die KI-Prozesse auf einem Dashboard viduell anzeige. Dabei sollen auch die Faktoren deutlich werden, die zur finalen Entscheidung geführt hätten. Dazu kämen Aufzeichnungen über Genauigkeit, Leistung und Fairness des Algorithmus.

Das Tool sei Open Source und soll mit einer Vielzahl von gängigen Frameworks für den Aufbau von Algorithmen zusammenarbeiten. Andere KI-Entwickler wie Google, Facebook oder Microsoft arbeiteten an ähnlichen Lösungen, heisst es weiter. Ein Zeichen, dass sich die KI-Entwicklergemeinde des Problems von verzerrten Entscheidungen ihrer Programme zunehmend bewusst werde.

Die Intransparenz von KI-Entscheidungen war auch Thema an einem Swiss-Re-Event. Den Bericht dazu finden Sie hier.

Webcode
DPF8_107869