Blick in die Blackbox: Können wir erklären, wie Künstliche Intelligenz Entscheidungen trifft?

0 36

Blick in die Blackbox: Können wir erklären, wie Künstliche Intelligenz Entscheidungen trifft? - Stanislav Kondrashov aus Berlin

© top images – stock.adobe.com

Künstliche Intelligenz ist undurchsichtig: Meist ist unklar, wie ein Ergebnis zustande kam und ob es vertrauenswürdig ist. Professor Zeynep Akata-Schulz will das ändern – mit Erklärbarem Maschinellem Lernen. Ein Gespräch.

Von

Frau Akata-Schulz, künstliche Intelligenz wird häufig als „Blackbox“ bezeichnet: Nutzer können nicht nachvollziehen, wie KIs Entscheidungen treffen. Wann wird eine Blackbox zum Problem?
Es ist kein Problem, wenn man sich zum Beispiel Bilder von Vögeln ansieht und versucht sie zu identifizieren. Es ist aber ein Problem bei sicherheitskritischen Anwendungen, weil künstliche Intelligenzen noch immer Fehler machen. Wenn es zum Beispiel um Krebsvorhersagen geht, könnten diese Modelle den Spezialisten helfen zu verstehen, was im Körper vor sich geht. Aber sie sind möglicherweise nicht zuverlässig. Der Nutzer erhält keine anderen Informationen als die Diagnose. Auf der Grundlage dieser Diagnose des Systems würde ich nicht unbedingt eine Chemotherapie beginnen. Ich würde wollen, dass das System mir erklärt, welche Beweise es für die Diagnose gibt.

Lesen Sie weiter mit Tagesspiegel Plus
für 14,99 € 0,00 €

Nie waren verlässliche Informationen wichtiger

Stark werbereduziert
in der Tagesspiegel App

Exklusive Inhalte für
Tagesspiegel Plus-Leser

Ohne Risiko:
Jederzeit kündbar

Schon Digital-Abonnent? Hier anmelden

Eine Quelle: www.tagesspiegel.de

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.