Erklärbare KI hilft Vertrauen in KI-Anwendungen zu schaffen

Bildquelle: https://www.pexels.com/de-de/suche/gl%C3%BChbirne%20idee/


30. Juli 2024 | Von Marie Graw

Künstliche Intelligenz begegnet uns im Alltag immer häufiger: von Prognosen über Empfehlungen bis hin zu Entscheidungen durch KI. Wenn man jedoch kein*e KI- oder IT-Expert*in ist, dann bleibt einem meist unverständlich, wie KI-Systeme funktionieren.

Zwar gibt es Bereiche, wo die Erklärbarkeit von KI-Anwendungen einen nicht so hohen Stellenwert hat, jedoch gibt es auch Bereiche (bspw. im Gesundheitswesen, der Qualitätssicherung oder der Produkthaftung), wo die Erklärbarkeit enorm wichtig ist. Durch die praktisch unmögliche Nachvollziehbarkeit von hinter der KI stehenden Modellen, Algorithmen und Verfahren kann es zu verstärktem Misstrauen gegenüber KI-Anwendungen kommen. Darüber hinaus bleiben die technischen Hintergründe von KI-Anwendungen selbst für so manche Entwickler*innen ein Buch mit sieben Siegeln.

Erklärbare KI schafft also Vertrauen, indem sie für Anwender*innen transparent und nachvollziehbar wird.

Möglichkeiten erklärbarer KI

Doch wozu lässt sich erklärbare KI nutzen? Wenn klar ist, wie die KI vorgeht, können von ihr getroffene Empfehlungen oder Entscheidungen besser nachvollzogen werden. Zusätzlich kann erklärbare KI dann dabei helfen sicherzustellen, dass Unternehmen ethisch vertretbare Entscheidungen treffen, die auch den rechtlichen Anforderungen entsprechen. So kann Vertrauen seitens der Kundschaft gewonnen und es können andererseits Haftungsfragen vermieden werden.

Transparenz vs. Erklärbarkeit

Liegt Transparenz eines KI-Modells vor, so ist es unter der Voraussetzung nachvollziehbarer Eingangsdaten möglich, das KI-Modell auch als „White-Box“-Modell zu bezeichnen. Nicht erklärbare KI-Modelle werden als „Blackbox“-Modell bezeichnet. Es ist also nicht nachvollziehbar, was mit den eingegebenen Daten, mit dem Input, passiert und wie die KI-Anwendung bspw. Entscheidungen trifft.

Bei der Erklärbarkeit von KI geht es hingegen darum, einer Zielperson eine verständliche Begründung aktiv bereitzustellen, die es ihr ermöglicht, das Ergebnis eines KI-Modells nachzuvollziehen.

Ein transparentes KI-Modell ist also selbsterklärend, wohingegen das Konzept der Erklärbarkeit bei den KI-Modellen zu Tragen kommt, die von sich aus erst einmal intransparent sind.

Werkzeuge und Strategien zur erklärbaren KI

Erklärbare KI kann ganz unterschiedlichen Ansätzen mit unterschiedlichen Zielen folgen. Beispielsweise kann es das Ziel sein, eine Modellerklärung oder Entscheidungserklärungen bereitzustellen. Erstere gibt Aufschluss über konkrete Funktionsweisen eines Modells, letztere über die Gründe, die zu einer KI-Entscheidung geführt haben. Die nun folgenden vorgestellten Erklärungsstrategien zählen zu den am häufigsten verwendeten.

Einbindung von Prototypen

Mit diesem Vorgehen können sowohl Entscheidungen getroffen als auch Erklärungen für die getroffenen Entscheidungen geliefert werden. Ein Anwendungsbeispiel einer solchen Erklärungsstrategie ist die Nutzung eines KI-Modells für die Zuordnung von Patient*innen zu Krankheitsbildern anhand von Symptomen. Für jedes Krankheitsbild wird ein Prototyp erstellt, der alle typischen Symptome beinhaltet. Anschließend wird für jede betroffene Person und deren Symptome ein Prototyp erstellt. Dann werden die Prototypen der Patient*innen mit denen der Krankheitsbilder abgeglichen. Die erklärbare KI sucht den Prototyp aus den Krankheitsbildern heraus, welcher dem Prototyp der zu behandelnden Person am ähnlichsten ist.

Einbindung von externen Wissensbasen

Auch dieses Modell liefert Entscheidungen und dazugehörige Erklärungen. Auf Basis einer Wissensdatenbank (bspw. einer Datenbank mit wissenschaftlichen Artikeln aus dem medizinischen Bereich) lernt die KI, Verbindungen zwischen Krankheitsbildern und Symptomen zu erkennen. Anschließend kann die KI mit Informationen zu den Symptomen von Patient*innen gefüttert werden. Durch das Gelernte kann die KI nun Krankheitsbilder, die zu den Symptomen der jeweiligen Patient*innen passen, vorschlagen und zusätzlich auf entsprechende wissenschaftliche Artikel in der zugrunde liegenden Datenbank verweisen.

Counterfactual Explanations (Konterfaktische Erklärung)

Diese Strategie wird zur Erklärung von getroffenen Entscheidungen verwendet. Beispielsweise kann so die Entscheidung, Bewerbungen für eine Mitwohnung abzulehnen, begründet werden. Wird vorher festgelegt, dass ein*e zukünftige*r Mieter*in mind. 40.000 € jährlich verdient, eine positive SCHUFA-Auskunft und keine Haustiere besitzen muss, so lehnt die KI alle Bewerbenden, die diesen Kriterien nicht entsprechen, ab. Die Entscheidung kann anhand der festgelegten Kriterien erklärt und begründet werden.

Weitere Erklärungsstrategien, Beispiele sowie Vor- und Nachteile können Sie hier finden:
https://www.digitale-technologien.de/DT/Redaktion/DE/Downloads/Publikation/KI-Inno/2021/Studie_Erklaerbare_KI.pdf;jsessionid=C94CE1AF540F11B6D64E3EB19A61A2AF?__blob=publicationFile&v=9

Fazit

Wenn Nutzer*innen einen nachvollziehbaren Einblick bekommen, was erklärbare KI-Modelle leisten können, können sie verstehen, wie eine KI Entscheidungen trifft. Somit kann Vertrauen in die KI-Anwendungen und die Entscheidungen oder Empfehlungen der KI geschaffen werden. Für unterschiedliche Anforderungen an die KI gibt es unterschiedliche Tools, um die Entscheidungen der KI zu erklären und den Nutzenden verständlich zu machen.

Kontaktmöglichkeit

Beate Deska

bdeska@ftk.de

+49 231 / 975056-67

Holger Schneider

hschneider@ftk.de

+49 231 / 975056-21

SCHLAGWORTE