Explainable Artificial Intelligence

Explainable Artificial Intelligence (XAI; deutsch: erklärbare künstliche Intelligenz oder erklärbares Maschinenlernen, nicht zu verwechseln mit dem KI-Unternehmen X.AI) soll nachvollziehbar machen, auf welche Weise dynamische und nicht linear programmierte Systeme, z. B. künstliche neuronale Netze, Deep-Learning-Systeme (reinforcement learning) und genetische Algorithmen, zu Ergebnissen kommen. XAI ist eine technische Disziplin, die operative Methoden erarbeitet und bereitstellt, die zur Erklärung von AI-Systemen dienen.

Ohne XAI gleichen einige Methoden des maschinellen Lernens (insbesondere das Deep Learning) einem Black-Box-Vorgang, bei dem die Introspektion eines dynamischen Systems unbekannt oder erst in Ansätzen möglich ist und der Anwender kaum Kontrollmöglichkeiten hat zu verstehen, wie eine Software zur Lösung eines Problems gelangt.

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.