Algorithmen der künstlichen Intelligenz (KI) konnten in den letzten Jahren beeindruckende Ergebnisse bei der
Lösung komplexer Probleme erzielen, z. B. bei der Erkennung von Objekten in Bildern, der Generierung von gesprochener Sprache oder der Übersetzung ganzer Texte. Ein wichtiger Grund für den Erfolg war – neben dem Vorhandensein von enormen Mengen an Trainingsdaten und Rechenressourcen – vor allem die Entwicklung von leistungsstarken Modellarchitekturen, den sogenannten tiefen neuronalen Netzwerken. Diese Klasse von KI-Algorithmen ist besonders gut geeignet für die Analyse von Bilddaten und birgt somit großes Potenzial für den Einsatz in der Zahnmedizin, beispielsweise bei der Auswertung von Panoramaschichtaufnahmen (PSA). Leider ist die Sicherstellung der Qualität von KI-Algorithmen immer noch eine große Herausforderung. Zum einen gelten tiefe neuronale Netzwerke aufgrund ihrer Komplexität als „Blackboxes“, die dem Benutzer keinerlei Einblick in ihren Entscheidungsprozess gewähren. Zum anderen fehlen immer noch standardisierte Prüfverfahren („KI TÜV“), die die funktionale Sicherheit dieser Modelle garantieren können. Dieser Artikel gibt eine Einführung in dieses Thema und zeigt die ersten Erfolge, die man auf dem Weg von der Blackbox zu einer erklärbaren und vertrauenswürdigen KI bereits erzielen konnte.
Manuskripteingang: 15.06.2022, Manuskriptannahme: 07.07.2022
Schlagwörter: Künstliche Intelligenz (KI), tiefe neuronale Netzwerke, Erklärbarkeit, Bildklassifikation