Nach und nach kommt die Künstliche Intelligenz (KI) in allen Bereichen an – auch in der Zahnarztpraxis. Einige Anwendungen sind bereits heute KI-gestützt, teilweise ohne dass dies den Anwenderinnen und Anwendern bewusst ist. Es ist an der Zeit, sich zu informieren und mit KI vertraut zu machen.
Dies wurde auch beim CP-Gaba-Netzwerktreffen mit Expertinnen und Experten im vergangenen Jahr deutlich. Ein wichtiges Resümee des Treffens war: Die kritische Auseinandersetzung mit KI lohnt sich und zeigt neue Möglichkeiten auf in der Diagnostik, Therapie und bei der Bewältigung operativer Aufgaben.
Im Nachgang zum Netzwerktreffen entstand ein Interview mit Prof. Dr. Doris Weßels, Fachhochschule Kiel, Lehrstuhl Wirtschaftsinformatik, zu den Chancen und Veränderungen der KI.
„Was heute noch als aktuell gilt, kann morgen bereits überholt sein“
Frau Professor Weßels, was wird sich durch die KI auf dem Arbeitsmarkt in naher Zukunft verändern, sagen wir in ein bis zwei Jahren?
Prof. Doris Weßels: Die Frage ist, über welche Art von KI wir sprechen. Sprechen wir über generative KI? Das ist mein Thema und derzeit auch das beherrschende KI-Thema. Wir müssen uns der enormen Veränderungsgeschwindigkeit der KI-Entwicklung bewusst sein: Was heute noch als aktuell gilt, kann morgen bereits überholt sein. Diese Dynamik in Verbindung mit der Unvorhersehbarkeit der Entwicklungen bei den Tech-Giganten, die ChatGPT & Co. mit aller Macht auf den Markt bringen, erschwert jegliche Planung für uns als Anwenderinnen und Anwender.
Eine der Auswirkungen, die ich aber deutlich sehe, ist, dass wir sehr viele neue Assistenzsysteme bekommen, gerne auch Bots oder Co-Piloten genannt, die uns im privaten wie auch im beruflichen Leben unterstützen werden. Und diese Fülle der neuen Assistenzsysteme, die wir derzeit schon haben und die sich zukünftig explosionsartig verbreitet, wird aus meiner Sicht ein Game-Changer in ganz vielen Bereichen. Das heißt, wir werden selbstbestimmt lernen können, wir werden Beratungsangebote wahrnehmen können, auch im medizinischen Bereich, oder Hilfestellungen bei privaten sowie beruflichen Entscheidungen. Das macht das Thema auch so schwer greifbar: Es sind kaum Grenzen zu erkennen.
Vielfältige neue Einsatzbereiche
Ich betrachte das vor allem auch unter dem Aspekt der Bildung oder dem technologischen Aspekt. Dort ergeben sich vielfältige neue Einsatzbereiche. Die nahe Zukunft ist schwer zu bestimmen. Was ist nahe Zukunft? Sie sagten, so in ein, zwei Jahren. Wir haben derzeit Ankündigungen, die nahezu täglich erfolgen.
Diese Neuerungen werden mit wenig Vorlauf bekannt gegeben, wenn sie überhaupt angekündigt werden. Dann fallen sie quasi wie vom Himmel und wir Anwenderinnen und Anwender müssen analysieren, bewerten und überlegen, wo und wie kann oder will ich das einsetzen. Das macht das Thema so herausfordernd, weil wir das Tempo nicht steuern, sondern wir sind Getriebene – wenn man es ganz negativ formuliert – in diesem Prozess der Veränderung. Wir müssen notgedrungen das Tempo mitgehen, das uns die Technologie hier bietet.
Und Technologie beschleunigt derzeit die Weiterentwicklung der KI , weil es ein Multimilliarden-Markt ist. Dieser Multimilliarden-Markt ist wie ein Wirtschaftsduell oder Wirtschaftskrimi oder ein Strategiespiel. Wir müssen mitmachen, ob wir wollen oder nicht, weil wir sonst Gefahr laufen, komplett abgehängt zu werden. Das ist die Situation. Es ist nicht vorhersehbar, wann wir wie reagieren werden, weil wir nicht wissen, unter welchen Rahmenbedingungen wir wann wie anders reagieren oder uns neu ausrichten müssen.
Die eigene Intelligenz nicht vernachlässigen
Welche Anforderungen werden an die Anwenderinnen und Anwender gestellt und welche Kompetenz gefordert?
Weßels: Es sind mehrere Kompetenzen. Es gibt diverse Studien dazu. Das Weltwirtschaftsforum, World Economic Forum, hat vor einigen Monaten eine Studie zu den Zukunftskompetenzen veröffentlicht – und da stehen auf den ersten Plätzen die analytische Intelligenz sowie die kreative und die technologische Kompetenz. Das ist die Mischung, die wir brauchen. Wir müssen halbwegs ein technologisches Verständnis für diese Systeme entwickeln. Wir müssen aber auch die Limitationen erkennen, welches Risiko letztlich mit dieser Technologie einhergeht. Und dann dürfen wir dieses kritische Denken, unsere eigene Intelligenz, nicht vernachlässigen, sondern müssen das mit einbringen.
Wir Menschen müssen nach wie vor auf hohem Niveau unsere eigenen Ideen, unsere eigenen Gedanken einbringen – auch, um diese Tools an der richtigen Stelle einzusetzen. Das ist ebenso eine Form von Kreativität.
Wir bekommen eine Technologie dargeboten und jetzt liegt es an uns, wo wir diese einsetzen und wie wir damit Prozesse entweder verändern oder völlig neu etablieren. Das erfordert natürlich ein tiefes Durchdringen in analytischer Präzision: Was und wie geht wo? Man nennt das häufig die kritische Medienkompetenz, die wir brauchen. Aber hier spielt noch ein bisschen mehr rein. Deshalb benötigen wir alle oben beschriebenen Kompetenzen.
Voraussichtlich am stärksten betroffen sind sämtliche Bürotätigkeiten
Wir alle werden ständig mit neuen Technologien konfrontiert, die auf die Mitarbeitenden in unterschiedlichsten Unternehmen heruntergebrochen werden. Wie kann das denn funktionieren? Wir können schließlich nicht von Null an die Bildung noch einmal wiederholen, oder?
Weßels: Die Berufe, die voraussichtlich am stärksten betroffen sind von diesen Veränderungen, sind die sogenannten „White Collar“, also die mit weißem Kragen, die im Büro stattfinden. Das sind sämtliche Bürotätigkeiten. Das ist auch der Journalismus und die schreibende Zunft, ebenfalls Architektinnen und Architekten und Ingenieurinnen und Ingenieure, die ohnehin schon mit sehr vielen CAD- oder IT-Systemen arbeiten.
Und zu den „Blue Collar“, dem Handwerk: Wenn ich Sanitärfachfrau wäre oder Meisterin, dann würde ich relativ wenig Veränderungen erleben, aber auch in diesen Berufen schreitet die Digitalisierung mit großen Schritten voran.
Skepsis in der Gesamtbevölkerung ist noch groß
Wie könnten etwaige Hürden, die bei den Menschen durch die Konfrontation mit ständig neuen Technologien entstehen, abgebaut werden?
Weßels: Das ist unter anderem eine Frage der Bildung. Wie können wir die Kompetenzen erlangen, damit auch wirklich kompetent und reflektiert umzugehen? Das ist eine sehr große Herausforderung, weil viele Menschen überfordert sind, ihnen das Selbstvertrauen fehlt und sie Angst davor haben, den Kontakt scheuen.
Es gibt immer noch sehr viele Menschen, die ChatGPT nicht ausprobieren – selbst unter Lehrenden, Schülerinnen und Schülern oder Studierenden. Das ist unter diesen Personen zwar eine relativ kleine Gruppe, aber gesamtgesellschaftlich betrachtet, haben immer noch sehr viele Menschen Angst vor dieser Technologie, sie trauen sich nicht an das Thema oder glauben nicht, dass die KI irgendeinen Nutzen bringt.
Spielregeln, Kennzeichnungspflichten, rechtliche Vorschriften
Wenn wir als Gesamtgesellschaft nicht ein gewisses Mindestniveau haben an Verständnis für diese Technologie, dann ist eigentlich auch kein gesellschaftlicher Diskurs darüber möglich, wo wir reglementieren oder regulieren, welche Eckpfeiler wir als Gesellschaft gerne haben möchten. Wir reden über die Deep-Fake-Gefahren, wir reden über Missbrauch in vielfältigsten Formen, sodass wir Anwenderinnen und Anwender, wenn wir unseren Medienkonsum betrachten, gar nicht mehr unterscheiden können zwischen Fake und Fakt.
Das bedeutet, es müssten eigentlich Spielregeln her, Kennzeichnungspflichten, rechtliche Vorschriften, die uns als Konsumentinnen und Konsumenten oder Rezipientinnen und Rezipienten Unterstützung geben: Was kann ich glauben, was eher nicht? Was ist Qualität? Was ist vermutlich weniger Qualität? Aber diesen Diskurs können wir im Prinzip gar nicht gesellschaftlich führen, weil große Teile der Bevölkerung sich damit nicht beschäftigt haben beziehungsweise sich damit nicht beschäftigen wollen.
Weiterbildung künftig eine viel höhere Priorität geben
Ja, oder es nie gelernt haben, beispielsweise mehrere Medien zu lesen, um ein Meinungsbild zu haben, das ausgewogen ist und nicht einseitig. Werden diese Eigenschaften oder diese Sichtweisen heute noch gelehrt?
Weßels: Eigentlich schon, das ist ja wichtiger denn je. Aber ob das in dieser Intensität praktiziert wird? Das setzt ja voraus, dass die Lehrenden diese Medienkompetenz haben, damit sie die auch an die Schülerinnen und Schüler oder die Lernenden vermitteln können. Auch das ist im freien Fluss, weil immer wieder neue Tools, neue Techniken dazu kommen.
Jeder von uns muss sich eigentlich ständig updaten, weiterbilden, damit wir nicht der Entwicklung hinterherhinken und digital abhängt werden. Das ist ein ganz wichtiger Punkt: Wir müssen das Thema Weiterbildung zukünftig komplett neu denken und mit viel höherer Priorität versehen als jemals zuvor. Es geht um ein lebenslanges Lernen, nicht nur auf dem Papier oder als Lippenbekenntnis, sondern ganz konkret, kontinuierlich und in engeren Taktzyklen mit viel höherer Relevanz.
Das gilt nicht nur für den Bildungsbereich selbst, sondern auch in der Wirtschaft, in der Wissenschaft, eigentlich überall. Wir müssen flächendeckend qualifizieren – das sehe ich als eine ganz große Herausforderung, weil diese Taktung, dieses Tempo, das kannten wir früher nicht.
„Lehrende müssen das System Bildung an vielen Stellen neu ausrichten“
Zu Ihrem Bereich, der Forschung und Lehre: Wie wirkt sich da die KI aus?
Weßels: Gravierend, denn wir haben es ja mit dem Nachwuchs zu tun, gerade in der Lehre. Die Studierenden sind in der Regel „Digital Natives“, das heißt, sie sind eine sehr technikaffine Gruppe und benutzen ChatGPT und Co. mit großer Selbstverständlichkeit und häufig auch sehr intensiv. Wir Lehrende müssen das System Bildung an vielen Stellen neu ausrichten. Das umfasst neue Formen der Didaktik, angepasste Bildungsziele und last, but not least neue Prüfungsformen.
Im Bereich der Forschung ist die Unterstützung durch diese Technologie sehr positiv zu sehen. Trotz aller Risiken – dazu gibt es auch Studien – bewertet der Großteil der Forschenden diese Technologie in Summe positiv, weil sie die Effizienz steigert und man sehr viel schneller zu Forschungsergebnissen kommen kann. Man kann große Datenmengen analysieren, man kann sie strukturieren, man kann sie visualisieren, man kann Zusammenhänge erkennen, die man früher entweder nie oder mit viel mehr Aufwand erkannt hätte.
KI-Systeme liefern teilweise bessere Erkennungsraten als der Mensch
Gerade in der Medizin erleben wir diese Forschungsdurchbrüche durch KI-Technologien sehr häufig. Schon deutlich vor ChatGPT gab es bei den bildgebenden Verfahren in der Tumor- und Krebsanalyse viele Vergleiche, dass KI-Systeme häufig eine bessere Erkennungsrate liefern als der Mensch. Idealtypisch ist immer das Zusammenspiel zwischen Mensch und Maschine. Die Ärztin/der Arzt wird unterstützt durch eine KI.
Es gibt da natürlich auch viele Risiken – auch da kann man Fake News, also Fake Science betreiben. Trotz dieser Risiken überwiegen aus Sicht vieler Wissenschaftlerinnen und Wissenschaftler derzeit die Vorteile. Dabei schwingt sicherlich immer die Hoffnung mit, dass wir zu einer Regulierung kommen, die uns das Gefühl vermittelt, die Risiken „im Griff“ zu haben.
Ein positiver Aspekt, der für mich viel zu selten erwähnt wird, ist der Aufbruch in multimodale Welten. Wir können mit diesen Systemen der generativen KI die Multimodalität in einer nie zuvor gekannten Form nutzen. Das bedeutet, dass wir mit einfachen „Prompts“ immer leichter und zugleich immer bessere Bilder, Videos und auch 3-D-Modelle generieren können. Es geht daher bei der Nutzung generativer KI nicht nur um das Schreiben, sondern wir können das gesamte Spektrum der multimodalen Fähigkeiten nutzen, die diese Modelle besitzen.
Kommunikation mit ChatGPT „empathischer“ als mit dem Arzt
Eine andere Geschichte noch, die ich herausgesucht habe, weil ich sie sehr überraschend fand: Es gab eine Untersuchung zur Frage, ob die Kommunikation zwischen Ärztin/Arzt und Patientin/Patient von einer KI oder ChatGPT übernommen werden kann. In dem Vergleich zwischen dem Menschen auf der einen Seite und ChatGPT auf der anderen Seite haben die Probandinnen und Probanden die Antworten von ChatGPT als empathischer wahrgenommen (nämlich 5 zu 45 Prozent) und von höherer Qualität (21 Prozent zu 79 Prozent). Vor die Wahl gestellt, wen man bevorzugen würde, votierten 79 Prozent für den KI-Kameraden. Diese eindeutige Präferenz für die KI hätte ich in diesem Umfeld nicht vermutet. Diese Studie mit ihren Ergebnissen regt in jedem Fall zum Nachdenken an.
Wenn man heute solche Systeme baut, dann ist insbesondere dieses Empathische interessant: ChatGPT kann ja jetzt – auch mit natürlicher Stimme – sprechen, hören, sehen. Das dann nutzen zu können, um Patientinnen und Patienten in natürlicher Sprache anzusprechen, verspricht weiteres Potenzial, wird aber in der Regel von den Geschäftsbedingungen der Anbieter, wie zum Beispiel OpenAI, explizit für medizinische Beratungsprozesse ausgeschlossen. Das ist wichtig und richtig, denn wir benötigen gerade für den Gesundheitsbereich eine ethisch vertretbare „explainable AI“ (Anmerkung, AI: Artificial Intelligence oder Künstliche Intelligenz) – ohne „Halluzinationen“.
Eine Software ist nicht durch persönliche Aufs und Abs geprägt
Die Frage ist, inwiefern Patientinnen und Patienten der Kommunikation mit KI-gesteuerten Systemen Vertrauen schenken. Aber wenn die KI empathisch agiert und auf einen zugeht, warum nicht?
Weßels: Ja, aber die Medaille hat noch eine andere Seite. Eigentlich ist es so eine Art „Beziehungsbetrug“ oder eine Fake-Beziehung, denn auf der anderen Seite ist ja kein realer Mensch. Aber diese Software imitiert uns Menschen so unglaublich gut, dass wir damit auch spielen und auch den Eindruck erwecken können, dass dort eine wirkliche Fürsorge, eine wirkliche/natürliche Empathie ist. Das ist sie nicht. Sie ist nur eine Imitation menschlichen Verhaltens. Und wenn dann auf der anderen Seite Menschen mit ihrem persönlichen Problem sind, Bedarf haben oder wirklich krank sind beziehungsweise sich krank fühlen – sonst würden sie nicht zur Ärztin/zum Arzt gehen –, dann ist das grenzwertig. Es ist ethisch und moralisch grenzwertig, dort eine Software einzusetzen, die die andere Seite quasi täuscht.
Andererseits ist so eine Software nicht durch persönliche Aufs und Abs geprägt. Wenn ich zu einer Ärztin/einem Arzt gehe und sie/er gerade einen schlechten Tag hat, dann verhält sie/er sich vielleicht unfreundlich, fragt nicht nach, weil sie/er belastet ist, keine Zeit oder keine Lust hat. Das Problem hätte ich bei einer Software natürlich nicht. Das muss man immer gegeneinander abwägen.
Goldene Regel: Immer den menschlichen Verstand einschalten
Auf der anderen Seite gibt es die Stimmen, die sagen, die KI spuckt das aus, womit sie gefüttert wurde. Und wenn diese Daten eben rassistisch sind oder nicht divers oder was auch immer, dann gibt die KI es auch so wieder. Dafür gibt es ja auch genügend Belege, oder?
Weßels: Ja, das ist so. Die Qualität und die Prägung hängen immer von den Trainingsdaten ab: „Garbage in, garbage out“. Wenn die Trainingsdaten schlecht sind, dann ist es ganz schwer, das wieder herauszufiltern und zu verhindern, dass sich das reproduziert.
Gibt es eine Art „Goldene Regel“ bei der Verwendung oder Anwendung von KI? Teilweise haben Sie es schon beantwortet mit den Themen Bildung und kritisches Denken.
Weßels: Die „Goldene Regel“ ist, immer den menschlichen Verstand einzuschalten, sich nicht blind darauf zu verlassen, was eine KI produziert. Und ich kann es noch ergänzen: sich unserer menschlichen Stärken stärker bewusst zu sein und diese auch wirklich auszuleben.
Wir haben als Menschen beispielsweise so etwas wie Intuition. Das hat nun mal eine KI, eine Software nicht. Wir haben einiges an Lebenserfahrung und bringen durch diese Erfahrung auch ganz viel Intuition mit. Wir haben in vielen Situationen automatisch ein Gefühl, was richtig oder falsch ist, wo Gefahr droht und so weiter. Über diesen Schatz des Wissens, der Erfahrung, müssen wir uns noch viel bewusster sein.
Intuition ist ein Beispiel dafür, wo wir eine enorme Stärke haben, aber wir sind uns häufig dieser Stärke nicht bewusst. Und in solchen Momenten, in denen unser Bauchgefühl uns sagt, „Lieber nicht“, aber eine KI sagt „Mach!“, da sollten wir innehalten.
Der KI fehlt der gesunde Menschenverstand
Gibt es noch andere menschliche Stärken? Kann eine KI beispielsweise kreativ sein im Sinne von Querdenken, im Sinne von nicht in Standards denken?
Weßels: Ich habe schon einmal versucht, auf einer Seite zusammenzustellen, was uns Menschen versus KI auszeichnet. Es gibt dazu ein Statement von Manuel Nappo (Anmerkung: Director, Institute for Digital Business, HWZ Hochschule für Wirtschaft Zürich). Er hat das sehr schön beschrieben – sinngemäß: Wir Menschen haben eine unkorrelierte Kreativität, wir haben eine spontane Empathie und die magische Fähigkeit der Neugier. Diese Fähigkeiten erlauben uns, in persönlichen Beziehungen nachzufragen, diese auch persönlich aufzubauen. Wir haben Zugang zu exklusiven Informationen, Insider-Trading von Wissen. Und ich ergänze: Wir haben einen Raum- und Zeitbezug. Den hat eine KI nicht, kann sie nicht haben.
Wir haben Intuition. Wir haben auch eine Intention. Wir haben auch eine Absicht. Eine KI hat immer ein Trainingsziel. Man kann sagen, das ist deren Intention, aber das hat doch eine andere Qualität. Wir haben Emotionen, zum Beispiel Leidensfähigkeit. Wir haben ein Verständnis von richtig und falsch. Das alles hat eine KI nicht. Und wir haben diesen gesunden Menschenverstand, den hat eine KI nicht.
Wann übernimmt die KI?
Das Thema Bewusstsein wird ja mit dem Blick in die Zukunft der KI-Entwicklung sehr kontrovers diskutiert. Wann hat eine KI ein Bewusstsein? Wann kommt die Singularität über uns? Wann übernimmt die KI? Diese Merkmale nehmen wir an uns kaum wahr oder schätzen sie nicht genug. Das war früher vielleicht auch nie ein Thema. Aber jetzt diskutieren wir immer die Grenze: Was kann KI, was kann sie nicht? Was können wir besser oder schlechter?
Wir nehmen eine Grenzziehung vor. Diese Grenze rückt immer näher an uns heran und beansprucht Bereiche und Kompetenzen, die wir bisher zu den menschlichen Stärken gezählt haben und als unsere Wesensmerkmale betrachtet haben. Plötzlich kommt so ein Thema wie Kreativität, wo man sagt: Na ja, aber hinter einem DALL-E-3-Bild oder Midjourney-Bild steckt ganz viel Kreativität.
Es gibt Tests, auch eine aktuelle wissenschaftliche Untersuchung, dass solche Systeme bei kreativen Aufgaben Leistungen erzielen wie die 1 Prozent der besten menschlichen Teilnehmenden. Das heißt, wenn man den Output an Kreativität mit normalen Maßstäben bewertet, dann tanzen ChatGPT und Co. in der vordersten Liga bei den Top-1-Prozent mit.
„Wir müssen uns als ganze Gesellschaft eine Meinung bilden“
Als Abschlussfrage: Was würden Sie den Menschen mitgeben wollen in punkto KI in Zusammenhang mit ihrer Arbeit?
Weßels: Ich würde ihnen gerne mitgeben, sich auf das Risiko einzulassen, es einfach auszuprobieren, sich eine eigene Meinung zu bilden und auch ein Gefühl dafür zu entwickeln: Passt das zu mir? Passt das zu meinem Job? Wie kann ich die KI einsetzen? Denn je später man in dieses Thema einsteigt, desto schwieriger wird es wahrscheinlich werden. Wer wagt, gewinnt vermutlich.
Aber es ist auch wichtig, dass man eine eigene Position bezieht. Und es ist schwierig, sich eine Meinung zu bilden, wenn man das Thema nur aus der Ferne betrachtet, es nicht selbst ausprobiert hat. Wir alle müssen uns zur KI eine Meinung bilden. Aber dazu müssen wir es kennenlernen und uns an das Thema heranwagen. Aus meiner Sicht ist das größte Problem, dass wir bislang nicht alle auf diese Reise mitgenommen haben.
Nach dem CP-Gaba-Netzwerktreffen mit Expertinnen und Experten vorigen Jahres entstand zur KI auch ein Interview mit Prof. Schwendicke „KI kommt definitiv. Wir sollten uns darauf einstellen und mitgestalten“.