1776 Einzelbilder. Alles Schichtaufnahmen eines Brustkorbs, von einem männlichen Patienten, etwa Mitte 60. Eine wahre Datenflut, die Professor Meinrad Beer zu bearbeiten hat. Die Fragestellung lautet: Hat der Patient Entzündungsherde in der Lunge? Tuberkulosezeichen? Liegen am Ende gar „raumfordernde Prozesse“ wie Krebs vor?
Konzentriert sitzt der Ärztliche Direktor der Klinik für diagnostische und interventionelle Radiologie an der Uniklinik Ulm am Bildschirm seines Büros und scrollt zig Aufnahmen hin und her, die er zum Teil nach Gusto in drei Dimensionen auf dem Bildschirm drehen und wenden kann. Immer besser werden die Patientenaufnahmen, sagt er bedächtig. „Aber es werden zugleich auch immer noch mehr Bilder, die zu befunden sind“, erklärt der 53-Jährige. Hat man früher je nach Fragestellung einige wenige Röntgenaufnahmen gemacht, sind es heute eben hunderte oder tausende Schichtaufnahmen. Seit einem Jahr allerdings bekommen er und die 39 weiteren Ärztinnen und Ärzte seiner Abteilung Hilfestellung - durch Künstliche Intelligenz (KI).
Roboter sind unscheinbar
Künstliche Intelligenz? Das klingt für viele Menschen nach wie vor nach Science-Fiction. Nach Robotern, die am Krankenbett helfen. An der Uniklinik Ulm ist das ein Stück weit sogar schon Realität. Natürlich laufen keine Androiden auf den Krankenstationen herum und stellen Diagnosen. Die Sache ist unscheinbarer und der Patient selbst bekommt davon in Ulm auch nichts mit. Aber: Eine Art Roboterprogramm hilft den Radiologen bei der Durchsicht der riesigen Datensätze. Welches Resümee zieht Professor Beer nach der zwölfmonatigen Startphase?
„Vor einigen Jahren, da gab es noch so eine Art Euphorie, was dieses Thema angeht“, erinnert sich Beer. „Es hieß, die Künstliche Intelligenz wird sich jetzt rasch durchsetzen. Inzwischen ist die Stimmung verhaltener geworden.“ Denn die KI bleibe bislang doch weit hinter den Erwartungen zurück. „Sie kann viel leisten - und zugleich manchmal eigentlich nur sehr wenig.“
KI schaut mit
Meinrad Beer blickt zurück. 25, vielleicht 30 Jahre. „Da wurden noch Aufnahmen gemacht, die dann in der Dunkelkammer entwickelt wurden.“ Die Diagnostiker versammelten sich an Leuchtschirmen, um gemeinsam beispielsweise Röntgenaufnahmen zu bewerten. Viele Augen sollten mehr sehen als nur zwei. Heute schauen sozusagen auch die Augen der Künstlichen Intelligenz mit auf die Aufnahmen.
Ein klassisches Beispiel aus der Radiologie, bei der heute KI zum Einsatz kommt, ist etwa die Aufnahme von Handwurzelknochen bei Kindern. Solche Bilder werden etwa angefertigt, wenn ein Kind für sein Lebensalter zu klein zu sein scheint. Wenn die Aufnahme einen Unterschied zwischen biologischem und chronologischem Alter belegt, kann das ein Hinweis auf eine Entwicklungsverzögerung oder auf eine Stoffwechselerkrankung sein. „Früher gab es ganze Atlanten zu diesem Thema. Man hat dann aktuelle Bilder mit den Bildern in den Atlanten verglichen - und konnte belastbare Aussagen treffen.“
Aussagen der KI oft problematisch
Vor einiger Zeit wurden dann erste KI-Programme auf den Markt gebracht, die sozusagen schon die zahlreichen Atlanten in sich bargen, mit aktuellen Aufnahmen verglichen und eine Aussage trafen. Klingt zunächst nach einem guten Plan. Doch ist diesen Programmen zu trauen? Meinrad Beer schüttelt vorsichtig den Kopf. „Da gibt es immer wieder Situationen, wo die Aussagen der KI problematisch sind. Etwa, wenn die Knochen des Kindes durch Rheuma verändert sind.“ Das komme zwar nicht oft vor. „Aber das gibt es natürlich trotzdem.“
Dann versagt die KI. Mit dieser Sondersituation kann sie nichts anfangen. Weitere Fragen können sich aufdrängen: Liegt ein Knochenbruch der Handwurzel vor? Womöglich gar eine Misshandlung, an die ein Arzt zusätzlich denken muss? „Die KI kann viele Datensätze mit hoher Geschwindigkeit bewerten. Aber ihr Problem ist das Unerwartete. Das kann sie noch nicht erkennen. Und ich glaube - je nach Einsatzgebiet -, das wird auch noch lange so bleiben.“
Anwendung trotzdem oft sinnvoll
Aber in seiner Abteilung wird trotzdem KI angewendet - allerdings an einer anderen Stelle. Um das zu erklären, kehrt Meinrad Beer zurück zu den 1776 Schichtaufnahmen, um die Lunge eines Patienten zu bewerten. Der übrigens nicht unbedingt aus Ulm kommen muss. Beer bewertet auch Aufnahmen, die ihm etwa aus kleineren Kliniken in der Umgebung oder aus Praxen zugesandt werden.
Das menschliche Auge ist ein wunderbares Organ, das unglaublich viel über die nähere Umgebung eines Menschen mitteilen kann. Aber es wird zuweilen müde. Künstliche Intelligenz hingegen wird nicht müde. Darum hat Professor Beer ein Programm im Einsatz, das in der Lage ist, auf den Schichtaufnahmen sogenannte runde Strukturen zu erkennen. Strukturen, die teils sogar recht klein sind. Zu klein für unsere Augen. Warum rund? Weil Entzündungsherde in der Lunge oft rund sind, ebenso aber auch Tumoren.
Manches wird gefunden, manches nicht
Tatsächlich weist die Künstliche Intelligenz den Professor bei der Analyse der 1776 Bilder auf zwei Stellen hin, die sie als verdächtig erkannt hat. Sie werden mit einem Kreis eingekringelt und so optisch herausgehoben. Treffer! „Es handelt sich tatsächlich um entzündliche Stellen. Die KI ist hier fündig geworden.“ Der Radiologe scrollt aber weiter - in andere Bereiche des Thorax. Zwei längliche Strukturen erregen zusätzlich seine Aufmerksamkeit. „Das sind ebenfalls entzündliche Bereiche“, sagt er kurz darauf. Das kann er anhand seiner jahrzehntelangen Erfahrung sagen. „Aber die KI hat sie nicht erkannt.“ Weil die Strukturen nicht dem entsprachen, was die Künstliche Intelligenz erkennen kann. Oder zumindest: noch nicht erkennen kann. Denn KI kann ja lernen. Doch wie geht das vor sich? Und welche Probleme gibt es dabei?
Szenenwechsel von der Uniklinik Ulm in die Universität Ulm - in das Institut für medizinische Systembiologie. Was in der Donaustadt übrigens keine große Reise bedeutet. Denn beide Institutionen - Uni wie Uniklinik - befinden sich in der Wissenschaftsstadt auf dem Eselsberg, wie die Anhöhe vor den Toren der schwäbischen Großstadt heißt. Eine gewaltige Anhäufung von Gebäuden, in denen Medizin und Wissenschaft praktiziert wird. Eine Kleinstadt für sich.
Forschung zur KI
Institutsleiter Professor Hans Kestler beschäftigt sich schon seit gut 30 Jahren mit künstlichen neuronalen Netzen. Sein Institut steht übrigens im engen Austausch mit Professor Meinrad Beer. Darin wird intensiv am Thema Künstliche Intelligenz geforscht. Wer sich von Hans Kestler erklären lässt, wie KI funktioniert, dem wird schnell klar, dass man dieses Thema nicht in einem Absatz und in einem Tageszeitungsartikel erläutern kann. „Es ist höchst komplex und es wird rasch sehr mathematisch“, sagt Kestler. Man spürt förmlich, wie er dafür brennt. Immer wieder springt der 56-Jährige auf und gestikuliert mit Verve, um seine Erläuterungen zu bekräftigen.
Für Laien kann man KI vielleicht so zusammenfassen. Das Gehirn eines Menschen besteht aus einem neuronalen Netz. Forscher versuchen nun, dieses Prinzip am Rechner nachzubilden. Das künstliche Netz wird gefüttert mit Beispielen, sogenannten Trainingsdaten. Es lernt also. Je mehr Daten dieses Netz erhält, desto besser kann es werden. Und - ganz praktisch zurückgeführt auf das Beispiel aus der Radiologie - etwa runde Strukturen in einer Lunge mit hohem Tempo erkennen und auf sie hinweisen.
Ergebnisse oft nicht vergleichbar
Hier ergibt sich aber für den Bereich der Medizin folgende Problematik: „Zum einen sind die Daten wegen des Datenschutzes sensibel. Man bekommt nicht so leicht Trainingsdaten, um eine KI zu verbessern“, sagt Professor Kestler. Zum anderen sind die völlig unterschiedlichen Datenformate ein Problem. Patienteninformationen können in den verschiedensten Formaten vorliegen. Das fängt an bei alten Arztbriefen, die gar nicht digital erfasst, sondern nach wie vor in eine Patientenakte eingeordnet sind. Dazu kommen oft Laborwerte aus mehreren Jahren und von mehreren Laboren mit teils nicht gut vergleichbaren Parametern. Es gibt rein analoge alte Röntgen- und CT-Aufnahmen in der Patientenakte, dann wieder modernste Schichtaufnahmen, die aber ausschließlich digital vorliegen. Wenn nun eine KI - und das wäre ja das Ziel - alle Informationen sichten und bewerten können soll, dann müssten diese Daten zunächst so formatiert sein, dass die KI sie überhaupt lesen kann.
Ein Riesenproblem. „Wir stehen in vielerlei Hinsicht noch ganz am Anfang“, sagt Kestler lächelnd. „Und sind noch Lichtjahre entfernt von Science-Fiction.“ Er meint: von Robotern, die eines Tages Menschen medizinisch versorgen.
Was kann KI noch?
Aber natürlich wird an seinem Institut intensiv in diese Richtung geforscht. Etwa an KI-Programmen, die Schmerzen bei Patienten erkennen und bewerten können - unter anderem in ihren Gesichtern. Oder Prostatazellen auf Entartungen hin analysieren. Wie diese Forschung konkret aussieht? Viel zu sehen gibt es eigentlich nicht. Die Institutsmitarbeiterinnen und -mitarbeiter von Kestler sitzen vor ihren Rechnern - und programmieren.
Zurück in die - benachbarte - Klinik. Meinrad Beers Kollege aus der Nuklearmedizin, Professor Ambros Beer (trotz Namensgleichheit sind die beiden Chefärzte nicht miteinander verwandt), nutzt Künstliche Intelligenz in seiner Abteilung noch nicht. Er will es aber tun, sobald passende Programme für ihn zur Verfügung stehen. Er sieht beim Thema Künstliche Intelligenz allerdings praktische Probleme, die auf die Medizinerinnen und Mediziner zukommen. Bislang werden Ärzte ja auch intensiv in puncto Diagnostik ausgebildet. „Doch was tun wir, wenn das eines Tages nur noch die KI übernimmt?“, fragt sich der 48-Jährige. Werden dann bestimmte diagnostische Fähigkeiten gar nicht mehr vermittelt?
Problem Verantwortlichkeit
Für seinen Namensvetter Meinrad Beer ragt dieser Hinweis dann schon in das nächste Problemfeld - die Haftung. „Wer wird verantwortlich sein, wenn die KI etwas übersieht?“ Der Arzt? Die Firma, die die KI herstellt? Ein zweites KI-Programm für Analysen des Knochensystems hat Beer vor einiger Zeit abschalten lassen, weil es ihm nicht sicher genug erschien. „Es war zu fehlerhaft.“
Schlussendlich ist sich Meinrad Beer in einer Sache sicher: Künstliche Intelligenz wird auch auf lange Sicht nur ein assistierendes Werkzeug sein, das der Ärztin oder dem Arzt zur Hand geht. „Die endgültige Verantwortung bleibt beim Arzt.“ Meinrad Beer kann sich zwar vorstellen, dass die Künstliche Intelligenz etwa beim Brustkrebs-Screening zum Einsatz kommt. „Da schauen bislang vier Augen drauf - auf die Aufnahmen. Ich könnte mir vorstellen, dass das zweite Augenpaar in Zukunft vielleicht bei der Künstlichen Intelligenz angesiedelt sein könnte.“ Solche - letztlich immer noch eher zurückhaltende - Überlegungen gebe es jedenfalls in Europa.
In Asien und USA unvoreingenommener
Wesentlich offener gegenüber der Künstlichen Intelligenz und ihren Fähigkeiten seien Medizinerinnen und Mediziner hingegen in den USA, im noch größeren Umfang in Asien. „Ich kenne eine Kollegin aus Südkorea, die lässt sich die Mammografie-Aufnahmen des Tages in der Nacht darauf von ihrer KI vorsortieren.“ Und sie schaue sich dann nur noch jene Bilder an, die von der KI als kritisch angesehen wurden. „Da kann man sich natürlich fragen: Wer trägt hierfür die Verantwortung?“
Der Radiologe schüttelt den Kopf und sagt resümierend: „Dafür ist die technische Entwicklung der KI noch bei weitem nicht ausgereift.“ (AZ)