KI: Detektiv, der Brustkrebs aufspürt

Die Künstliche Intelligenz KI kann helfen, Mammografie-Bilder besser zu interpretieren und Brustkrebs sicherer zu diagnostizieren. Doch die KI ist nicht frei von Fehlern. Ein neuer Algorithmus teilt jetzt mit, wie er zu seinen medizinischen Entscheidungen gekommen ist.

Künstliche Intelligenz (KI oder engl. AI) soll Brustkrebs zukünftig sicherer und zuverlässiger erkennen. An der Entwicklung solchen Algorithmen wird überall auf der Welt intensiv geforscht. Die KI soll Radiologen und Radiologinnen aber in Zukunft keineswegs ersetzen, sondern nur ihre Arbeit unterstützen. Darin sind sich die meisten Forschenden einig. Jetzt haben Computerspezialisten und Radiologinnen der Duke University eine neue Plattform für die künstliche Intelligenz entwickelt. Sie soll Veränderungen auf Mammografie-Bildern, die auf Brustkrebs hindeuten,  analysieren – und so bei der Entscheidung helfen, ob eine Gewebeprobe (Biopsie) nötig ist oder nicht.

Im Gegensatz zu anderen KI-Tools sei der Algorithmus jedoch interpretierbar und ermögliche das Nachvollziehen der medizinischen Entscheidungen, schreiben die Autoren und Autorinnen. Das heißt: Die künstlichen Intelligenz zeigt den Fachleuten genau, wie sie zu ihren Schlussfolgerungen gekommen ist. Die Ergebnisse veröffentlichten die Forschenden in der Dezemberausgabe des Fachmagazins Nature Machine Intelligence.

KI – Training für den Algorithmus auf Brustkrebs

Zunächst trainierten sie die KI, um Brustveränderungen genau zu lokalisieren und ihre Gefährlichkeit zu bewerten – genauso, wie eine Radiologin oder ein Radiologe auch darin geschult wird. Die KI entwickelt also nicht einfach selbst ihre eigenen Vorgehensweisen, um die Mammografie-Scans zu interpretieren.

Die Grundlage für das Training der KI waren 1.136 Bilder von 484 Patientinnen der Duke University. Zuerst brachten die Wissenschaftler dem Algorithmus bei,  verdächtige Veränderungen aufzuspüren und sämtliches gesunde Gewebe sowie andere nicht relevante Veränderungen zu ignorieren. Dann stufte ein Radiologe sämtliche Bilder sorgfältig ein und etikettierte sie als krebsverdächtig oder ungefährlich. Er lehrte die KI, sich auf die Ränder der Veränderungen zu konzentrieren. Denn dort treffen potenziell bösartige Krebszellen auf  umliegendes gesundes Gewebe. Die KI lernte schließlich anhand dieser Ränder, „gut“ und „böse“ voneinander zu unterscheiden.

So zählen zum Beispiel sternförmige Linien oder ausgefranste Ränder zu jenen Merkmalen, anhand derer Radiologinnen bösartige Tumoren erkennen können und nach denen sie zuerst auf den Bildern schauen. Krebszellen teilen und verbreiten sich so schnell, dass nicht alle Tumorränder in der Mammografie-Scans leicht zu sehen sind.

Dies ist ein neuer Weg, um den Blick der KI auf medizinische Bilder zu trainieren.

Alina Barnett, Computerspezialistin und Erstautorin der Studie.

Nach dem Training unterzogen sie die KI einigen Tests, um herauszufinden, wie gut sie funktionierte. Sie schnitt zwar nicht besser ab als radiologische Fachleute, aber auch nicht schlechter als andere Computermodelle. Allerdings hat sie den Autorinnen zufolge einen Vorteil: Lag die neue KI falsch, konnten die radiologischen Fachleute erkennen, dass sie Fehler produzierte. Und vor allem erfuhren sie, warum dies so war.

Jetzt wollen die Forschenden dem Algorithmus weitere Charakteristika beibringen, die er bei der Entscheidungsfindung „bösartig oder nicht“ berücksichtigen soll. Dazu gehört zum Beispiel die Form der Veränderung – auch darauf achten Radiologen ganz besonders in Mammografie-Bildern.

Entscheidungen der KI für Menschen nachvollziehbar machen

Die KI-Plattform könnte zum Beispiel für Studierende nützlich sein, um zu lernen, wie sich die Brust-Bilder richtig lesen lassen. Sie könnte aber auch Ärzten und Ärztinnen helfen, etwa in dünn besiedelten Regionen der Welt. Diese haben oft kaum Möglichkeiten, sich im Interpretieren der Bilder zu üben und bringen daher wenig Erfahrung mit. Dank der KI-gestützten Plattform könnten sie bald bessere gesundheitliche Entscheidungen für ihre Patientinnen treffen, so die Idee.

Wenn ein Computer bei wichtigen medizinischen Entscheidungen helfen soll, müssen Ärzte und Ärztinnen darauf vertrauen können, dass die KI ihre Rückschlüsse auf etwas Sinnvolles stützt.

Prof. Joseph Lo, Radiologe an der Duke University

„Wir brauchen Algorithmen, die nicht nur funktionieren, sondern sich auch selbst erklären. Sie sollten Beispiele zeigen, auf welcher Basis sie ihre Rückschlüsse ziehen“, so Lo weiter. Nur so sei die KI ein geeignetes Werkzeug für bessere medizinische Entschlüsse – unabhängig davon, ob ein Radiologe oder ein Radiologe mit den Interpretationen der Mammografie-Bilder übereinstimmt oder nicht.

KI erkennt Unterschiede, die durch Geräte bedingt sind

Eine KI, die medizinische Bilder lesen und auswerten kann, ist weltweit eine große Industrie. Tausende von Algorithmen existieren bereits. Die amerikanische Gesundheitsbehörde FDA hat schon mehr als 100 Algorithmen für medizinische Zwecke genehmigt. Unabhängig davon, ob die KI Magnetresonanztomografie- (MRT), Computertomografie- (CT)- oder Mammografie-Bilder interpretiert – nur wenige Algorithmen verwendeten Datensätze zur Auswertung mit mehr als 1.000 Bildern oder demografische Informationen, schreiben die Autoren der KI-Studie.

Dieser Datenmangel, verbunden mit der Tatsache, dass einige vielversprechende Algorithmen nicht die erhoffte Verlässlichkeit zeigten, brachte viele Ärzte dazu, den Einsatz der KI  bei sehr wichtigen medizinischen Entscheidung zu hinterfragen. Manchmal versagten Algorithmen auch schlichtweg, vor allem bei der Analyse von Bildern aus verschiedenen Einrichtungen und wenn unterschiedliche Geräte und Ausrüstungen verwendet worden waren.

Die KI der Duke University fokussierte daher nicht ausschließlich auf die krebsverdächtige Brustveränderungen. Vielmehr lernte der Algorithmus, feine Unterschiede zu erkennen, die durch die Geräte selbst bedingt waren. Die KI konnte Bilder aus verschiedenen Krebsabteilungen analysieren und Veränderungen zuzuordnen, die mit hoher Wahrscheinlichkeit bösartig sind. Erwartungsgemäß schnitt die KI nicht gut ab, wenn Kliniken verschiedene Geräte und Ausrüstungen verwendeten. Weil aber niemand wusste, wonach der Algorithmus bei der Entscheidungsfindung überhaupt Ausschau hielt, war es auch unklar, dass er einfach an den Anwendungen der „realen Welt“ scheiterte.

„Unsere Idee war es, stattdessen ein System zu entwickelt, dass uns Folgendes sagen kann: Dieser spezielle Teil einer potenziell bösartigen Veränderung sieht ziemlich ähnlich aus wie eine andere, die ich zuvor schon einmal gesehen habe“, erklärt Alina Barnett. „Ohne das Wissen um diese Details werden Mediziner und Medizinerinnen vermutlich viel Zeit verlieren – und vor allem das Vertrauen in die Technik. Denn sie verstehen nicht, warum die KI manchmal Fehler macht“, so Barnett weiter.

Verstehen, wie die KI Entscheidungen trifft

Cynthia Rudin, Professorin für Electrical and Computer Engineering and Computer Science vergleicht die Prozesse der neuen KI-Plattform mit einem Immobilien-Gutachter. Die auf dem Markt befindlichen KI-Modelle ähnelten eher einer „Black Box“, findet sie.

In Rudins Beispiel würde ein Gutachter einen Preis für ein Haus benennen, ohne irgendeine weitere Erklärung dazu abzugeben. Der Gutachter könnte vielleicht noch das Dach und den Garten hinter dem Haus als Schlüsselfaktoren für seine Preisgestaltung herausstellen, aber jenseits davon würde er keine weiteren Details liefern. „Unsere Methode würde sagen, dass Sie ein besonderes Kupferdach und einen Pool im Garten haben – ähnlich wie bei anderen Häusern in der Nachbarschaft. Dies sind dann die Gründe für den genannten Kaufpreis“, sagt Rudin. So könnte ihrer ANsicht nach eine bessere Transparenz der KI bei medizinischen Bildern aussehen.

Fides Schwartz, Forschungsstipendiatin an der Duke University, fasst die Anwendung der KI in der medizinischen Diagnostik so zusammen: “Es war ziemlich aufregend, als Forscher die KI anfangs bei der Analyse medizinischer Bildern einsetzten. Denn der Computer könnte vielleicht etwas sehen oder herausfinden, wozu Menschen nicht in der Lage sind. In seltenen Fällen mag das der Fall sein, aber wahrscheinlich nicht in der Mehrzahl. Deshalb sollten wir sicherstellen, dass wir als Menschen verstehen, welche Informationen der Computer genutzt hat und auf welchen Kriterien seine Entscheidung basiert.“

Quelle:

Alina Jade Barnett, Fides Regina Schwartz, Chaofan Tao, Chaofan Chen, Yinhao Ren, Joseph Y. Lo and Cynthia Rudin. A Case-Based Interpretable Deep Learning Model for Classification of Mass Lesions in Digital Mammography. Nature Machine Intelligence, Dec. 15, 2021. DOI: 10.1038/s42256-021-00423-x

Ingrid Müller

Ingrid Müller hat Biologie und Chemie studiert, ist gelernte Journalistin, Buchautorin und schreibt für verschiedene Medien, unter anderem Focus Gesundheit. Sie ist Chefredakteurin des Gesundheitsportals Prostata Hilfe Deutschland, die sich an Männer mit Prostatakrebs richtet. Zudem entwickelt sie digitale Gesundheitsprojekte mit. Zwölf Jahre war sie Chefredakteurin des Gesundheitsportals netdoktor.de