Bioinformatik

Wie KI ihre Entscheidungen erklären kann

Künstliche Intelligenz (KI) kann so trainiert werden, dass sie erkennt, ob ein Gewebebild Tumor enthält. Wie sie ihre Entscheidung trifft, bleibt bislang jedoch verborgen. Ein Team des Forschungszentrums für Protein-Diagnostik, kurz „PRODI“, der Ruhr-Universität Bochum entwickelt einen neuen Ansatz: Mit ihm wird die Entscheidung einer KI erklärbar und somit vertrauenswürdig.

Ein neuronales Netz wird zunächst mit vielen Datensätzen trainiert, um tumorhaltige von tumorfreien Gewebebildern unterscheiden zu können (Input von oben in der Grafik). Anschließend bekommt es ein neues Gewebebild aus einem Experiment präsentiert (Input von links). Über induktives Schließen erzeugt das neuronale Netz die Klassifizierung in „tumorhaltig“ oder „tumorfrei“ für das vorliegende Bild. Gleichzeitig erstellt es eine Aktivierungskarte von dem Gewebebild. Die Aktivierungskarte ist aus dem induktiven Lernprozess hervorgegangen und hat zunächst keinen Bezug zur Realität. Dieser Bezug wird hergestellt durch die falsifizierbare Hypothese, dass Bereiche mit hoher Aktivierung genau den Tumorregionen in der Probe entsprechen. Diese Hypothese kann mit weiteren Experimenten überprüft werden. Der Ansatz folgt somit der deduktiven Logik. © PRODI

Für die Arbeiten kooperierte Bioinformatiker Axel Mosig mit Prof. Dr. Andrea Tannapfel, Leiterin des Instituts für Pathologie, der Onkologin Prof. Dr. Anke Reinacher-Schick vom St. Josef Hospital der Ruhr-Universität sowie dem Biophysiker und PRODI-Gründungsdirektor Prof. Dr. Klaus Gerwert. Die Gruppe entwickelte ein neuronales Netz, also eine KI, die einordnen kann, ob eine Gewebeprobe Tumor enthält oder nicht. Dazu fütterten sie die KI mit vielen mikroskopischen Gewebebildern, von denen einige tumorhaltig, andere tumorfrei waren. „Neuronale Netze sind zunächst eine Black Box: Es ist unklar, welche Unterscheidungsmerkmale ein Netzwerk aus den Trainingsdaten lernt“, erläutert Axel Mosig. Im Vergleich zu menschlichen Expertinnen und Experten fehlt ihnen die Fähigkeit, Entscheidungen zu erklären. „Gerade bei medizinischen Anwendungen ist es aber wichtig, dass die KI erklärbar und somit vertrauenswürdig ist“, ergänzt der an der Studie beteiligte Bioinformatiker David Schuhmacher.

Die erklärbare KI des Bochumer Teams basiert daher auf der einzigen Art von sinnvollen Aussagen, die die Wissenschaft kennt: auf falsifizierbaren Hypothesen. Ist eine Hypothese falsch, so muss das durch ein Experiment nachweisbar sein. Künstliche Intelligenz folgt normalerweise dem Prinzip des induktiven Schließens: Aus konkreten Beobachtungen, den Trainingsdaten, erstellt die KI ein allgemeines Modell, auf dem basierend sie alle weiteren Beobachtungen bewertet.

Anzeige

Hintergrund

Das Problem dahinter hat der Philosoph David Hume bereits vor 250 Jahren beschrieben und lässt sich leicht veranschaulichen: Wenn man noch so viele weiße Schwäne beobachten würde, könnte man aus diesen Daten trotzdem niemals schließen, dass alle Schwäne weiß sind und dass es keine schwarzen Schwäne gibt. Die Wissenschaft bedient sich daher der sogenannten deduktiven Logik. Bei diesem Vorgehen ist eine allgemeine Hypothese der Ausgangspunkt. Zum Beispiel wird die Hypothese, dass alle Schwäne weiß sind, durch die Beobachtung eines schwarzen Schwans falsifiziert.

Aus dem mikroskopischen Bild einer Gewebeprobe (links) leitet das neuronale Netz eine Aktivierungskarte (rechts) ab. Eine Hypothese stellt den Bezug zwischen der rein rechnerisch ermittelten Intensität der Aktivierung und der experimentell überprüfbaren Erkennung von Tumorregionen her. © PRODI

„Auf den ersten Blick erscheinen die induktiv arbeitende KI und die deduktive wissenschaftliche Methode fast unvereinbar“, sagt die ebenfalls an der Studie beteiligte Physikerin Stephanie Schörner. Aber die Forschenden fanden einen Weg. Ihr neu entwickeltes neuronales Netz liefert nicht nur eine Klassifikation, ob eine Gewebeprobe tumorhaltig oder tumorfrei ist. Sie erzeugt zusätzlich eine Aktivierungskarte des mikroskopischen Gewebebildes. Die Aktivierungskarte orientiert sich an einer falsifizierbaren Hypothese, nämlich dass die vom neuronalen Netz abgeleitete Aktivierung genau den Tumorregionen in der Probe entspricht. Mit ortsspezifischen molekularen Methoden kann diese Hypothese überprüft werden.

„Dank der interdisziplinären Strukturen am PRODI haben wir beste Voraussetzungen, um den hypothesenbasierten Ansatz zukünftig in die Entwicklung vertrauenswürdiger Biomarker-KI einfließen zu lassen, beispielsweise um bestimmte Therapie-relevante Tumor-Subtypen unterscheiden zu können“, resümiert Axel Mosig.

Förderung

PRODI wird gefördert vom Ministerium für Kultur und Wissenschaft des Landes NRW (Grantnummer 111.08.03.05-133974). Das Bundesministerium für Bildung und Forschung förderte einen Teil der Arbeiten im Rahmen des Projekts „Slide2Mol“ unter dem Förderkennzeichen 031L0264.

Originalveröffentlichung: David Schuhmacher et al.: A framework for falsi- fiable explanations of machine learning models with an application in computational pathology, in: Medical Image Analysis, 2022, DOI: 10.1016/j.media.2022.102594

Quelle: Ruhr-Universität Bochum

Anzeige

Das könnte Sie auch interessieren

Anzeige

Assistenzsystem

Cobot mit 3D-Kamera und KI

Beim Unternehmen „bAhead“ wurde eine Lösung konzipiert, die Labormitarbeitende unterstützen kann. Das Kernelement ist ein kleiner kollaborierender Roboterarm namens Buddy, der Geräte bedienen oder auch Pipettieren und logistische Prozesse übernehmen...

mehr...
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige