+43-662-23457-8032 oder +49-221-732102

„Man sollte jetzt aufhören, Radiologen auszubilden“, sagt Prof. Hinton, Entwickler des „deep learning“ – eine Technik, die Maschinen lehrt, wie wir zu denken und zu arbeiten. In der Radiologie ersetzt bereits jetzt oft ein Roboter den Arzt aus Fleisch und Blut. Was ist noch möglich?

Computer, die Menschen beim Schachspiel besiegen oder Roboter, mit denen wir uns unterhalten können – Wissenschaftler versuchen seit vielen Jahren, den komplexen menschlichen Geist künstlich nachzubauen. Und immer wieder hört man von Erfolgen auf dem Gebiet der künstlichen Intelligenz, die versucht, menschliche Wahrnehmungen und menschliches Handeln mittels Maschinen nachzubilden. 2016 siegte Googles „Alpha Go“ gegen den stärksten Spieler des komplexen Brettspiels Go.

Im selben Jahr verkündete Microsoft, dass ihr entwickelter Computer Spracherkennung genauso gut hinbekommt wie ein Mensch. In den Produktionsstraßen der Automobilindustrien ersetzen Roboter schon lange eine Vielzahl menschlicher Handgriffe. 2012 landete das Fahrzeug „Curiosity“ auf dem Mars und bewegt sich dort seitdem automatisch, um Steine und andere Materialien zu analysieren und die Erkenntnisse zur Erde zu funken.

Mensch oder Computer? Manchmal schwer zu sagen …

Künstliche Intelligenz verfolgt eigentlich eine sehr einfache Idee. Bestimmte Aspekte des menschlichen Denkens sollen auf Computer übertragen werden, um eine „denkende“ Maschine zu erschaffen. Anstatt dem Computer zu sagen, wie er ein bestimmtes Problem lösen soll, soll er das durch „machine-learning“ mithilfe von Datenauswertung selbst erlernen. Das erscheint erstmal fast unmöglich angesichts der Tatsache, dass das menschliche Denken und Lernen selbst kaum verstanden ist. Bis heute kann man nicht einmal annähernd den menschlichen Verstand als Ganzes mit Computern nachvollziehen. Die Forschung rund um Künstliche Intelligenz konzentriert sich deswegen mehr auf einzelne Teilbereiche, um uns die Arbeit zu erleichtern.

1950 entwickelte der britische Mathematiker Alan Turing eine Idee, wie man feststellen kann, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat. In dem nach ihm benannten Turing-Test kommuniziert ein Mensch über eine Tastatur und einen Bildschirm, aber ohne Sicht- oder Hörkontakt, mit zwei ihm unbekannten Gesprächspartnern. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine und beide versuchen den Tester davon zu überzeugen, dass sie denkende Menschen sind.

Kann der Mensch nach der Unterhaltung nicht klar sagen, welcher von beiden die Maschine ist, hat der Computer den Turing-Test bestanden. Er gilt dann als genauso intelligent wie ein Mensch. Turing vermutete damals, dass es bis zum Jahr 2000 gelingen würde, eine solche Maschine herzustellen, doch die Komplexität menschlicher Intelligenz wurde unterschätzt. Bis heute gibt es keinen Computer, der den Turing-Test nach allen Maßstäben besteht. Doch es gibt viele Beispiele von Maschinen, die nahe rankommen. So konnte beispielsweise eine von amerikanischen Forschern erschaffene künstliche Intelligenz, die eigenständig Rezensionen verfasste, von menschlichen Testpersonen nicht von denen menschlich verfasster Rezensionen unterschieden werden.

Kein Mensch mehr in der Radiologie

Einer der Gründerväter des sogenannten „deep learnings“, das sich mit Optimierungsmethoden künstlicher Intelligenz beschäftigt, ist der britische Informatiker und Kognitionspsychologe Prof. Geoffrey Hinton. Er ist einer der angesehensten und meistzitierten Forscher auf diesem Gebiet. Schon als junger Doktorand beschäftigte er sich mit neuronalen Systemen für die Erklärung und Nachbildung von Intelligenz, die Grundlage für moderne Roboter sind.

Hinton gab letztes Jahr auf der „Machine Learning and Market for Intelligence Conference“ eine ziemlich präzise Schätzung für das Ende des Radiologie-Facharztes ab: „Wenn man als Radiologe arbeitet, ist man wie ein Koyote, der bereits über die Klippe stürzt, aber noch nicht nach unten schaut, sodass er nicht realisiert, dass es keinen Boden mehr unter ihm gibt. Man sollte jetzt aufhören, Radiologen auszubilden. Es ist offensichtlich, dass innerhalb von fünf Jahren „deep learning“ bessere Arbeit leisten wird als Radiologen es können.“

Eine ziemlich gewagte These, die, würde sie tatsächlich zutreffen, eine ganze Facharztrichtung mit einem Schlag überflüssig machen würde. Radiologen beschäftigen sich überwiegend mit der Auswertung von MRT- oder CT-Bildern. Hinton sagt, Computer ließen sich dazu trainieren, die Bilder ähnlich intelligent zu betrachten und Maschinen würden in den kommenden Jahren die Fachärzte übertreffen. Auch ein amerikanisches Forscherteam prognostizierte kürzlich, dass fast die Hälfte aller heute beschäftigten Radiologen in den nächsten zehn bis zwanzig Jahren von Computern und Robotern abgelöst werden.

Roboter in der Klinik können auch Schaden anrichten

Könnte das tatsächlich zutreffen? In der Chirurgie existieren bereits autonome Roboter, die Operateure bei Eingriffen unterstützen. Ein Beispiel dafür ist der Da-Vinci-Roboter ein unverzichtbarer Assistent bei minimal-invasiven urologischen und gynäkologischen Eingriffen an vielen Kliniken.  Der Da-Vinci-Roboter kann jedoch nicht programmiert werden und keine eigenständigen Bewegungen ausführen.

Vor ein paar Jahren stellte man große Erwartungen an den Operationsroboter „Robo-Doc“, der Hüftoperationen akkurater ausführen sollte. Zunächst waren die Chirurgen begeistert, ihr Roboter-Kollege bekam den Eingriff gut hin. Doch dann zeigte sich, dass die operierten Patienten nach der OP mehr Probleme als vorher hatten. „[...] Für den Eingriff musste die Hüfte der Patienten so überstreckt werden, dass sie Nervenschäden davontrugen“, erklärt Hartwig Bauer, langjähriger Generalsekretär der Deutschen Gesellschaft für Chirurgie.

Die Folge: Die Patienten litten unter Schmerzen, großen blauen Flecken und einem watscheligen Gang. „Roboter-Hinken hieß das, wenn wir jemanden damit durch die Klinik humpeln sahen“, sagt Bauer. Der Robo-Doc war noch lange nicht ausgereift, doch wurde er als technologisch hochwertig und fortschrittlich von Kliniken als Marketinginstrument angesehen. In den 90er Jahren waren die deutschen OP-Säle voll davon. Erst als immer mehr Patienten klagten und die Berichterstattung kritischer wurde, wurde er entsorgt. Bauer beteuert: „Inzwischen stehen die Roboter in den Kliniken im Keller.“

Arzt vs. Roboter – die Maschine arbeitet langsamer

Bis ein Roboter wirklich selbständig wie ein menschlicher Chirurg arbeiten kann, werden noch viele Jahrzehnte vergehen. Vor allem, da während einer OP oft wichtige Entscheidungen getroffen werden müssen, die Maschinen nicht treffen können.

In der Zahnmedizin gibt es allerdings schon erste Roboter, die einfache Zahnimplantate unter Aufsicht der Ärzte autonom in den menschlichen Kiefer einbringen können. China ist Vorreiter bei der Technik und will damit den Mangel an Zahnärzten in den Griff bekommen. Die menschlichen Ärzte können momentan die Aufgabe noch sehr viel schneller erledigen als der Roboter. Sie brauchen gerade einmal fünf Minuten, während die Maschine eine Stunde benötigt. Zudem ist sie auch nur bei sehr einfachen Zahnstellungen und gutem Knochenangebot einsetzbar. In komplexeren Situationen wird noch lange der echte Zahnarzt bohren müssen.

Künstliche Intelligenz hat in den kommenden Jahren mehr Potenzial in der diagnostischen Medizin. Dabei denkt man vermutlich erstmal an Ärzte wie Dr. House, die mit viel Wissen und Geschick die richtige Diagnose eines rätselhaften Falls lösen müssen. Tatsächlich ist das aber nicht die Art von Medizin, die die meisten Ärzte betreiben. Nur ein sehr kleiner Teil beschäftigt sich damit. Schon vor Jahrzehnten dachten die Menschen, dass ein medizinischer Experte sich hauptsächlich durch sein umfangreiches Wissen auszeichnet. Also versuchten Computerwissenschaftler dieses Wissen als Basis der Medizin zu autonomisieren.

Der erste Computer, der menschliche Ärzte darin besiegen konnte, war die künstliche Intelligenz MYCIN, die Ende der 70er Jahre in Stanford entwickelt wurde. Sie war ein wissensbasiertes System, das die wahrscheinlichste Ursache einer Infektion und die korrekte Behandlung des Patienten festlegen konnte. Dabei agierte sie innerhalb eines festgelegten Schemas aus 600 Regeln, die man ihr vorgab. Im Prinzip befolgte sie quasi die Leitlinien für die Therapie von bestimmten Krankheiten. MYCIN arbeitete recht gut, sie konnte öfter als menschliche Spezialisten für infektiöse Erkrankungen die richtige Behandlung auswählen. Allerdings wurde der Computer nie in der Praxis eingesetzt, denn es stellte sich als zu zeitaufwendig heraus, ihm manuell alle Daten für seine Entscheidungsgrundlage zu füttern. Außerdem war die IT-Infrastruktur in den 70er-Jahren zu schlecht, um ihn flächendeckend einzusetzen. Doch warum gibt es solche Systeme heute nicht?

Bauchgefühl lässt sich nicht programmieren

Dazu stellt man sich am besten einmal vor, wie es ist, wenn man mit Husten zum Arzt geht. Der Mediziner stellt einige Fragen, hört die Lunge ab, misst die Temperatur und tastet den Puls. Vielleicht entnimmt er auch eine Blutprobe, gegebenenfalls kann er auch noch eine Speichelprobe ins Labor senden oder im Ernstfall eine Röntgenaufnahme der Lunge veranlassen. Und wie lange dauert es bis er seine Entscheidung fällt, ob er dem Patienten ein Antibiotikum verschreibt? Wahrscheinlich nur wenige Sekunden.

Viele Ärzte nehmen das nicht einmal als bewusste Entscheidung wahr. Es passiert einfach automatisch. Menschen mit langjähriger Erfahrung denken nicht mehr bewusst über bestimmte Entscheidungen nach, sie fällen sie auf der Grundlage bestimmter Mustererkennungen innerhalb von Sekunden. Das ist ein Phänomen, das nicht nur Ärzte betrifft. Auch im Sport, der Musik oder dem Schachspielen unterscheiden sich so die Profis vom Laien.

Man könnte auch sagen: Medizin ist nicht nur eine Wissenschaft, sondern auch eine Kunst. Diese „künstlerischen“ Bereiche der Medizin lassen sich nicht besonders gut für einen Computer kodieren und in Regeln aufschreiben. In der Medizin ist das Bauchgefühl nämlich genauso wichtig wie reines Wissen. Oftmals müssen Ärzte von Leitlinien abweichen, was sie auch dürfen, da die standardisierte Therapie auf den einen Patienten individuell nicht anwendbar ist. Man kann nicht in Regeln fassen, wenn man ein „schlechtes Gefühl“ bei einem Patienten hat oder einem die eigentlich vorgeschriebene Behandlung aufgrund bestimmter Umstände nicht mehr sinnvoll erscheint. So fühlt sich Mustererkennung für einen Arzt an: Ohne bewusstes Nachdenken und in kürzester Zeit vergleicht sein Gehirn den vor ihm stehenden Patienten mit seiner bisherigen Erfahrung und lässt die beste Übereinstimmung seine Gedanken bestimmen.

Mensch oder Maschine: Wem vertrauen wir mehr?

Ärztliche Entscheidungen beruhen also nicht nur auf reinem medizinischen Fachwissen, sondern erfordern viele Tätigkeiten, die ein Computer heutzutage noch nicht nachahmen kann. Ärzte müssen den Patienten sehen. Sie müssen ihn wahrnehmen, ihm zuhören, ihn anschauen, anfassen und untersuchen. Sie müssen empathisch sein und ethische schwierige Entscheidungen treffen – all das können Maschinen nicht. Aber genau diese Aufgaben machen einen Großteil der Medizin aus.

Ein Computer kann erkennen, wenn bestimmte Laborwerte außerhalb der Norm liegen. Aber nur ein Mensch kann in Zusammenschau mit allen anderen Fakten interpretieren, ob dies ein medizinisches Eingreifen erfordert oder tolerierbar ist. Dieses Dilemma diskutiert auch der kanadische Rechtsethiker Ian Kerr in einem Beitrag für den "Ottawa Citizen". Der von IBM entwickelte Supercomputer „Watson“ kann eingesetzt werden, um bedeutende medizinische Informationen aus Literatur und riesigen unstrukturierten Datensätzen auszuwerten und so für Patienten Diagnosen zu stellen und die korrekte Behandlungsmethode auszuwählen.

Ian Kerr beschrieb folgendes Gedankenexperiment: Angenommen, Sie bekämen von Computer Dr. Watson die Diagnose Verdacht auf Leukämie. Der menschliche Arzt aber ist anderer Meinung, sein Bauchgefühl sagt ihm, dass die Diagnose nicht passt. Der Mediziner sagt Ihnen, Watson habe mit einer Wahrscheinlichkeit von 90 Prozent Recht, er selbst liege nur mit einer Wahrscheinlichkeit von 50 Prozent richtig. Wem vertrauen Sie ihr Leben an? Mensch oder Maschine?

Das Krankenhaus möchte, dass der Arzt der Empfehlung von Watson folgt, um eventuellen Klagen vorzubeugen. Objektiv betrachtet ist das auch die bessere Entscheidung, denn Watson hat eine höhere Trefferquote als menschliche Ärzte. Aber würden Sie intuitiv nicht lieber dem menschlichen Arzt und seinem Bauchgefühl vertrauen? Das Dilemma liegt im Vertrauensverlust, der daraus resultiert, dass medizinische Entscheidungen an Maschinen delegiert werden. Vertrauen ist das Fundament der Arzt-Patienten Beziehung. Vertraut man seinem Arzt nicht, lässt man sich nicht von ihm behandeln, mag er auch der beste Experte mit dem größten Fachwissen auf seinem Gebiet sein.

Hat die Maschine Recht, da sie einen viel umfangreicheren Blick auf Daten und Auswertungen hat? Nicht unbedingt. Denn die Frage ist ja auch, wie die Superroboter programmiert wurden. Nach ökonomischen Gesichtspunkten, um möglichst viele Patienten zu behandeln und möglichst gewinnorientiert zu arbeiten? Oder nach sozialen, humanitären Kriterien, die nichts als das Wohl des Menschen im Sinn haben?

„Deep learning“ schlägt den Menschen

Ältere Computer wie MYCIN treffen ihre Entscheidungen aufgrund bestimmter algorithmischer Regeln, die Menschen ihnen vorgeben und die ein sehr starres Konstrukt darstellen. Im Gegensatz dazu funktioniert „deep learning“ mit einem großen Set an Daten, aus dem es bestimmte Merkmale herauspickt und Zusammenhänge bzw. Muster erkennen kann. Je mehr Daten es zugespielt bekommt, desto besser wird es trainiert und desto besser kann es Beziehungen zwischen den Daten erkennen. Auf der Basis vorhandener Informationen kann das System das Erlernte außerdem immer wieder mit neuen Inhalten verknüpfen und dadurch erneut lernen. Es lernt quasi aus den eigenen Fehlern und wird mit jedem Misserfolg noch besser.

Die Arbeitsweise kann man sich so vorstellen: Man nehme mal an, man müsse Bilder einer Katze von denen eines Hundes unterscheiden. Das ist eine sehr einfache Aufgabe für uns Menschen – selbst ein Kleinkind kann das schon. Aber kein Mensch kann die Anweisungen, wie das genau geht, für einen Computer aufschreiben. Alle Fotos enthalten Tiere mit Fell in unterschiedlichsten Positionen, doch es lässt sich kein offensichtlicher Unterschied als Regel für die Grundlage eines Computerprogramms zur Differenzierung formulieren.

Das Maschinenlernen löst dieses Problem, indem vermieden wird, dass ein Mensch eine Entscheidungsregel aufstellen muss, um die beiden Tierarten voneinander zu trennen. Stattdessen füttert man den Computer mit Hunderten Bildern von Hunden und Katzen und sagt ihm welches Bild welches Tier zeigt. Das System lernt dann eigenständig, Hunde und Katzen auseinanderzuhalten, in dem es bestimmte Merkmale auf den Bildern erkennt und diese Muster immer einer Tierart zuordnen kann.

Die Technik des „deep learning“ ist also nützlich für Aufgaben, die mit Mustererkennung auf Fotos zu tun haben. Dies lässt sich auch in der Medizin anwenden, nämlich auf Gebieten, in denen Bilder betrachtet werden müssen wie beispielsweise in den Fachrichtungen Radiologie, Augenheilkunde, Pathologie oder Dermatologie. Das Problem, eine bestimmte Krebsart optisch von einer anderen zu unterscheiden, lässt sich auf ähnliche Weise von der Maschine lösen wie die Hunde- und Katzenbilder auseinander zu halten.

Der Computer kann dadurch wie ein Arzt denken und auf dieser Grundlage bestimmte Behandlungen vorschlagen. Der Computerwissenschafts-Professor Anton van den Hengel von der Adelaide Universität in Australien erklärt: „In Situationen, in denen die einzige erforderliche Information, um eine Entscheidung zu treffen, auf einem optischen Signal beruht, kann maschinelles Lernen [den Menschen] um Haaresbreite schlagen“.

Große Erfolge in Ophthalmologie und Dermatologie 

So wie bei der Diagnose einer häufigen Augenerkrankung bei zuckerkranken Menschen, der diabetischen Retinopathie. Diese Erkrankung ist die häufigste Ursache für Erblindung von Menschen im Alter von 20 bis 65 Jahren und wird durch Schädigungen an kleinen Blutgefäßen im Augenhintergrund verursacht. Sie wird diagnostiziert, indem Augenärzte den Augenhintergrund und seine Blutgefäße betrachten. Eine Aufgabe, die also auf der reinen Beurteilung von optischen Bildern beruht.

Ende 2016 stellten Wissenschaftler einen Computer-Algorithmus vor, der die diabetische Retinopathie auf Augenhintergrund-Fotografien mit hoher Sicherheit erkennen kann. Die Forscher trainierten eine Maschine mit „deep learning“, indem sie ihr 130.000 Fotos des Augenhintergrunds gaben, die zuvor von Augenärzten als gesund oder krank eingestuft wurden. Anschließend wurde sie an einem neuen Set aus Patientenfotos getestet und der Computer konnte eine genauso hohe Treffsicherheit in der Diagnose aufweisen wie die Augenärzte. Die Studie erregte großes Aufsehen und lässt erahnen, dass solche Computer in Zukunft gut im Rahmen von Vorsorgeuntersuchungen für Augenerkrankungen eingesetzt werden könnten.

Doch auch in der Dermatologie könnte „deep learning“ zukünftig verwendet werden. Beispielsweise bei der Diagnose von Hautkrebs. Eine Gruppe von Forschern aus Stanford veröffentlichte Anfang dieses Jahres eine Studie im Fachblatt Nature. Sie lehrten einen Computer, verdächtige Hauterscheinungen zu erkennen, die eine Biopsie benötigen, um das Vorliegen von Hautkrebs abzuklären.

Dabei wurden knapp 130.000 Bilder mit 2.000 verschiedenen Hauterkrankungen verwendet, um die Maschine zu trainieren. Das Ergebnis: Der Computer arbeitete diesmal sogar besser als die Hautärzte. Er konnte mehr Fälle von Hautkrebs erkennen und lieferte gleichzeitig eine geringere Rate an falsch-positiven Fällen. In Zukunft könnte man also beispielsweise einfach ein Foto seiner Haut mit dem Handy aufnehmen und per App bestimmen lassen, ob man eine Abklärung beim Arzt braucht. Das Team der Forscher aus Stanford arbeitet schon daran diese Idee in die Praxis umzusetzen.

Ärzte werden nicht überflüssig – aber anders

Werden also Hautärzte, Augenärzte oder Radiologen in Zukunft arbeitslos? Oder als eine Art Cyborg ein tristes Leben als PC-Aufsicht verbringen, um Algorithmen zu beaufsichtigen und nur im Zweifelsfall einzugreifen, wie Ziad Obermeyer von der Harvard Medical School vorhersagt? Das kann man stark bezweifeln. Das Betrachten von Bildern ist zwar ein großer Teil ihrer medizinischen Tätigkeit, doch nicht der alleinige Brotverdienst. Hautärzte müssen Biopsien entnehmen oder Hautkrebs operieren. Augenärzte operieren am Auge oder verschreiben wichtige Medikamente. Radiologen braucht man nicht nur für die Diagnostik, sie führen auch interventionelle Eingriffe am Patienten durch.

Indem Computer immer besser Erkrankungen auf Bildern erkennen können, werden immer mehr Patienten diagnostiziert und brauchen immer mehr Behandlung. Der Bedarf an diesen Fachärzten könnte also zukünftig sogar zunehmen. Langfristig wird sich das Aufgabenfeld der einzelnen Facharztrichtungen wandeln. Den Medizinern wird weniger diagnostische Tätigkeit abverlangt, dafür mehr Therapie und Beschäftigung mit den Patienten.

Das Menschliche wird keine Maschine so schnell ersetzen können. „Computer können einzelne ärztliche Tätigkeiten übernehmen, vor allem im Bereich der Diagnostik. Für die Therapie sind aber nach wie vor Menschen mit Skills wie Empathie und Kommunikation gefragt“, erklärt Prof. David Matusiewicz, Direktor des ifgs Institut für Gesundheit und Soziales. Kinderarzt Markus Müschenich meint: „ Die Ärzte, die sich nur über Wissen definieren, werden überflüssig. Die Rolle des Arztes wird viel interessanter. Weil das Vertrauen ist eigentlich das, warum man Arzt wird und nicht weil man Lehrbücher auswendig lernen will.“

Menschen stoßen an Grenzen, Maschinen auch

Bei allem Optimismus sollte man aber immer bedenken, dass auch Big-Data-Algorithmen Grenzen haben. Selbst die leistungsfähigsten Computer bleiben an den Bereich des Berechenbaren gebunden. Und nicht alles lässt sich berechnen, nicht für jedes Problem eine künstlich intelligente Lösung finden. Schon der russische Mathematiker Alexander Michailowitsch Ljapunow hat 1892 nachgewiesen, dass bestimmte physikalische Abhängigkeiten die Welt instabil und unberechenbar machen. Man denke nur an die Wettervorhersage.

Menschen sollten sich nicht alleine auf Computer verlassen. Ärzte sollten nicht das Wissen und Denken reduzieren und dadurch ihren ärztlichen Sachverstand verlieren. Die Unterstützung durch Maschinen im Alltag ist sicherlich ein erheblicher Fortschritt, aber man muss aufpassen, dass das ärztliche Können und Hinterfragen von Diagnosen oder Therapien erhalten bleibt. Die ärztliche Intelligenz ist zwar beschränkt, die künstliche aber auch.

 

Bildquelle: Mark, flickr