„Man sollte jetzt aufhören, Radiologen auszubilden“, sagt Prof. Hinton, Entwickler des „deep learning“ – eine Technik, die Maschinen lehrt, wie wir zu denken und zu arbeiten. Bereits heute können computergestützte Systeme mit hoher Treffsicherheit Diagnosen stellen. Wann werden Roboter Ärzte aus Fleisch und Blut ersetzen?
Computer, die Menschen beim Schachspiel besiegen oder Roboter, mit denen wir uns unterhalten können – Wissenschaftler versuchen seit vielen Jahren, den komplexen menschlichen Geist künstlich nachzubauen. Und immer wieder hört man von Erfolgen auf dem Gebiet der künstlichen Intelligenz, die versucht, menschliche Wahrnehmungen und menschliches Handeln mittels Maschinen nachzubilden. 2016 siegte Googles „Alpha Go“ gegen den stärksten Spieler des komplexen Brettspiels Go.
Im selben Jahr verkündete Microsoft, dass ihr entwickelter Computer Spracherkennung genauso gut hinbekommt wie ein Mensch. In den Produktionsstraßen der Automobilindustrie ersetzen Roboter schon lange eine Vielzahl menschlicher Handgriffe. 2012 landete das Fahrzeug „Curiosity“ auf dem Mars und bewegt sich dort seitdem automatisch, um Steine und andere Materialien zu analysieren und die Erkenntnisse zur Erde zu funken. Intelligente Computer sind aus unserem Alltag nicht mehr wegzudenken. Wann werden sie auch die Medizin revolutionieren?
Mensch oder Computer? Manchmal schwer zu sagen…
Künstliche Intelligenz verfolgt eigentlich eine sehr einfache Idee. Bestimmte Aspekte des menschlichen Denkens sollen auf Computer übertragen werden, um eine „denkende“ Maschine zu erschaffen. Anstatt dem Computer zu sagen, wie er ein bestimmtes Problem lösen soll, soll er das durch „machine-learning“ mithilfe von Datenauswertung selbst erlernen. Das erscheint erstmal fast unmöglich angesichts der Tatsache, dass das menschliche Denken und Lernen selbst kaum verstanden ist. Bis heute kann man nicht einmal annähernd den menschlichen Verstand als Ganzes mit Computern nachvollziehen. Die Forschung rund um Künstliche Intelligenz konzentriert sich deswegen mehr auf einzelne Teilbereiche, um uns die Arbeit zu erleichtern.
1950 entwickelte der britische Mathematiker Alan Turing eine Idee, wie man feststellen kann, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat. In dem nach ihm benannten Turing-Test kommuniziert ein Mensch über eine Tastatur und einen Bildschirm, aber ohne Sicht- oder Hörkontakt, mit zwei ihm unbekannten Gesprächspartnern. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine und beide versuchen den Tester davon zu überzeugen, dass sie denkende Menschen sind.
Kann der Mensch nach der Unterhaltung nicht klar sagen, welcher von beiden die Maschine ist, hat der Computer den Turing-Test bestanden. Er gilt dann als genauso intelligent wie ein Mensch. Turing vermutete damals, dass es bis zum Jahr 2000 gelingen würde, eine solche Maschine herzustellen, doch die Komplexität menschlicher Intelligenz wurde unterschätzt. Bis heute gibt es keinen Computer, der den Turing-Test nach allen Maßstäben besteht. Doch es gibt viele Beispiele von Maschinen, die dem sehr nahe kommen. So konnte beispielsweise eine von amerikanischen Forschern erschaffene künstliche Intelligenz, die eigenständig Rezensionen verfasste, von menschlichen Testpersonen nicht von denen menschlich verfasster Rezensionen unterschieden werden.
Kein Arzt mehr in der Radiologie
Einer der Gründerväter des sogenannten „deep learnings“, das sich mit Optimierungsmethoden künstlicher Intelligenz beschäftigt, ist der britische Informatiker und Kognitionspsychologe Prof. Geoffrey Hinton. Er ist einer der angesehensten und meistzitierten Forscher auf diesem Gebiet. Schon als junger Doktorand beschäftigte er sich mit neuronalen Systemen für die Erklärung und Nachbildung von Intelligenz, die Grundlage für moderne Roboter sind.
Hinton gab letztes Jahr auf der „Machine Learning and Market for Intelligence Conference“ eine ziemlich präzise Schätzung für das Ende des Radiologie-Facharztes ab: „Wenn man als Radiologe arbeitet, dann ist man wie ein Kojote, der über eine Klippe stürzt. Er sieht nicht nach unten und realisiert deshalb nicht, dass er längst den Boden unten seinen Füßen verloren hat. Ich sage Ihnen: Man sollte jetzt aufhören Radiologen auszubilden. Es ist offensichtlich, dass innerhalb von fünf Jahren „deep learning“ bessere Arbeit leisten wird als Radiologen es können.“
Eine ziemlich gewagte These, die - würde sie tatsächlich zutreffen - eine ganze Facharztrichtung mit einem Schlag überflüssig machen würde. Radiologen beschäftigen sich überwiegend mit der Auswertung von MRT- oder CT-Bildern. Hinton sagt, Computer ließen sich dazu trainieren, die Bilder ähnlich intelligent zu betrachten und Maschinen würden in den kommenden Jahren die Fachärzte übertreffen. Auch ein amerikanisches Forscherteam prognostizierte kürzlich, dass fast die Hälfte aller heute beschäftigten Radiologen in den nächsten zehn bis zwanzig Jahren von Computern und Robotern abgelöst werden.
Roboter in der Klinik können auch Schaden anrichten
Könnte das tatsächlich zutreffen? In der Chirurgie existieren bereits autonome Roboter, die Operateure bei Eingriffen unterstützen. Ein Beispiel dafür ist der Da-Vinci-Roboter, ein unverzichtbarer Assistent bei minimal-invasiven urologischen und gynäkologischen Eingriffen an vielen Kliniken. Mithilfe des Roboters können Chirurgen wie an einer Spielekonsole die Arme des Roboters mittels eines Joysticks steuern. In Echtzeit werden die Handbewegungen des Operateurs auf die Roboterarme übertragen, was eine millimetergenaue Steuerung der feinen Instrumente erlaubt. Unwillkürliche Bewegungen wie Händezittern werden ausgeglichen. Der Da-Vinci-Roboter kann jedoch nicht programmiert werden und keine eigenständigen Bewegungen ausführen, ist also noch kein “autonomer” Roboter.
Vor ein paar Jahren stellte man auch große Erwartungen an den Operationsroboter „Robo-Doc“, der Hüftoperationen akkurater ausführen sollte. Zunächst waren die Chirurgen begeistert, ihr Roboter-Kollege bekam den Eingriff gut hin. Doch dann zeigte sich, dass die operierten Patienten nach der OP mehr Probleme als vorher hatten. „[...] Für den Eingriff musste die Hüfte der Patienten so überstreckt werden, dass sie Nervenschäden davontrugen“, erklärt Hartwig Bauer, langjähriger Generalsekretär der Deutschen Gesellschaft für Chirurgie.
Die Folge: Die Patienten litten unter Schmerzen, großen blauen Flecken und einem watscheligen Gang. „Roboter-Hinken hieß das, wenn wir jemanden damit durch die Klinik humpeln sahen“, sagt Bauer. Der Robo-Doc war noch lange nicht ausgereift, doch wurde er als technologisch hochwertig und fortschrittlich von Kliniken als Marketinginstrument angesehen. In den 90er Jahren waren die deutschen OP-Säle voll davon. Erst als immer mehr Patienten Klage einreichten und die Berichterstattung kritischer wurde, wurde er entsorgt. Bauer beteuert: „Inzwischen stehen die Roboter in den Kliniken im Keller.“
Arzt vs. Roboter – die Maschine arbeitet langsamer
Bis ein Roboter wirklich selbständig wie ein menschlicher Chirurg arbeiten kann, werden noch viele Jahrzehnte vergehen. Vor allem, da während einer OP oft wichtige Entscheidungen getroffen werden müssen, die Maschinen nicht treffen können.
In der Zahnmedizin gibt es allerdings schon erste Roboter, die einfache Zahnimplantate unter Aufsicht der Ärzte autonom in den menschlichen Kiefer einbringen können. China ist Vorreiter bei der Technik und will damit den Mangel an Zahnärzten in den Griff bekommen. Doch auch hier ist die Technik noch nicht voll ausgereift. Die menschlichen Ärzte können momentan die Aufgabe noch sehr viel schneller erledigen als der Roboter. Sie brauchen gerade einmal fünf Minuten, während die Maschine eine Stunde benötigt. Zudem ist sie auch nur bei sehr einfachen Zahnstellungen und gutem Knochenangebot einsetzbar. In komplexeren Situationen wird noch lange der echte Zahnarzt bohren müssen.
Künstliche Intelligenz hat in den kommenden Jahren mehr Potenzial in der diagnostischen Medizin, die auf umfangreiche Sachkenntnis angewiesen ist. Schon vor Jahrzehnten dachten die Menschen, dass ein medizinischer Experte sich hauptsächlich durch sein außerordentliches Wissen auszeichnet. Also versuchten Computerwissenschaftler dieses Wissen als Basis der Medizin zu autonomisieren.
Der erste Computer, der menschliche Ärzte in reinem Know-How besiegen konnte, war die künstliche Intelligenz MYCIN. Sie wurde Ende der 70er Jahre in Stanford entwickelt und konnte binnen Sekunden die richtige Antwort auf die wahrscheinlichste Ursache einer Infektion sowie deren korrekte Behandlung liefern. Dabei agierte sie innerhalb eines festgelegten Schemas aus 600 Regeln, die man ihr vorgab. Im Prinzip befolgte sie einfach nur die Leitlinien für die Therapie von bestimmten Krankheiten. MYCIN arbeitete recht gut, sie konnte öfter als menschliche Experten die richtige Behandlung für Kranke auswählen. Allerdings wurde der Computer nie in der Praxis eingesetzt, denn es stellte sich als zu zeitaufwändig heraus, ihm manuell alle Daten für seine Entscheidungsgrundlage zu füttern. Außerdem war die IT-Infrastruktur in den 70er-Jahren zu schlecht, um ihn flächendeckend einzusetzen. Doch warum gibt es solche Systeme heute nicht?
Bauchgefühl lässt sich nicht programmieren
Um das zu verstehen wirft man am besten einmal einen Blick darauf was passiert, wenn man mit Husten zum Arzt geht. Der Arzt stellt einem wahrscheinlich einige Fragen, hört die Lunge ab, misst die Temperatur und tastet den Puls. Vielleicht entnimmt er auch eine Blutprobe oder sendet eine Speichelprobe ins Labor. Im Ernstfall kann er eine Röntgenaufnahme der Lunge veranlassen, um herauszufinden was uns fehlt. Und wie lange dauert es bis er seine Entscheidung fällt, ob er dem Patienten ein Antibiotikum verschreibt? Wahrscheinlich nur wenige Sekunden.
Viele Ärzte nehmen das nicht einmal als bewusste Entscheidung wahr. Es passiert einfach automatisch. Menschen mit langjähriger Erfahrung denken nicht mehr bewusst über bestimmte Entschlüsse nach - sie fällen sie auf der Grundlage bestimmter Mustererkennungen innerhalb von Sekunden. Das ist ein Phänomen, das nicht nur Ärzte betrifft. Auch im Sport, der Musik oder dem Schachspielen unterscheiden sich so die Profis vom Laien.
Man könnte auch sagen: Medizin ist nicht nur eine Wissenschaft, sondern auch eine Kunst. Diese „künstlerischen“ Bereiche der Medizin lassen sich nicht besonders gut für einen Computer kodieren und in Regeln aufschreiben. In der Medizin ist das Bauchgefühl nämlich genauso wichtig wie reines Wissen. Oftmals müssen Ärzte von Leitlinien abweichen, was sie auch dürfen, da die standardisierte Therapie auf den einen Patienten individuell nicht anwendbar ist. Man kann nicht in Regeln fassen, wenn man ein „schlechtes Gefühl“ bei einem Patienten hat oder einem die eigentlich vorgeschriebene Behandlung aufgrund bestimmter Umstände nicht mehr sinnvoll erscheint. So fühlt sich Mustererkennung für einen Arzt an: Ohne bewusstes Nachdenken und in kürzester Zeit vergleicht sein Gehirn den vor ihm stehenden Patienten mit seiner gesamten bisherigen Erfahrung. Die beste Übereinstimmung liefert die Entscheidungsgrundlage.
Mensch oder Maschine: Wem vertrauen wir mehr?
Ärztliche Entscheidungen beruhen also nicht nur auf reinem medizinischen Fachwissen, sondern erfordern viele Tätigkeiten, die ein Computer heutzutage noch nicht nachahmen kann. Ärzte müssen den Patienten sehen. Sie müssen ihn wahrnehmen, ihm zuhören, ihn anschauen, anfassen und untersuchen. Sie müssen empathisch sein und ethische schwierige Entscheidungen treffen – all das können Maschinen nicht. Aber genau diese Aufgaben machen einen Großteil der Medizin aus. Ein Computer kann erkennen, wenn bestimmte Laborwerte außerhalb der Norm liegen. Aber nur ein Mensch kann in Zusammenschau mit allen anderen Befunden interpretieren, ob dies ein medizinisches Eingreifen erfordert oder tolerierbar ist.
Dieses Dilemma diskutiert auch der kanadische Rechtsethiker Ian Kerr in einem Beitrag für den "Ottawa Citizen". Der von IBM entwickelte Supercomputer „Watson“ kann eingesetzt werden, um umfangreiche medizinische Informationen aus riesigen unstrukturierten Datensätzen auszuwerten. Auf dieser Grundlage kann er für Patienten Diagnosen stellen und anschließend die korrekte Behandlungsmethode auswählen. Ian Kerr beschrieb nun folgendes Gedankenexperiment: Angenommen, Sie bekämen von Computer Dr. Watson die Diagnose Verdacht auf Leukämie. Der menschliche Arzt aber ist anderer Meinung, sein Bauchgefühl sagt ihm, dass die Diagnose Blutkrebs nicht passt. Der Mediziner erklärt Ihnen, Watson habe mit einer Wahrscheinlichkeit von 90 Prozent Recht, er selbst liege nur mit einer Wahrscheinlichkeit von 50 Prozent richtig. Wem vertrauen Sie ihr Leben an? Mensch oder Maschine?
Der Arzt wird vom Krankenhaus angehalten der Empfehlung von Computer Watson zu folgen, um rechtlich auf der sicheren Seite zu sein. Objektiv betrachtet ist das auch die bessere Entscheidung, denn Watson hat eine höhere Trefferquote als menschliche Ärzte. Aber würden Sie intuitiv nicht lieber dem menschlichen Arzt und seinem Bauchgefühl vertrauen? Das Dilemma liegt im Vertrauensverlust, der daraus resultiert, dass medizinische Entscheidungen an Maschinen delegiert werden. Vertrauen ist das Fundament der Arzt-Patienten Beziehung. Vertraut man seinem Arzt nicht, lässt man sich nicht von ihm behandeln, mag er auch der beste Experte mit dem größten Fachwissen auf seinem Gebiet sein.
Man wird sehr wahrscheinlich ins Zweifeln kommen. Hat die Maschine Recht, da sie einen viel umfangreicheren Blick auf Daten und Auswertungen hat? Klingt logisch, ist aber nicht unbedingt der Fall. Denn die Frage ist ja auch, wie die Superroboter programmiert wurden. Nach ökonomischen Gesichtspunkten, um möglichst viele Patienten zu behandeln und möglichst gewinnorientiert zu arbeiten? Oder nach sozialen, humanitären Kriterien, die nichts als das Wohl des Menschen im Sinn haben? Man darf nicht die Gefahr außer Acht lassen, dass die Automatisierung die weitere Ökonomisierung des Gesundheitssystems vorantreibt und eventuell vor der ethisch richtigen Entscheidung stehen könnte.
„Deep learning“ schlägt den Menschen
Tatsächlich gibt es schon heute Maschinen, die bestimmte Aufgaben der Ärzte übernehmen können. Zumindest solche, die auf optischer Wahrnehmung beruhen. Dabei machen sich Forscher das sogenannte „deep learning“ zunutze. Diese Technik lehrt Maschinen zu lernen, indem es sie in die Lage versetzt, selbstständig ihre Fähigkeiten zu verbessern.
Ältere Computer wie MYCIN treffen ihre Entscheidungen aufgrund bestimmter algorithmischer Regeln, die Menschen ihnen vorgeben und die ein sehr starres Konstrukt darstellen. Im Gegensatz dazu funktioniert „deep learning“ mit einem großen Set an Daten, aus dem es bestimmte Merkmale herauspickt und Zusammenhänge bzw. Muster erkennen kann. Je mehr Daten es zugespielt bekommt, desto besser wird es trainiert und desto besser kann es Beziehungen zwischen den Daten erkennen. Auf der Basis vorhandener Informationen kann das System das Erlernte außerdem immer wieder mit neuen Inhalten verknüpfen und dadurch erneut lernen. Es lernt quasi aus den eigenen Fehlern und wird mit jedem Misserfolg noch besser.
Hund oder Katze? Das ist die Frage.
Die Arbeitsweise kann man sich in etwa so vorstellen: Man nehme mal an, man müsse Bilder einer Katze von denen eines Hundes unterscheiden. Das ist eine sehr einfache Aufgabe für uns Menschen – selbst ein Kleinkind kann das schon. Aber kein Mensch kann die Anweisungen, wie das genau geht, für einen Computer aufschreiben. Alle Fotos enthalten Tiere mit Fell in unterschiedlichsten Positionen. Es lässt sich kein offensichtlicher Unterschied als Regel für die Grundlage eines Computerprogramms zur Differenzierung formulieren.
Das Maschinenlernen löst dieses Problem, indem vermieden wird, dass ein Mensch eine Entscheidungsregel aufstellen muss, um die beiden Tierarten voneinander zu trennen. Stattdessen füttert man den Computer mit Hunderten Bildern von Hunden und Katzen und sagt ihm welches Bild welches Tier zeigt. Das System lernt dann eigenständig, Hunde und Katzen auseinanderzuhalten, in dem es bestimmte Merkmale auf den Bildern erkennt und diese Muster immer einer Tierart zuordnen kann.
Die Technik des „deep learning“ ist also nützlich für Aufgaben, die mit Mustererkennung auf Fotos zu tun haben. Dies lässt sich auch in der Medizin anwenden, nämlich auf Gebieten, in denen Bilder betrachtet werden müssen wie in den Fachrichtungen Radiologie, Augenheilkunde, Pathologie oder Dermatologie. Das Problem, eine bestimmte Krebsart optisch von einer anderen zu unterscheiden, lässt sich auf ähnliche Weise von der Maschine lösen wie die Hunde- und Katzenbilder auseinander zu halten.
Der Computer lernt wie ein Arzt zu denken, um auf dieser Grundlage bestimmte Behandlungen vorschlagen zu können. Der Computerwissenschafts-Professor Anton van den Hengel von der Adelaide Universität in Australien erklärt: „In Situationen, in denen die einzige erforderliche Information, um eine Entscheidung zu treffen, auf einem optischen Signal beruht, kann maschinelles Lernen [den Menschen] um Haaresbreite schlagen“.
Große Erfolge in Ophthalmologie und Dermatologie
So wie bei der Diagnose einer häufigen Augenerkrankung bei zuckerkranken Menschen, der diabetischen Retinopathie. Diese Erkrankung ist die häufigste Ursache für Erblindung von Menschen im Alter von 20 bis 65 Jahren und wird durch Schädigungen an kleinen Blutgefäßen im Augenhintergrund verursacht. Sie wird diagnostiziert, indem Augenärzte den Augenhintergrund und seine Blutgefäße betrachten. Eine Aufgabe, die also auf der reinen Beurteilung von optischen Bildern beruht.
Ende 2016 stellten Wissenschaftler einen Computer-Algorithmus vor, der die diabetische Retinopathie auf Augenhintergrund-Fotografien mit hoher Sicherheit erkennen kann. Die Forscher trainierten eine Maschine mit „deep learning“, indem sie ihr 130.000 Fotos des Augenhintergrunds gaben, die zuvor von Augenärzten als gesund oder krank eingestuft wurden. Anschließend wurde sie an einem neuen Set aus Patientenfotos getestet. Das Erstaunliche: Der Computer konnte eine genauso hohe Treffsicherheit in der Diagnose aufweisen wie die Augenärzte. Die Studie erregte großes Aufsehen und lässt erahnen, dass solche Computer in Zukunft gut im Rahmen von Vorsorgeuntersuchungen für Augenerkrankungen eingesetzt werden könnten.
Doch auch in der Dermatologie könnte „deep learning“ zukünftig Anwendung finden. Beispielsweise bei der Diagnose von Hautkrebs. Eine Gruppe von Forschern aus Stanford veröffentlichte Anfang dieses Jahres eine Studie im Fachblatt Nature. Sie lehrten einen Computer, verdächtige Hauterscheinungen zu erkennen, die eine Biopsie benötigen, um das Vorliegen von Hautkrebs abzuklären.
Dabei wurden knapp 130.000 Bilder mit 2.000 verschiedenen Hauterkrankungen verwendet, um die Maschine zu trainieren. Das Ergebnis: Der Computer erzielte diesmal sogar eine bessere Trefferquote als die Hautärzte. Er konnte mehr Fälle von Hautkrebs erkennen und lieferte gleichzeitig eine geringere Rate an falsch-positiven Fällen. Dies eröffnet völlig neue Perspektiven in der Prävention von Hautkrebs. So könnte es in der Zukunft möglich sein verdächtige Hautstellen mit einer Handyapp zu fotografieren und von der Künstlichen Intelligenz bestimmen zu lassen, ob eine Abklärung beim Arzt nötig ist. Das Team der Forscher aus Stanford arbeitet bereits daran diese Idee in die Praxis umzusetzen.
Ärzte werden nicht überflüssig – aber arbeiten anders
Werden also Hautärzte, Augenärzte oder Radiologen in Zukunft arbeitslos? Oder als eine Art Cyborg ein tristes Leben als PC-Aufsicht verbringen, um Algorithmen zu beaufsichtigen und nur im Zweifelsfall einzugreifen, wie Ziad Obermeyer von der Harvard Medical School vorhersagt? Das kann man stark bezweifeln. Das Betrachten von Bildern ist zwar ein großer Teil ihrer medizinischen Tätigkeit, doch nicht der alleinige Brotverdienst. Hautärzte müssen Biopsien entnehmen oder Hautkrebs entfernen. Augenärzte operieren am Auge oder verschreiben und applizieren wichtige Medikamente. Radiologen braucht man nicht nur für die Diagnostik, sie führen auch interventionelle Eingriffe am Patienten durch.
Indem Computer immer besser Erkrankungen auf Bildern erkennen können, werden immer mehr Patienten diagnostiziert und brauchen immer mehr Behandlung. Der Bedarf an diesen Fachärzten könnte also zukünftig sogar zunehmen. Langfristig wird sich aber das Aufgabenfeld der einzelnen Facharztrichtungen wandeln. Den Medizinern wird weniger diagnostische Tätigkeit abverlangt, dafür mehr Therapie und Kommunikation mit den Patienten.
Das Menschliche wird keine Maschine so schnell ersetzen können. „Computer können einzelne ärztliche Tätigkeiten übernehmen, vor allem im Bereich der Diagnostik. Für die Therapie sind aber nach wie vor Menschen mit Skills wie Empathie und Kommunikation gefragt“, erklärt Prof. David Matusiewicz, Direktor des ifgs Institut für Gesundheit und Soziales. Zustimmung erhält er von Kinderarzt Markus Müschenich: „Die Ärzte, die sich nur über Wissen definieren, werden überflüssig. Die Rolle des Arztes wird viel interessanter.“
Menschen stoßen an Grenzen, Maschinen auch
Bei allem Optimismus sollte man aber immer bedenken, dass auch Big-Data-Algorithmen Grenzen haben. Selbst die leistungsfähigsten Computer bleiben an den Bereich des Berechenbaren gebunden. Und nicht alles lässt sich berechnen, nicht für jedes Problem eine künstlich intelligente Lösung finden. Schon der russische Mathematiker Alexander Michailowitsch Ljapunow hat 1892 nachgewiesen, dass bestimmte physikalische Abhängigkeiten die Welt instabil und unberechenbar machen. Man denke nur an die Wettervorhersage.
Menschen sollten sich nicht alleine auf Computer verlassen. Ärzte sollten nicht das Wissen und Denken reduzieren und dadurch ihren ärztlichen Sachverstand verlieren. Die Unterstützung durch Maschinen im Alltag ist ein erheblicher Fortschritt. Aber man muss aufpassen, dass das ärztliche Können und Hinterfragen von Diagnosen oder Therapien erhalten bleibt. Die ärztliche Intelligenz ist zwar beschränkt, die künstliche aber auch.