Jahr für Jahr stecken Forscher viel Zeit und Geld in Tierversuche. Ihre Ergebnisse lassen sich nicht immer auf Menschen übertragen – und teilweise nicht einmal von anderen Labors reproduzieren. Jetzt wächst der Widerstand.
Viel Arbeit für die Katz': Tierversuche sind in ihrer Aussagekraft umstritten. Bereits im Jahr 2006 untersuchte Daniel Hackam von der University of Western Ontario mehr als 70 tierexperimentelle Studien [Paywall]. Alle Papers hatten einen kleinsten gemeinsamen Nenner. Sie berichteten von erfolgreichen Therapien, etwa bei Alzheimer oder Parkinson. Nur ein Drittel aller Innovationen ließ sich später auf den Menschen übertragen. Viele Ansätze funktionierten beim Homo sapiens nicht oder waren – oft aus Sicherheitsbedenken – erst gar nicht getestet worden. Dahinter stecken aber nicht nur oft zitierte Unterschiede im Erbgut, sondern methodische Fehler. Tiermodelle menschlicher Erkrankungen bilden nur einige, zentrale Aspekte nach, aber nie das gesamte Bild. Gleichzeitig schönen Forscher viele Arbeiten, indem sie manche Tiere „vergessen“.
Mit diesem Aspekt befasste sich jetzt Professor Dr. Ulrich Dirnagl von der Charité – Universitätsmedizin Berlin. Er hat zusammen mit Kollegen 100 Veröffentlichungen aus den Bereichen Schlaganfall und Krebs kritisch beleuchtet. Dabei fand der Wissenschaftler 316 Tierexperimente zum Infarktvolumen und 206 Arbeiten zur therapeutischen Schrumpfung von Tumoren. In etlichen Fällen fehlten bei den Papers Informationen über die genaue Zahl an Tieren. Mit durchschnittlich acht Lebewesen war die Gruppengröße auch statistisch zu gering, um relevante Informationen zu gewinnen. Gleichzeitig „verschwanden“ Organismen auf dubiose Art und Weise, was massive Folgen für die Aussagekraft hat. Haben Kollegen sie bewusst aussortiert, etwa aufgrund schwerwiegender Nebenwirkungen der Behandlung? Ulrich Dirnagl fand keine Antwort, kommt aber mit Computersimulationen zu einem vernichtenden Urteil. Dass Versuchstiere im Laufe einer Arbeit ausgeschlossen werden, kommt vor, ist von Wissenschaftlern aber zu dokumentieren. Selektieren Forscher Organismen, die ihre Hypothese nicht bestätigen, führt das zu falsch positiven Resultaten. In der Regel sei die Ursache aber nicht auf Betrug zurückzuführen, sondern auf einen ‚Bias‘, sprich den unbewussten Einfluss von Forschern, um ihre Hypothesen zu verifizieren, ergänzt Dirnagl.
Arbeitsgruppen, die hier aufbauen, ziehen methodisch schlechte Veröffentlichungen als Basis für ihr Projekt heran – ein Teufelskreislauf, sogar für Hersteller. Mitarbeiter bei der US-Pharmafirma Amgen konnten gerade einmal sechs von 53 Arbeiten zur Krebstherapie reproduzieren. Diese pessimistische Einschätzung bestätigte kürzlich John P. A. Ioannidis aus Stanford. Er hat 441 Veröffentlichungen überprüft, die von 2000 bis 2014 in PubMed aufgenommen worden sind. Dabei ging es vor allem um Fragen zur Transparenz und zur Reproduzierbarkeit. Ioannidis stört sich bei den meisten Papers an unvollständigen Versuchsprotokollen und fehlenden Rohdaten – im Online-Zeitalter würden sich Webressourcen für ergänzende Informationen anbieten. Angaben zu möglichen Interessenkonflikten, respektive zur Finanzierung, tauchen nur in wenigen Fällen auf. Ulrich Dirnagl spricht von einer substanziellen Ressourcenverschwendung im Wissenschaftsbetrieb, unter der nicht zuletzt alle Steuerzahler zu leiden hätten. Jetzt sind Lösungen gefragt.
Schon länger fordern Forscher, verbindliche Standards, wie sie heute schon bei klinischen Studien gelten, auf die Grundlagenforschung zu übertragen. Dazu gehören akkurate Beschreibungen im Methodenteil, aber auch Kriterien zum Ausschluss von Versuchstieren. Um bessere Resultate für die Humanmedizin zu erhalten, sollte das Design von Experimenten überdacht werden. Einige Beispiele: Im Labor lässt sich per Zellkultur menschliche Haut züchten. Die Hoffnung ist, mit entsprechenden Zellen Arzneimittel oder Chemikalien verlässlicher zu testen als mit Versuchstieren. Außerdem versuchen Wissenschaftler, per Computermodell physiologische Prozesse zu simulieren – mit Einschränkungen, wie sie jedes virtuelle System hat. Organ-on-a-chip-Systeme simulieren Vorgänge unter realen, reproduzierbaren Bedingungen. Mit Lung-on-a-chip-Modellen [Paywall] testen Forscher nicht nur Arzneistoffe, sondern untersuchen Entzündungen oder Infektionen. Heart-on-a-chip-Systeme [Paywall] setzen auf Herzmuskelzellen. Weitere Arbeitsgruppen haben Nephrone (Kidney-on-a-chip) oder explantierte kleine Blutgefäße (Artery-on-a-chip [Paywall]) im Fokus. Patrick Guye und Ron Weiss vom Massachusetts Institute of Technology (MIT) fanden jetzt heraus, dass komplexe Gewebe über die Selbstorganisation induzierter pluripotenter Stammzellen auf Chips entstehen. Als Vision bleibt ein „Human-on-a-Chip“ [Paywall], um diverse Vorgänge parallel zu simulieren. Trotz aller Euphorie bleibt ein Wermutstropfen. Neue Technologien kompensieren bekanntlich keine methodischen Schwächen. Qualitätsansprüche, wie sie Experten beim beim Consort-Statement (Consolidated Standards of Reporting Trials) fordern, gehen eher in die richtige Richtung.