Antworten auf häufige Fragen zur Forschung mit Tieren und Menschen finden Sie in den Themendossiers «Tierversuche in der Schweiz (FAQ)» und «Forschung mit Menschen (FAQ)».
Der «Safer Medicines Trust» ist eine in Grossbritannien angesiedelte NGO mit dem Ziel, die Sicherheit von Medikamenten für Patientinnen und Patienten zu verbessern. Die von der NGO ins Leben gerufene Kampagne «Safer Medicines» hinterfragt die Notwendigkeit und Relevanz von Tierversuchen als Grundlage für die Entwicklung von Medikamenten und Therapien im Menschen. Ihre «Frequently Asked Questions» enthalten eine Reihe von Behauptungen, die auch in der Diskussion um die Initiative «Ja zum Tier- und Menschenversuchsverbot» immer wieder aufkommen.
Behauptung B1: Es gebe nur sehr wenige zuverlässige und systematische Evaluationen der Relevanz von Tierversuchen für den Menschen.
Originaltext
«There have been very few reliable, systematic evaluations of the human relevance of animal research.»
Worauf stützt sich die Behauptung?
Als Quelle wird eine Studie im «British Medical Journal» angegeben, die nach systematischen Reviews von Tierversuchen in der Datenbank für medizinische Publikationen «Medline» gesucht hat [1].
Was stimmt?
Die Autoren identifizieren mittels der Suche insgesamt 277 Studien, welche die Übertragbarkeit von Tierversuchen untersuchen, wovon 22 systematische Reviews waren. Hinzu kam ein weiteres Review, der kurz vor der Suche erschienen war, und zwei unpublizierte Reviews. Die Autoren kritisieren den Mangel an systematischen Reviews zur Evaluation der Resultate aus Tierversuchen, machten jedoch keine Angaben dazu, ob die Zahl der vorhandenen systematischen Reviews unterdurchschnittlich hoch ist verglichen mit anderen Bereichen der biomedizinischen Forschung. Die Beschränkung der Suche auf nur eine Publikationsdatenbank sorgte zudem dafür, dass nur ein Teil der vorhandenen Publikationen von der Suche erfasst wurde. Ebenso haben Autoren von systematischen Reviews kritisiert, dass ihre Arbeit von der der obigen Publikation unberücksichtigt geblieben war, obwohl sie in der untersuchten Datenbank aufzufinden war [2].
Ebenso ist zu erwähnen, dass die Publikation fast 20 Jahre alt ist und seither zahlreiche verschiedene Initiativen lanciert wurden, um die systematische Auswertung von Ergebnissen aus Tierversuchen weiter zu verbessern. [3, 4].
Referenzen
[1] Pound, P., Ebrahim, S., Sandercock, P., Bracken, M. B., & Roberts,
I. (2004). Where is the evidence that animal research benefits humans?. Bmj, 328(7438), 514-517.
[2] Pound, P., Ebrahim, S., Sandercock, P., Bracken, M. B., & Roberts, I. (2004). Where is the evidence that animal research benefits humans?. Responses. Bmj, 328(7438), 514-517.https://www.bmj.com/content/32...
[3] de Vries, R. B., Wever, K. E., Avey, M. T., Stephens, M. L., Sena, E. S., & Leenaars, M. (2014). The usefulness of systematic reviews of animal experiments for the design of preclinical and clinical studies. ILAR journal, 55(3), 427-437.
[4] Hooijmans, C. R., & Ritskes-Hoitinga, M. (2013). Progress in using systematic reviews of animal studies to improve translational research. PLoS medicine, 10(7), e1001482.
Behauptung B2: Eine systematische Untersuchung verglich die Übereinstimmung der Resultate zu sechs Krankheiten aus Versuchen mit Tieren und Menschen. In nur der drei der sechs Fälle hätten die Resultate übereingestimmt.
Originaltext
«Perel and colleagues (2007) [...] conducted systematic reviews of animal studies for six different conditions and compared them with systematic reviews of human studies for the same six conditions. They found that the animal and human studies agreed in three cases and disagreed in three cases. They concluded that the lack of agreement may have been due to either the inability of animal models to accurately mimic human diseases, or to the poor quality of the animal studies.»
Worauf stützt sich die Behauptung?
Als Quelle wurde eine systematische Untersuchung im «British Medical Journal» genannt [1].
Was stimmt?
Die Autoren untersuchten die Ergebnisse aus systematischen Untersuchungen der Resultate von Tierversuchen und Resultaten von Versuchen an Menschen von sechs Behandlungen:
- Verabreichung von Kortikosteroiden zur Behandlung von Kopfverletzungen;
- die Verabreichung von Tirilazad bei akutem ischämischem Hirninfarkt;
- die Verabreichung von Antifibrinolytika bei Blutungen;
- Thrombolyse bei akuten ischämischen Hirninfarkte;
- vorgeburtliche Verabreichung von Kortikosteroiden, um das Atemnotsyndrom bei Neugeborenen vorzubeugen;
- die Verabreichung von Bisphosphonat, um Osteoporose zu behandeln.
In den ersten zwei Fällen zeigten die Resultate aus den Tierversuchen Erfolge bei der Behandlung, die Erfolge wurden jedoch bei Versuchen im Menschen nicht bestätigt. Im dritten Fall war die Behandlung im Menschen erfolgreich, die Resultate im Tierversuch aber nicht eindeutig. Bei den Fällen 3 bis 6 zeigten sowohl die Resultate aus den Tierversuchen wie auch die Anwendung beim Menschen einen Behandlungserfolg.
Die Autoren führen die identifizierten Unterschiede in den Resultaten auf systematische Verzerrungen (Bias) oder auf die mangelnde Nachbildung des menschlichen Krankheitsbilds bei den verwendeten Modelltieren zurück. Methodische und qualitative Mängel im Forschungsprozess sind jedoch unabhängig von der Wahl des Forschungsmodells zu vermeiden. Das gilt für Versuche an Tieren genauso wie Versuche in Zellkulturen oder an Menschen.
Zudem ist der Anspruch von Versuchen an Tiere in der präklinischen Forschung nicht, komplette Gewissheit zu schaffen - sonst bräuchte man keine Studien mit Menschen mehr durchzuführen - sondern die Wahrscheinlichkeit zu erhöhen, Wirkung und Nebenwirkung von therapeutischen Substanzen möglichst frühzeitig zu erkennen. Aus diesem Grund ist die systematische Auswertung der vorhandenen Daten entscheidend.
Referenzen
[1] Perel, P., Roberts, I., Sena, E., Wheble, P., Briscoe, C., Sandercock, P., ... & Khan, K. S. (2007). Comparison of treatment effects between animal experiments and clinical trials: systematic review. Bmj, 334(7586), 197.
Behauptung B3: Ein systematisches Review sei zum Schluss gekommen, dass nur ein Drittel der Resultate aus Tierversuchen mit randomisierten klinischen Studien an Menschen übereinstimmen.
Originaltext
«Another systematic review found that only a third of animal study findings agreed with the findings of the corresponding human randomised trials.»
Worauf stützt sich die Behauptung?
Als Quelle ist eine Publikation im «Journal of the American Medical Association» von 2006 angegeben (Hackam and Redelmeier 2006).
Was stimmt?
Die Behauptung ist falsch. Bei jenen Ergebnissen, die am Menschen getestet wurden, stimmten in zwei Drittel der Fälle die Resultate zwischen menschlichen und tierischen Studien überein, 19% hatten zum Zeitpunkt der Untersuchung eine Zulassung für die Anwendung an Patienten erhalten.
Die Autoren untersuchten Publikationen mit mehr als 500 Zitierungen in sieben wissenschaftlichen Fachmagazinen mit hohem Impact-Factor (Science, Nature, Cell, Nature Medicine, Nature Genetics, Nature Immunology, Nature Biotechnology). So wurden 2000 Artikel, die zwischen 1980 und 2000 erschienen waren, ausgewählt. In die Untersuchung eingeschlossen wurden 76 Artikel, die eine medizinische Behandlung an Tieren untersuchten und keine Reviews waren. Von identifizierten 76 Resultaten aus Tierversuchen wurden zum Untersuchungszeitpunkt 42 (55%) in randomisierten Studien an Menschen untersucht. 28 (67%) Studien davon zeigten die gleichen Ergebnisse wie in den Tierversuchen, 14 (33%) zeigten Ergebnisse, welche den Resultaten aus den Tierversuchen widersprachen. Zum Untersuchungszeitpunkt hatten 8 (19%) Technologien eine Zulassung für Patienten erhalten.
Referenzen
[1] Hackam, D. G., & Redelmeier, D. A. (2006). Translation of research evidence from animals to humans. Jama, 296(14), 1727-1732.
Behauptung B4: Es werde geschätzt, dass nur zwischen 5% und 10% der (medizinischen) Interventionen, die an Tieren erforscht wurden, eine Zulassung für Menschen erhalten würden.
Originaltext
«It is estimated that between only 5% (Contopoulos-Ioannidis et al 2003) and 10% of animal study interventions result in approved use in humans (Kola and Landis 2004; van der Worp et al 2010).»
Worauf stützt sich die Behauptung?
Als Quellen werden ein systematisches Review im Fachmagazin «The American Journal of Medicine» (Contopoulos-Ioannidis et al. 2003)[1], ein Meinungsbeitrag in «Nature Reviews Drug Discovery» (Kola and Landis 2004) [2] und ein Übersichtsartikel im Fachmagazin «PLoS Medicine» (van der Worp et al. 2010) [3] genannt.
Was stimmt?
Die Publikation von Contopoulos-Ioannidis et al. (2003) [1] zeigt, dass 5% aller untersuchten Technologien eine Zulassung für Anwendung an Patienten erhalten haben, aber auch, dass ein Drittel aller am Menschen untersuchten Substanzen positive Resultate zeigten und 10% aller am Menschen untersuchten Substanzen eine Zulassung erhalten haben (siehe dazu auch Behauptung B10).
Die Publikation von van der Worp et al. (2010) [3] fokussiert auf qualitative Probleme in der Forschung mit Tieren und den dazugehörigen Verbesserungsmassnahmen. Die Aussage, dass 10% der in Tieren getesteten Substanzen eine Zulassung für Menschen erhalten, stammt aus Hackam and Redelmeier (2006) [4]. Diese Publikation zeigt jedoch, dass von jenen Tierversuchsergebnissen, welche die Autoren untersucht haben und die beim Menschen getestet werden, zwei Drittel mit den Ergebnissen aus den klinischen Versuchen übereinstimmen und 19% zum Untersuchungszeitpunkt eine Zulassung erhalten haben (siehe dazu auch Behauptung B3).
Die Publikation von Kola and Landis (2004) [2] behandelt die Erfolgsrate von medizinischen Substanzen bei der Medikamentenentwicklung der 10 grössten pharmazeutischen Unternehmen in den Jahren 1991 bis 2000. Über alle untersuchten Forschungsfelder hinweg betrug die Erfolgsrate ca. 11%, d.h. dass von allen Substanzen, die zum ersten Mal im Menschen getestet werden, ca. 11% eine Marktzulassung erhalten. Die Erfolgsraten schwankte innerhalb der 9 untersuchten Gebiete (in Klammern die jeweiligen Erfolgsraten): Medikamente gegen kardiovaskuläre Erkrankungen (ca. 20%), Arthritis und chronische Schmerzen (ca. 17%) sowie Infektionskrankheiten (ca. 17%) wiesen die höchsten Erfolgsraten auf. Behandlungen gegen Erkrankungen des zentralen Nervensystems (ca. 8%) und gegen Krebs (5%) sowie gynäkologische Behandlungen (ca. 4%) wiesen die tiefsten Erfolgsraten auf (Siehe zudem die Anmerkungen zu Behauptung A4.) Die tiefe Erfolgsrate im Bereich der «Women’s Health» könnte u.a. darauf zurückzuführen sein, dass in der präklinischen Forschung immer noch überwiegend männliche Tiere eingesetzt werden. Siehe dazu auch die Anmerkungen zu Behauptung A10.
Die Publikation von Kola and Landis (2004) [2] zeigt auch auf, dass im Jahr 2000 in ca. 30% der Fälle wirtschaftliche Gründe dafür verantwortlich waren, dass ein Medikament nicht weiterentwickelt wurde. In ca. 65% der Fälle wurde die Entwicklung aufgrund mangelnder Wirksamkeit, aus toxikologischen Gründen oder aus Gründen der klinischen Sicherheit eingestellt. In ca. 5% der Fälle waren die Gründe nicht bekannt.
Eine Analyse von Harrison (2016) [5], die sich auf jüngere Daten stützte, kam zu ähnlichen Ergebnissen für Phase II und III Studien: Von 2008 bis 2015 waren in Phase II Studien fehlende Wirksamkeit oder toxikologische Gründe in 70% bis 81% der Fälle der Grund dafür, dass eine Therapie nicht weiterverfolgt wurde - dies obwohl die Therapie nicht nur erfolgreich an Tieren getestet wurden, sondern bereits erfolgreich durch Tests an Menschen in Phase I Studien. gekommen waren. In 16% bis 29% der Fälle waren es wirtschaftliche oder strategische Erwägungen, die zur nicht-Weiterführung der Entwicklung führten. In Phase III Studien wurden im gleichen Zeitraum 69% bis 87% Therapien aus Wirksamkeits- oder Sicherheitsgründen nicht weiterverfolgt. Auch hier ist zu betonen, dass es sich um Therapien handelt, die nicht nur an Tieren getestet wurden, sondern bereits erfolgreich Tests an Menschen in Phase I und Phase III Studien durchlaufen hatten. Wirtschaftliche und strategische Überlegungen waren in 5% bis 24% der Fälle der Grund dafür, dass Therapien nicht weiterverfolgt wurden.
Schliesslich ist zu erwähnen, dass es irreführend ist, die Aussagekraft von Tierversuchen daran zu messen, wie viele an Tieren untersuchten Therapien eine Zulassung erhalten haben. Tierversuche dienen ja gerade dazu, potentiell wirksame und sichere Therapien zu identifizieren und nur diese an Menschen zu testen. Es ist also wünschenswert, dass nur ein Teil der in Tieren getesteten Substanzen und Therapien, nämlich die erfolgversprechendsten, in klinischen Studien eingesetzt werden. Eine Untersuchung von Takebe et al. (2018) [6] zeigte für den Zeitraum von 1991 bis 2010, dass nur knapp 32% der in der akademischen Forschung in den USA an Tieren getesteten Substanzen in klinischen Studien eingesetzt werden - in über zwei Drittel der Fällen verzichtet man also aufgrund der Ergebnisse aus Tierversuchen, überhaupt klinische Studien durchzuführen. Von jenen Substanzen, die nach Tierversuchen zum ersten Mal im Menschen getestet wurden, überstanden 75% die Phase I. Über alle drei klinischen Phasen hinweggesehen betrug die Erfolgsrate knapp 20%.
Referenzen
[1] Contopoulos-Ioannidis, D. G., Ntzani, E. E., & Ioannidis, J. P. (2003). Translation of highly promising basic science research into clinical applications. American Journal of Medicine, 114(6), 477-484.
[2] Kola, I., & Landis, J. (2004). Can the pharmaceutical industry reduce attrition rates?. Nature reviews Drug discovery, 3(8), 711-716.
[3] Van der Worp, H. B., Howells, D. W., Sena, E. S., Porritt, M. J., Rewell, S., O'Collins, V., & Macleod, M. R. (2010). Can animal models of disease reliably inform human studies?. PLoS medicine, 7(3), e1000245.
[4] Hackam, D. G., & Redelmeier, D. A. (2006). Translation of research evidence from animals to humans. Jama, 296(14), 1727-1732.
[5] Harrison, R. K. (2016). Phase II and phase III failures: 2013–2015. Nat Rev Drug Discov, 15(12), 817-818.
[6] Takebe, T., Imai, R., & Ono, S. (2018). The current status of drug discovery and development as originated in United States academia: the influence of industrial and academic collaboration on drug discovery and development. Clinical and translational science, 11(6), 597-606.
Behauptung B5: Die Erfolgsrate eine Zulassung für die Anwendung am Menschen zu erhalten, werde auf 18%, 5%, 0.4% bzw. 0.1% für Medikamente gegen kardiovaskuläre Erkrankungen, Krebs, Alzheimer und Hirnschläge geschätzt.
Originaltext
«Cancer is estimated to have a 5% success rate (Kola and Landis 2004), Alzheimer’s disease a 0.4% success rate (Cummings et al 2014) and stroke a dismal success rate of 0.1% (Howells et al 2012). The highest rate -18% – appears to be for cardiovascular disease (Vatner 2016).»
Worauf stützt sich die Behauptung?
Als Quellen werden ein Meinungsbeitrag in «Nature Reviews Drug Discovery» (Kola and Landis 2004) [1], ein Review im Fachmagazin «Alzheimer’s Research and Therapy» (Cummings et al. 2014) [2], ein Review im Fachmagazin «International Journal of Stroke» (Howells et al. 2012) [3] und ein Übersichtsartikel im Fachmagazin «Circulation Research» genannt (Vatner 2016) [4].
Was stimmt?
Die Behauptungen sind mehrheitlich falsch.
Krebs: Zur Einordnung von Kola and Landis (2004) [1], siehe Behauptung B4.
Alzheimer: Cummings et al. (2014) [2] untersuchten die Erfolgsrate von insgesamt 244 Substanzen, die von 2002 bis 2012 in klinischen Versuchen zur Behandlung von Alzheimer getestet wurden. Zum Abschluss des Untersuchungszeitraums befanden sich 14 der Substanzen (ca. 6%) noch in Phase-3-Studien und 1 Substanz (ca. 0.4%) hatte die Zulassung für die Anwendung an Patienten erhalten. Kürzlich hat die amerikanische Food and Drug Administration (FDA) eine weitere medizinische Substanz (Aducanumab) zur Behandlung von Alzheimer zugelassen [5].
Hirnschlag: Howells et al. (2012) [3] verwiesen auf eine Publikation von O’Collins et al. (2006) [6], welche die Erfolgsrate von insgesamt 1026 Substanzen, die als mögliche Behandlungen von Hirnschlägen in Frage kamen, untersuchten. 423 Substanzen wurden ausschliesslich in vitro getestet; 229 wurden in vitro und in vivo getestet, zeigten aber keine positiven Resultate; 277 Substanzen wurden in vitro und in vivo getestet und zeigten positive Resultate, wurden aber nicht in klinischen Versuchen getestet; 97 Substanzen wurden nach positiven Versuchen in vitro und in vivo in klinischen Studien getestet, wovon eine Substanz positive Resultate brachte. Die Erfolgsrate der in Menschen getesteten Substanzen beträgt also ca. 1% und ist damit zehnmal höher als in der Behauptung angegeben. Ebenfalls überholt ist die Behauptung, dass es nur eine einzige zugelassene medizinische Substanz (Alteplasum) zur Behandlung oder Vorbeugung von Hirnschlägen gibt. Die Europäische Arzneimittel-Agentur listet beispielsweise vier weitere medizinische Substanzen auf (Apixaban, Clopidogrel, Edoxaban, Rivaroxoban), die zugelassen sind [7].
Eine wesentliche Herausforderung bei der Behandlung von Hirnschlägen, ist der Umstand, dass die Ursachen dafür vielfältig sind und deshalb Gegenstand aktiver Forschung sind. Dabei haben Tiermodelle eine wesentliche Rolle im Bereich der Grundlagenforschung gespielt und tun dies noch immer (siehe dazu beispielsweise Fluri et al. 2015 [8]).
Vatner (2016) [4] beleuchtet mögliche Gründe, warum wenige neue medizinische Substanzen zur Behandlung kardiovaskulärer Erkrankungen eine Zulassung für die Anwendung an Patienten erhalten. Er verweist darin auf eine Publikation von Prinz et al. (2011) [9], die wiederum auf eine Publikation von Arrowsmith (2011) [10] verweisen. Dieser berichtet, dass die Erfolgsrate von medizinischen Substanzen in klinischen Studien der Phase 2 im Zeitraum 2006 bis 2007 28% betrug, im Zeitraum von 2008 bis 2009 18%. Diese Aussage betrifft aber alle in diesen Zeiträumen getesteten medizinischen Substanzen (nicht nur jene mit möglichen Anwendungen bei kardiovaskulären Erkrankungen) und auch ausschliesslich klinische Studien der Phase 2, d.h. sie kann nicht auf die Erfolgsrate für kardiovaskuläre Medikamente angewendet werden. Kola and Landis (2004) zeigten, dass die Erfolgsrate für Medikamente gegen kardiovaskuläre Erkrankungen über alle klinischen Phasen hinweggesehen bei ca. 20% lag in den Jahren 1991 bis 2000 (siehe Behauptung B4 für mehr Informationen).
Siehe zudem die Anmerkungen zu Behauptung A4 und Behauptung A31.
Referenzen
[1] Kola, I., & Landis, J. (2004). Can the pharmaceutical industry reduce attrition rates?. Nature reviews Drug discovery, 3(8), 711-716.
[2] Cummings, J. L., Morstorf, T., & Zhong, K. (2014). Alzheimer’s disease drug-development pipeline: few candidates, frequent failures. Alzheimer's research & therapy, 6(4), 1-7.
[3] Howells, D. W., Sena, E. S., O'Collins, V., & Macleod, M. R. (2012). Improving the efficiency of the development of drugs for stroke. International Journal of Stroke, 7(5), 371-377.
[4] Vatner, S. F. (2016). Why so few new cardiovascular drugs translate to the clinics. Circulation research, 119(6), 714-717.
[5] U.S. Food and Drug Administration, FDA’s Decision to Approve New Treatment for Alzheimer’s Disease (https://www.fda.gov/drugs/news..., abgerufen am 01. August 2021).
[6] O'Collins, V. E., Macleod, M. R., Donnan, G. A., Horky, L. L., Van Der Worp, B. H., & Howells, D. W. (2006). 1,026 experimental treatments in acute stroke. Annals of neurology, 59(3), 467-477.
[7] European Medicines Agency, Medicines, Search = Stroke, Therapeutic Area = Stroke (https://www.ema.europa.eu/en/m..., abgerufen am 01. August 2021).
[8] Fluri, F., Schuhmann, M. K., & Kleinschnitz, C. (2015). Animal models of ischemic stroke and their application in clinical research. Drug design, development and therapy, 9, 3445.
[9] Prinz, F., Schlange, T., & Asadullah, K. (2011). Believe it or not: how much can we rely on published data on potential drug targets?. Nature reviews Drug discovery, 10(9), 712-712.
[10] Arrowsmith, J. (2011). Phase II failures: 2008-2010. Nature reviews Drug discovery, 10(5).
Behauptung B6: Keines der 22 Medikamente, die gegen Rückenmarksverletzungen in Tieren gewirkt haben, hätten beim Menschen gewirkt.
Originaltext
«In the field of spinal cord injury, none of the 22 drugs that worked in animals turned out to work in humans (Geerts 2009).»
Worauf stützt sich die Behauptung?
Als Quelle wird ein Meinungsartikel im Fachmagazin «CNS Drugs» angegeben (Geerts 2009) [1], der in Bezug auf die Aussagen zur Erfolgsrate von Medikamenten zur Behandlung von Rückenmarksverletzungen auf einen Review im Fachmagazin «Reviews in Neuroscience» verweist (Akhtar et al. 2008) [2].
Was stimmt?
Akhtar et al. (2008) [2] untersuchten die Gründe für die schlechte Übertragbarkeit von Daten aus Tiermodellen auf den Menschen in Bezug auf die Behandlung von Rückenmarksverletzungen. Die Zahl von 22 Medikamenten stammt nicht aus diesem Review, jedoch erwähnen die Autoren, dass zum Zeitpunkt der Publikation nur eine Substanz zur Behandlung von Rückenmarksverletzungen zugelassen war (Methylprednisolone).
Andere Publikationen zeigen demgegenüber, dass heute verschiedene in Tieren entwickelte Behandlungsmethoden existieren, die auch bei menschlichen Patienten anschlagen, z.B. Formento et al. (2018) [3] oder Kjell and Olson (2016) [4].
Siehe zudem die Anmerkungen zu Behauptung A31.
Referenzen
[1] Geerts, H. (2009). Of mice and men. CNS drugs, 23(11), 915-926.
[2] Akhtar, A. Z., Pippin, J. J., & Sandusky, C. B. (2008). Animal models in spinal cord injury: a review. Reviews in the Neurosciences, 19(1), 47-60.
[3] Formento, E., Minassian, K., Wagner, F., Mignardot, J. B., Le Goff-Mignardot, C. G., Rowald, A., ... & Courtine, G. (2018). Electrical spinal cord stimulation must preserve proprioception to enable locomotion in humans with spinal cord injury. Nature neuroscience, 21(12), 1728-1741.
[4] Kjell, J., & Olson, L. (2016). Rat models of spinal cord injury: from pathology to potential therapies. Disease models & mechanisms, 9(10), 1125-1137.
Behauptung B7: Bei Entzündungskrankheiten gebe es fast keine Korrelation zwischen Daten aus Mäusen und Menschen.
Originaltext
«In the case of inflammatory diseases, there is almost no correlation between human and mouse data (Seok et al 2013).»
Worauf stützt sich die Behauptung?
Als Quelle wird ein Artikel im Fachmagazin «PNAS» angegeben, welche die genetische Reaktion auf Entzündungen in Menschen und Mäusen vergleicht (Seok et al. 2013) [1].
Was stimmt?
Die Untersuchung von Seok et al. (2013) [1] berichtet, dass die genetische Reaktion auf Entzündungen bei Mäusen nur wenig mit den genetischen Reaktionen auf Entzündungen bei Menschen korrelieren. Die dabei verwendeten Daten wurden in einer nachfolgenden Untersuchung jedoch noch einmal beurteilt (Takao and Miyakawa 2015) [2]. Die Autoren kamen zum diametral entgegengesetzten Resultat und berichteten, dass eine grosse Korrelation zwischen der genetischen Reaktion auf Entzündungen zwischen Menschen und Mäusen besteht. Als Ursache für die Diskrepanz wurde der Umstand genannt, dass Seok et al. (2013) [1] in ihrer Untersuchung auch all jene Gene eingeschlossen hatten, von denen man wusste, dass sie keine Gemeinsamkeiten zwischen Mensch und Maus aufwiesen. Zudem wurde die Korrelation mittels eines statistischen Koeffizienten berechnet, der auf Annahmen beruht, die bzgl. des Vergleichs von genetischen Informationen zwischen Mensch und Tier nicht gegeben sind. Beides führte dazu, dass die Korrelation nach unten verzerrt wurde.
Referenzen
[1] Seok, J., Warren, H. S., Cuenca, A. G., Mindrinos, M. N., Baker, H. V., Xu, W., ... & Tompkins, R. G. (2013). Genomic responses in mouse models poorly mimic human inflammatory diseases. Proceedings of the National Academy of Sciences, 110(9), 3507-3512.
[2] Takao, K., & Miyakawa, T. (2015). Genomic responses in mouse models greatly mimic human inflammatory diseases. Proceedings of the National Academy of Sciences, 112(4), 1167-1172.
Behauptung B8: Jeder in Tieren erfolgreiche Ansatz Sepsis zu behandeln, sei bei Menschen gescheitert.
Originaltext
«Every approach to treating sepsis that was successful in animals has failed in humans (Leist and Hartung 2013).»
Worauf stützt sich die Behauptung?
Als Quelle wird ein Editorial im Fachmagazin «Archives of Toxicology» angegeben (Leist and Hartung 2013) [1].
Was stimmt?
Das Editorial [1] gibt einen Überblick über die Erfolgsrate von Therapien aus Tiermodellen für die Behandlungen von Sepsis und anderen Erkrankungen. Es zeigt auf, dass sich die Resultate aus Tiermodellen bei der Entwicklung neuer Medikamente gegen Sepsis bis anhin schlecht auf den Menschen übertragen liessen.
Die Herausforderung liegt dabei insbesondere darin, dass Sepsis ein vielfältiges Krankheitsbild hat und die Ursachen für das Auftreten einer Sepsis noch nicht ausreichend erforscht sind. Die Schwierigkeit, neue Behandlungen gegen Sepsis zu entwickeln und die schlechte Übertragbarkeit von neuen Medikamentenkandidaten von Tieren auf den Menschen wird auch von anderen Autoren bestätigt (siehe zum Beispiel Fink 2014 [2]). Diese zeigen jedoch auch, dass die Erfolgsrate zwar gering, aber entgegen der obigen Behauptung nicht gleich null ist.
Wichtig ist auch zu erwähnen, dass die Standardbehandlung bei Sepsis die Verabreichung von Antibiotika beinhaltet, welche ebenfalls mit Hilfe von Versuchen an Tieren entwickelt wurden [3]. Es ist also falsch zu behaupten, dass jede in Tieren entwickelte Behandlung gegen Sepsis beim Menschen gescheitert ist.
Referenzen
[1] Leist, M., & Hartung, T. (2013). Inflammatory findings on species extrapolations: humans are definitely no 70-kg mice. Archives of toxicology, 87(4), 563-567.
[2] Fink, M. P. (2014). Animal models of sepsis. Virulence, 5(1), 143-153.
[3] Centers for Disease Control and Prevention. How is sepsis diagnosed and treated? (https://www.cdc.gov/sepsis/dia..., abgerufen am 12. Februar 2020).
Behauptung B9: Mit Ausnahme von einer Behandlung seien alle in Tieren wirksamen Behandlungsansätze, um Erkrankungen der Motorneuronen zu behandeln, bei der Anwendung im Menschen gescheitert.
Originaltext
«All but one of the experimental treatments that improved motor neurone disease in animals failed in human trials, and the benefits of the one successful treatment, in terms of extended survival, are considered negligible (Perrin 2014).»
Worauf stützt sich die Behauptung?
Als Quelle wird ein Meinungsbeitrag im Fachmagazin Nature angegeben (Perrin 2014) [2].
Was stimmt?
Die Kernaussage der Publikation ist korrekt wiedergegeben. Der Autor führte die geringe Übertragungsrate auf methodische Mängel zurück und zeigte Verbesserungsmassnahmen auf, welche diese Mängel beheben und damit die Übertragbarkeit erhöhen können. Siehe dazu auch Behauptung C2.
Referenzen
Behauptung B10: Von 101 Publikationen, die eine erfolgsversprechende Behandlung einer Krankheit basierend auf Tierversuchen beschrieben, hätte 20 Jahre später bloss eine einzige zu einer Behandlung von Menschen geführt.
Originaltext
«They found that of 101 research papers that clearly stated a promising finding, some twenty year later only one had led to a treatment that was subsequently used extensively in humans (Contopoulos-Ioannidis et al 2003).»
Worauf stützt sich die Behauptung?
Als Quelle wird ein systematischer Review im Fachmagazin «The American Journal of Medicine» angegeben (Contopoulos-Ioannidis et al. 2003).
Was stimmt?
Die Behauptung ist falsch. Die zitierte Publikation untersuchte 101 wissenschaftliche Artikel, die behaupteten, dass die in den jeweiligen Artikeln behandelten Technologien therapeutisches oder präventives Potential hätten. Gut 20 Jahre später wurden 54% davon schon einmal im Menschen getestet, 27% durchliefen einen randomisierten kontrollierten Versuch am Menschen und 19% zeigten bei solchen Versuchen positive Resultate. Von jenen Substanzen, die am Menschen getestet wurden, zeigten also ein Drittel positive Resultate. 5% aller Technologien (oder gut 10% der am Menschen getesteten Technologien) hatten am Ende des Untersuchungszeitraums eine Marktzulassung erhalten und 10% befanden sich noch in aktiver Entwicklung. Damit entsprechen die Raten der erfolgreichen Marktzulassungen ungefähr jenen, die auch von anderen Untersuchungen gezeigt wurde.
Siehe zudem die Anmerkungen zu Behauptung A2 und zu Behauptung B3.
Referenzen
[1] Contopoulos-Ioannidis, D. G., Ntzani, E. E., & Ioannidis, J. P. (2003). Translation of highly promising basic science research into clinical applications. American Journal of Medicine, 114(6), 477-484.
Behauptung B11: Es gebe gute Belege dafür, dass nur wenige Forschende, die mit Tieren arbeiten, sich der Vielzahl von Faktoren bewusst sind, die ihre Forschung verzerren können. Dementsprechend selten würden sie Massnahmen ergreifen, um diese Verzerrungen zu beheben.
Originaltext
«There is good evidence that only a few animal researchers are aware of the many ways in which their experiments can be biased (Reichlin et al 2016) and that only a few researchers take steps to minimise the possibility of these biases (Kilkenny et al 2009).»
Worauf stützt sich die Behauptung?
Als Quellen werden zwei Untersuchungen im Fachmagazin «PLoS ONE» angegeben (Kilkenny et al. 2009 [1]; Reichlin et al. 2016 [2]).
Was stimmt?
Siehe die Anmerkungen zu Behauptung C2 und Behauptung C9.
Referenzen
[1] Kilkenny, C., Parsons, N., Kadyszewski, E., Festing, M. F., Cuthill, I. C., Fry, D., ... & Altman, D. G. (2009). Survey of the quality of experimental design, statistical analysis and reporting of research using animals. PloS one, 4(11), e7824.
[2] Reichlin, T. S., Vogt, L., & Würbel, H. (2016). The researchers’ view of scientific rigor—survey on the conduct and reporting of in vivo research. PloS one, 11(12), e0165999.
Behauptung B12: Nur eine Minderheit der Forschenden, die mit Tieren arbeiten, würden ihre Tiere zufällig in die einzelnen experimentellen Gruppen einteilen, was zu verzerrten Studienresultate führe.
Originaltext
«Only a minority of animal researchers allocate animals to study groups randomly (Hirst et al 2014; Macleod et al 2015; Henderson et al 2015) with the result that unconscious bias creeps in.»
Worauf stützt sich die Behauptung?
Als Quellen werden drei Publikationen im Fachmagazin «PLoS ONE» (Hirst et al. 2014) [1], «PLoS Biology» (Macleod et al. 2015) [2] und «PLoS Medicine» (Henderson et al. 2013) [3] angegeben.
Was stimmt?
Die Behauptung wird nur teilweise von den angegeben Referenzen gestützt. Henderson et al. 2013 adressierten lediglich Richtlinien und Empfehlungen für Tierversuche, d.h. können keine Aussage darüber machen, wie häufig Forschende Tiere zufällig in experimentelle Gruppen einteilen.
Macleod et al. (2015) untersuchten, ob und wie häufig Randomisierung in wissenschaftlichen Publikationen mit Ergebnissen aus Tierversuchen erwähnt wurden. In einer Zufallsstichprobe von solchen Publikationen fanden die Autoren nur in 20% der Fälle, wo Randomisierung angebracht gewesen wäre, einen Verweis darauf. Das ist ein erster Anhaltspunkt dafür, wie verbreitet Randomisierung ist, lässt jedoch noch nicht den Schluss zu, dass nur eine Minderheit von Forschenden Randomisierung vornimmt. Denn es ist plausibel, dass Forschende zwar randomisiert haben, dies aber aus Platzgründen oder aus anderen Gründen nicht in der Publikation erwähnt haben.
Die Untersuchung von Reichlin et al. (2016) [4] ging die Schätzung deshalb von zwei verschiedenen Seiten an: Einerseits betrachteten sie systematische Reviews, die im Mittel in 27% der Publikationen Angaben zu Randomisierung fanden (wobei es unter den untersuchten Reviews eine beträchtliche Streuung von 9 % bis 55% gab). Andererseits führten sie eine Online-Umfrage durch, um Schweizer Forschende, die mit Tieren arbeiten, zur Verbreitung von Randomisierung zu befragen. Von denen, welche an der Umfrage teilnahmen und die entsprechenden Fragen beantworteten, gaben 86% an, dass sie in ihren Experimenten normalerweise randomisierten. Doch nur 44% gaben an, dies in ihrer letzten Publikation angegeben zu haben. Es ist also plausibel, dass Randomisierung häufiger durchgeführt wird, als es in Publikationen erwähnt wird. Reichlin et al. (2016) weisen aber auch daraufhin, dass es sich bei ihrer Umfrage nicht um eine repräsentative oder zufällig ausgewählte Stichprobe handelt. Es ist also plausibel, dass die Schätzungen aus ihrer Umfrage die Häufigkeit eher überschätzen.
Schliesslich ist zu erwähnen, dass fehlende Randomisierung von experimentellen Einheiten ein grundsätzliches methodisches Problem ist - unabhängig davon, ob es bei Versuchen an Tieren, mit Menschen oder bei in vitro Versuchen geschieht. Siehe auch die Anmerkungen zu Behauptung A9 bzgl. Verbesserung des Studiendesigns und den entsprechenden Richtlinien sowie Behauptung B16.
Referenzen
[1] Hirst, J. A., Howick, J., Aronson, J. K., Roberts, N., Perera, R., Koshiaris, C., & Heneghan, C. (2014). The need for randomization in animal trials: an overview of systematic reviews. PLoS One, 9(6), e98856.
[2] Macleod, M. R., Lawson McLean, A., Kyriakopoulou, A., Serghiou, S., de Wilde, A., Sherratt, N., ... & Sena, E. S. (2015). Risk of bias in reports of in vivo research: a focus for improvement. PLoS biology, 13(10), e1002273.
[3] Henderson, V. C., Kimmelman, J., Fergusson, D., Grimshaw, J. M., & Hackam, D. G. (2013). Threats to validity in the design and conduct of preclinical efficacy studies: a systematic review of guidelines for in vivo animal experiments. PLoS medicine, 10(7), e1001489.
[4] Reichlin, T. S., Vogt, L., & Würbel, H. (2016). The researchers’ view of scientific rigor—survey on the conduct and reporting of in vivo research. PloS one, 11(12), e0165999.
Behauptung B13: Studien, die keine Randomisierung erwähnen, würden eher von positiven Resultaten berichten.
Originaltext
«Studies that do not use random allocation are more likely to report positive findings (Bebarta et al 2003; Hirst et al 2014).»
Worauf stützt sich die Behauptung?
Als Quellen werden eine Publikation im Fachmagazin «PLoS ONE» (Hirst et al. 2014) [1] und eine Publikation im Fachmagazin «Academic Emergency Medicine» (Bebarta et al. 2003) [2] angegeben.
Was stimmt?
Die Kernaussagen der Publikationen sind korrekt wiedergegeben. Die fehlende Randomisierung von experimentellen Einheiten ist jedoch ein grundsätzliches methodisches Problem und unabhängig davon, ob es bei Versuchen an Tieren, mit Menschen, oder bei in vitro Versuchen geschieht.
Siehe auch die Anmerkungen zu Behauptung A9, Behauptung B12 und Behauptung B16.
Referenzen
[1] Hirst, J. A., Howick, J., Aronson, J. K., Roberts, N., Perera, R., Koshiaris, C., & Heneghan, C. (2014). The need for randomization in animal trials: an overview of systematic reviews. PLoS One, 9(6), e98856.
[2] Bebarta, V., Luyten, D., & Heard, K. (2003). Emergency medicine animal research: does use of randomization and blinding affect the results?. Academic Emergency Medicine, 10(6), 684-687.
Behauptung B14: In Tierversuchsstudien würden die Experimente häufig unverblindet durchgeführt, was dazu führen kann, dass die Auswertung verzerrt wird.
Originaltext
«Another way in which bias can be introduced is when the person assessing the outcomes of an experiment is aware which group received the experimental treatment. This is a problem in animal research (Henderson et al 2015; Bebarta et al 2003; Perel et al 2007; Kilkenny et al 2009; Hirst et al 2014; Macleod et al 2015); studies in which the researcher assessing outcomes knew which group received the experimental treatment were more likely to report positive findings (Bebarta et al 2003; Vesterinen et al 2010).»
Worauf stützt sich die Behauptung?
Als Quellen werden zwei Publikationen im Fachmagazin «PLoS ONE» (Hirst et al. 2014; Kilkenny et al. 2009) sowie je eine Publikation in «PLoS Medicine» (Henderson et al. 2013), im Fachmagazin «Academic Emergency Medicine» (Bebarta et al. 2003), im Fachmagzin «Multiple Sclerosis» (Vesterinen et al. 2010) und im «British Medical Journal» genannt (Perel et al. 2007).
Was stimmt?
Die Kernaussagen der Publikationen sind korrekt wiedergegeben. Fehlende Verblindung und fehlendes «Allocation Concealment» sind jedoch grundsätzliche methodische Probleme unabhängig davon, ob sie bei Versuchen an Tieren, mit Menschen, oder bei in vitro Versuchen auftreten.
Siehe auch die Anmerkungen zu Behauptung A9, Behauptung B12 und Behauptung B16.
Referenzen
[1] Hirst, J. A., Howick, J., Aronson, J. K., Roberts, N., Perera, R., Koshiaris, C., & Heneghan, C. (2014). The need for randomization in animal trials: an overview of systematic reviews. PLoS One, 9(6), e98856.
[2] Kilkenny, C., Parsons, N., Kadyszewski, E., Festing, M. F., Cuthill, I. C., Fry, D., ... & Altman, D. G. (2009). Survey of the quality of experimental design, statistical analysis and reporting of research using animals. PloS one, 4(11), e7824.
[3] Henderson, V. C., Kimmelman, J., Fergusson, D., Grimshaw, J. M., & Hackam, D. G. (2013). Threats to validity in the design and conduct of preclinical efficacy studies: a systematic review of guidelines for in vivo animal experiments. PLoS medicine, 10(7), e1001489.
[4] Bebarta, V., Luyten, D., & Heard, K. (2003). Emergency medicine animal research: does use of randomization and blinding affect the results?. Academic Emergency Medicine, 10(6), 684-687.
[5] Vesterinen, H. M., Sena, E. S., Ffrench-Constant, C., Williams, A., Chandran, S., & Macleod, M. R. (2010). Improving the translational hit of experimental treatments in multiple sclerosis. Multiple Sclerosis Journal, 16(9), 1044-1055.
[6] Perel, P., Roberts, I., Sena, E., Wheble, P., Briscoe, C., Sandercock, P., ... & Khan, K. S. (2007). Comparison of treatment effects between animal experiments and clinical trials: systematic review. Bmj, 334(7586), 197.
Behauptung B15: Unzureichende statistische Analysen würden Studienresultate verzerren, weil potentiell wichtige Einflussfaktoren wie Alter oder Geschlecht unberücksichtigt bleiben.
Originaltext
«Simplistic statistical analyses are often used that do not account for factors such as the age or sex of the animals. Not taking such factors into account may alter the results of experiments. For example there are at least 50 publications describing drugs that extend the lives of mice with motor neurone disease. Researchers identified factors (such as age and sex) that might have altered this body of research and then repeated the experiments, this time correctly taking account of such factors. They found that none of the drugs now extended the mice’s lives and concluded that the original positive findings were unlikely to have been due to the effect of the experimental drugs, but were most likely due to the experiments not being conducted properly (Scott et al 2008).»
Worauf stützt sich die Behauptung?
Als Quelle wird ein Review im Fachmagazin «Amytrophic Lateral Sclerosis» angegeben (Scott et al. 2008) [1].
Was stimmt?
Die Kernaussagen der Publikation sind korrekt wiedergegeben. Simplistische statistische Analysen sind ein grundsätzliches methodisches Problem unabhängig davon, ob sie bei Versuchen an Tieren, mit Menschen, oder bei in vitro Versuchen durchgeführt werden.
Siehe auch die Anmerkungen zu Behauptung A9, Behauptung B12 und Behauptung B16.
Referenzen
[1] Scott, S., Kranz, J. E., Cole, J., Lincecum, J. M., Thompson, K., Kelly, N., ... & Heywood, J. A. (2008). Design, power, and interpretation of studies in the standard murine model of ALS. Amyotrophic Lateral Sclerosis, 9(1), 4-15.
Behauptung B16: Es gebe Nachweise, dass Forschende aus allen Forschungsresultaten jeweils die besten auswählen, was dazu führen kann, dass der tatsächliche Effekt überschätzt wird.
Originaltext
«There is evidence that some researchers select, from among all the analyses performed, only those with the best results. This practice can lead to the benefits of drugs that are tested on animals being overestimated (Tsilidis et al 2013).»
Worauf stützt sich die Behauptung?
Als Quelle wir eine Studie in «PLoS Biology» angegeben (Tsilidis et al. 2013) [1].
Was stimmt?
Die Kernaussagen der Publikation sind korrekt wiedergegeben. Solche systematischen Verzerrungen (selection bias, HARKing, p-hacking etc.) sind ein grundsätzliches methodisches Problem und unabhängig davon, ob es bei Versuchen an Tieren, mit Menschen, oder bei in vitro Versuchen geschieht. Die wissenschaftliche Gemeinschaft nimmt diese Probleme ernst und arbeitet aktiv an deren Behebung. Beispiele dafür sind die ARRIVE- und PREPARE-Richtlinien (Percie du Sert et al. 2019 [2]; Smith et al. 2018 [3]), welche die Gefahr von systematischen Verzerrungen bei Tierversuchen reduzieren sollen, sowie Initiativen wie das «Center for Reproducible Science» der Universität Zürich oder das «Swiss Reproducibility Network», welche die Reproduzierbarkeit von wissenschaftlichen Studien verbessern möchte.
Siehe auch die Anmerkungen zu Behauptung A9 und Behauptung B12.
Referenzen
[1] Tsilidis, K. K., Panagiotou, O. A., Sena, E. S., Aretouli, E., Evangelou, E., Howells, D. W., ... & Ioannidis, J. P. (2013). Evaluation of excess significance bias in animal studies of neurological diseases. PLoS biology, 11(7), e1001609.
[2] Percie du Sert, N., Hurst, V., Ahluwalia, A., Alam, S., Avey, M. T., Baker, M., ... & Würbel, H. (2020). The ARRIVE guidelines 2.0: Updated guidelines for reporting animal research. Journal of Cerebral Blood Flow & Metabolism, 40(9), 1769-1777.
[3] Smith, A. J., Clutton, R. E., Lilley, E., Hansen, K. E. A., & Brattelid, T. (2018). PREPARE: guidelines for planning animal research and testing. Laboratory animals, 52(2), 135-141.
Behauptung B17: Positive Resultate würden häufiger publiziert als negative Resultate, was auch bei Forschung mit Tieren ein Problem darstelle.
Originaltext
«Publication bias is a term that describes the phenomenon whereby studies are more likely to be published if they report positive findings. This means that negative findings – for example where an experimental drug has not been found to work in animals – tend not to be published. This is a significant issue in animal research (Korevaar et al 2011; Mueller et al 2014).»
Worauf stützt sich die Behauptung?
Als Quellen werden je eine Publikation in «PLoS ONE» (Mueller et al. 2014) [1] und im Fachmagazin «Laboratory Animals» (Korevaar et al. 2011) [2] angegeben.
Was stimmt?
Die Kernaussagen der Publikationen sind korrekt wiedergegeben. Publikationsbias ist in den meisten wissenschaftlichen Gebieten ein Problem, da sogenannte «Null-Resultate» oder «Negativresultate» von den wissenschaftlichen Fachmagazinen kaum publiziert werden [3].
Referenzen
[1] Mueller, K. F., Briel, M., Strech, D., Meerpohl, J. J., Lang, B., Motschall, E., ... & Bassler, D. (2014). Dissemination bias in systematic reviews of animal research: a systematic review. PloS one, 9(12), e116016.
[2] Korevaar, D. A., Hooft, L., & Ter Riet, G. (2011). Systematic reviews and meta-analyses of preclinical studies: publication bias in laboratory animal experiments. Laboratory animals, 45(4), 225-230.
[3] Brown, A. W., Mehta, T. S., & Allison, D. B. (2017). Publication bias in science: what is it, why is it problematic, and how can it be addressed. The Oxford Handbook of the Science of Science Communication, 93-101.
Behauptung B18: Wenn hauptsächlich positive Resultate publiziert würden, werde das Resultat einer Therapie überschätzt. Das sei insbesondere in der Forschung mit Tieren zu Hirnschlägen ein Problem.
Originaltext
«The problem is that if only positive findings are published, the benefits of that body of research are overestimated, as has happened in the field of animal studies of stroke (Sena et al 2010). Another consequence of negative findings not being published is that other researchers may repeat the failed experiments because they were unaware of the results, meaning that more animals’ lives and funding are wasted.»
Worauf stützt sich die Behauptung?
Als Quelle wird eine Publikation in «PLoS Biology» angegeben (Sena et al. 2010) [1].
Was stimmt?
Die Kernaussagen der Publikationen sind korrekt wiedergegeben. Zum Thema des Publikationsbias, siehe die Anmerkungen zu Behauptung B17.
Referenzen
[1] Sena, E. S., Van Der Worp, H. B., Bath, P. M., Howells, D. W., & Macleod, M. R. (2010). Publication bias in reports of animal stroke studies leads to major overstatement of efficacy. PLoS biology, 8(3), e1000344.
Behauptung B19: Experimentelle Resultate würden sich fast immer zwischen verschiedenen Tieren unterscheiden, weshalb Tiere kein verlässliches Modell darstellen würden, um die Sicherheit von Medikamenten für Menschen zu testen.
Originaltext
«Results nearly always differ between species, so testing a substance on animals is not a reliable method of predicting the human responses to that substance. Some drugs with potential benefit for humans might not be approved because they have been found to harm animals; conversely, drugs found to be safe in animals might then go on to harm humans.»
Worauf stützt sich die Behauptung?
Keine Quelle wird angegeben.
Was stimmt?
Menschen und Tiere unterscheiden sich voneinander in physiologischer, anatomischer und molekularbiologischer Hinsicht. Es wäre jedoch falsch, aus diesen Unterschieden auf die Abwesenheit relevanter Gemeinsamkeiten zu schliessen. Bei vielen physiologischen, anatomischen und molekularbiologischen Prozessen bestehen Gemeinsamkeiten zwischen Mensch und Tier.
Die Anmerkungen zu Behauptung B7 liefern ein gutes Beispiel dafür. Dort geht es um die Untersuchung der Korrelation der genetischen Reaktion auf Entzündungen beim Menschen und bei Mäusen. Die Autoren der beiden zitieren Publikationen konnten zeigen, dass eine Reihe von Unterschieden zwischen Mensch und Maus bestehen, dass aber auch sehr viele Gemeinsamkeiten vorhanden sind. Das Tiermodell kann bei der Erforschung dieser Gemeinsamkeiten helfen.
Referenzen
Behauptung B20: In Grossbritannien würden jährlich mehr als 10’000 Menschen wegen medikamentösen Nebenwirkungen sterben. In den USA seien Nebenwirkungen die sechst- bis vierthäufigste Todesursache.
Originaltext
«It is estimated that more than 10,000 people are killed every year in the UK by adverse reactions to prescription medicines (Pirmohamed et al 2004). In the US, adverse drug reactions are the fourth–sixth leading cause of death (Lazarou et al 1998).»
Worauf stützt sich die Behauptung?
Als Quellen werden je eine Publikation im British Medical Journal (Pirmohamed et al. 2004) und im Journal of the American Medical Association (Lazarou et al. 1998) angegeben.
Was stimmt?
Siehe die Anmerkungen zu Behauptungen A16-18. Die Schätzungen von Lazarou et al. (1998) [2] wurden kritisiert, u.a. weil die Autoren die Anzahl der Todesfälle aufgrund von Nebenwirkungen schätzten, indem sie Hospitalisierungszahlen aus dem Jahr 1994 mit Zahlen zu Nebenwirkungen verrechneten, die vor 1981 erhoben wurden (Pirmohamed et al. 2004) [1].
Referenzen
[1] Pirmohamed, M., James, S., Meakin, S., Green, C., Scott, A. K., Walley, T. J., ... & Breckenridge, A. M. (2004). Adverse drug reactions as cause of admission to hospital: prospective analysis of 18 820 patients. Bmj, 329(7456), 15-19.
[2] Lazarou, J., Pomeranz, B. H., & Corey, P. N. (1998). Incidence of adverse drug reactions in hospitalized patients: a meta-analysis of prospective studies. Jama, 279(15), 1200-1205.
Behauptung B21: Das Arthritis-Medikament Vioxx habe Tausende von Todesfällen verursacht, bevor es vom Markt genommen worden ist. Schätzungen würden von ungefähr 55’600 Menschen ausgehen, die daran gestorben seien. Tierversuche hätten die Gefährlichkeit von Vioxx nicht vorausgesehen.
Originaltext
«The arthritis drug Vioxx caused thousands of deaths prior to being taken off the market in 2004. It is difficult to estimate the exact number of deaths, but a scientist at the United States Food and Drugs Agency (FDA) calculated that approximately 55,600 people may have died as a result of Vioxx in the US alone (www.whistleblower.org/dr-david-grahams-full-story). While the FDA and the company that developed Vioxx failed in their responsibilities (Topol 2004), animal tests failed to predict that Vioxx would cause deaths and adverse reactions in humans.»
Worauf stützt sich die Behauptung?
Als Quellen werden ein Kommentar im New England Journal of Medicine (Topol 2004) sowie eine Internetseite angegeben. Letztere ist nicht mehr online, aber über das Internetarchiv «Wayback Machine» noch abrufbar.
Was stimmt?
Siehe die Anmerkungen zu Behauptung A13.
Referenzen
[1] Topol, E. J. (2004). Failing the public health—rofecoxib, Merck, and the FDA. New England Journal of Medicine, 351(17), 1707-1709.
[2] Webseite online nicht mehr abrufbar, siehe deshalb Quelle 3.
www.whistleblower.org/dr-david-grahams-full-story
[3] Government Accountability Project. Dr. David Graham’s Full Story
(https://web.archive.org/web/20..., abgerufen am 24. April 2020)
Behauptung B22: Der medizinische Wirkstoff TGN1421 sei in nicht-menschlichen Primaten getestet und für sicher befunden worden, habe aber in menschlichen Probanden bei klinischen Studien schwere Nebenwirkungen wie Entzündungen und Organversagen ausgelöst.
Originaltext
«TGN1412 was tested in non-human primates (NHPs) because of their close relationship to humans but soon after being given a dose 500 times smaller than that found safe in animal studies, all six human volunteers began to experience a chain of events which rapidly led to severe inflammation and multiple organ failure (Attarwala 2010).»
Worauf stützt sich die Behauptung?
Als Quelle wird eine Publikation im Fachmagazin «Journal of Young Pharmacists» angegeben (Attarwala 2010) [1].
Was stimmt?
Die Sicherheit von TGN1412 wurde vor klinischen Versuchen sowohl an Tieren wie auch an menschlichen Zellen getestet und für sicher befunden, wie auch Attarwala (2010) aufzeigt. Wesentliche Ursache für die schweren Nebenwirkungen bei menschlichen Probanden war eine zu hohe Dosis des Wirkstoffs sowie mangelnde Vorbereitung der involvierten Ärzte auf solche Nebenwirkungen. Die zu hohe Dosis wurde eingesetzt, weil die Resultate an nicht-menschlichen Primaten falsch auf menschliche Probanden übertragen wurden (siehe dazu Hünig 2010 sowie Kaur et al. 2018). Lemoine (2017) weist diesbezüglich darauf hin, dass TGN1412 aufzeigt, wie Sicherheitsstudien dazu dienen können, mögliche Nebenwirkungen zu erkennen, aber weniger gut geeignet sind, um die Grundlage für exakte Dosis-Berechnungen zu legen. Siehe dazu auch die Anmerkungen zur Behauptung A2.
Es ist jedoch wichtig zu betonen, dass TGN1412 bei geringerer Dosis auch für Menschen sicher ist. Es sind auch bereits wieder wieder klinische Versuche an Menschen mit TGN1412 durchgeführt worden, ohne dass es zu schweren Nebenwirkungen gekommen ist (Kenter and Kohen, 2015).
Referenzen
[1] Attarwala, H. (2010). TGN1412: from discovery to disaster. Journal of Young Pharmacists, 2(3), 332-336
[2] Hünig, T. (2012). The storm has cleared: lessons from the CD28 superagonist TGN1412 trial. Nature Reviews Immunology, 12(5), 317-318
[3] Kaur, R. J., Singh, S., Sidhu, P., & Sharma, P. K. (2018). TGN-1412 and BIA-2474 trials with tragic end: lessons learnt to make clinical trials safer. Reviews on recent clinical trials, 13(4), 252-256.
[4] Lemoine, M. (2017). Animal extrapolation in preclinical studies: An analysis of the tragic case of TGN1412. Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences, 61, 35-45.
[5] Kenter, M. J., & Cohen, A. F. (2015). The return of the prodigal son and the extraordinary development route of antibody TGN1412‐lessons for drug development and clinical pharmacology.
Behauptung B23: Aus Experimenten an nicht-menschlichen Primaten würden sich die Nebenwirkungen bei Menschen nur schlecht ablesen lassen. Ein Beispiel dafür sei das Arthritis-Medikament Vioxx.
Originaltext
«The ability of NHPs to predict human adverse drug reactions is poor and some drugs that were safe for NHPs have gone on to injure or kill humans. For example the arthritis drug Vioxx, which killed approximately 55,000 people in the US alone, was found to be safe in monkeys.»
Worauf stützt sich die Behauptung?
Keine Quelle angegeben.
Was stimmt?
Siehe die Anmerkungen zu Behauptungen A11-13 und zu Behauptung B22.
Referenzen
Behauptung B24: Über tausend Medikamente gegen Hirnschläge seien in Primaten und anderen Tieren getestet worden, aber nur eines davon sei erfolgreich in Menschen gewesen.
Originaltext
«Of over one thousand drugs for stroke that have been developed and tested in primates and other animals (O’Collins et al 2006), all but one have failed and even harmed patients in clinical trials (e.g. Tirilazad International Steering Committee 2001). And even the benefits of the one ‘successful’ drug are controversial (Sandercock and Ricci 2017).»
Worauf stützt sich die Behauptung?
Als Quelle werden je eine Publikation in den Fachmagazinen «Annals of Neurology» (O’Collins et al. 2006) [1] und «Current Neurology and Neuroscience Reports» (Sandercock and Ricci 2017) [2] sowie eine Publikation aus der «Cochrane Database of Systematic Reviews» (The Tirilazad International Steering Committee 2001) [3] genannt.
Was stimmt?
Siehe die Anmerkungen zu Behauptung B5.
Referenzen
[1] O'Collins, V. E., Macleod, M. R., Donnan, G. A., Horky, L. L., Van Der Worp, B. H., & Howells, D. W. (2006). 1,026 experimental treatments in acute stroke. Annals of neurology, 59(3), 467-477.
[2] Sandercock, P. A., & Ricci, S. (2017). Controversies in thrombolysis. Current neurology and neuroscience reports, 17(8), 1-6.
[3] Tirilazad International Steering Committee. (2001). Tirilazad for acute ischaemic stroke. Cochrane Database of Systematic Reviews, (4).
Behauptung B25: Tiermodelle würden die komplexen Prozesse, die zur Entstehung von Krebs im Menschen führen, nicht abbilden können.
Originaltext
«Animal models are unable to mimic the complex process of human carcinogenesis, physiology and progression, with the result that they rarely translate into benefits for humans with cancer.»
Worauf stützt sich die Behauptung?
Keine Quelle angegeben.
Was stimmt?
Siehe die Anmerkungen zu Behauptung A7 und Behauptung A8.
Referenzen
Behauptung B26: Die durchschnittliche Übertragbarkeit von Tiermodellen zu erfolgreichen Krebsstudien am Menschen liege bei weniger als 8%.
Originaltext
«The average rate of translation from animal models to successful clinical cancer trials is less than 8%.»
Worauf stützt sich die Behauptung?
Keine Quelle angegeben.
Was stimmt?
Siehe die Anmerkungen zu Behauptung A7, Behauptung A8 und zu Behauptung B4.
Referenzen
Behauptung B27: Experten würden zunehmend von Tierversuchen abraten und stattdessen andere Ansätze wie «Micro-Dosing», zell- und gewebebasierte Ansätze, sowie Computermodelle empfehlen.
Originaltext
«Experts in the field are increasingly recommending a reduction in reliance on animal models and the use of new (non-animal) approaches in order to transform cancer drug discovery (Jackson and Thomas 2017), including microdosing in (Phase 0) human trials, in vitro human cell-based assays, in silico (computer) models, increased emphasis on epidemiology (Mak et al 2014), and the use of human tissue models (Jackson and Thomas 2017).»
Worauf stützt sich die Behauptung?
Als Quelle werden ein Editorial im Fachmagazin «Disease Models & Mechanisms» (Jackson and Thomas 2017) [1] sowie ein Review im Fachmagazin «American Journal of Translational Research» (Mak et al. 2014) [2] angegeben.
Was stimmt?
Beide Publikationen beschreiben die Schwierigkeit der Übertragbarkeit von Daten aus Tierversuchen auf klinische Studien und zeigen mögliche ergänzende Methoden auf. Die in den Publikationen beschriebenen Methoden sind Ergänzungen zu den bestehenden in vivo Methoden und nicht in der Lage, diese komplett zu ersetzen.
Referenzen
[1] Jackson, S. J., & Thomas, G. J. (2017). Human tissue models in cancer research: looking beyond the mouse. Disease models & mechanisms, 10(8), 939-942.
[2] Mak, I. W., Evaniew, N., & Ghert, M. (2014). Lost in translation: animal models and clinical trials in cancer treatment. American journal of translational research, 6(2), 114.
Behauptung B28: Thalidomid (vertrieben unter dem Namen «Contergan»), sei an einer Vielzahl von Tierarten getestet worden, wobei die fruchtschädigende Wirkung nur manchmal aufgetreten sei.
Originaltext
«Thalidomide was tested in numerous animal species without producing any birth defects (Taussig 1962). As Schardein (1985) writes: ‘In approximately 10 strains of rats, 15 strains of mice, 11 breeds of rabbits, 2 breeds of dogs, 3 strains of hamsters, 8 species of primates and in other such varied species as cats, armadillos, guinea pigs, swine and ferrets in which thalidomide has been tested, teratogenic effects have been induced only occasionally.’»
Worauf stützt sich die Behauptung?
Als Quelle wird eine Publikation im «Scientific American» (Taussig 1962) [1] und eine Publikation im Fachmagazin «Environmental Health Perspectives» (Schardein et al. 1985) [2].
Was stimmt?
Bereits kurze Zeit nach den ersten Berichten über einen möglichen Zusammenhang zwischen Thalidomid und Missbildungen bei menschlichen Föten wurde eine Studie veröffentlicht, in der Thalidomid an Kaninchen verabreicht wurde und die ähnliche Missbildungen zutage förderten, wie sie bei Menschen beobachtet worden waren [3,4]. Auch bei Ratten wurde die teratogene Wirkung von Thalidomid nachträglich beobachtet [5] - noch häufiger kam es zum intrauterinen Tod, gefolgt von Resorption, was zu einer Verringerung der Wurfgrösse führte [6].
Im Laufe dieser Studien stellte sich heraus, dass die Ratten und Kaninchen Thalidomid während eines kritischen Zeitraums in der Entwicklung ausgesetzt werden mussten, damit Missbildungen auftraten - genau wie es auch bei Menschen der Fall war. Innerhalb weniger Jahre wurde nachgewiesen, dass Thalidomid auch Geburtsfehler bei Mäusen [7] und Pavianen [8] verursachen konnte. In einem Übersichtsartikel von 1989 listeten Schardein et al. (1989) [9] 17 verschiedene Arten von Säugetieren auf, bei denen Thalidomid eine fruchtschädigende Wirkung zeigte - darunter auch Mäuse, Ratten und Kaninchen, die heutzutage routinemässig in der Medikamentenentwicklung eingesetzt werden. Fortschritte wurden zudem beim Verständnis des Mechanismus erzielt, über den Thalidomid zu Geburtschäden führt, und warum einige Arten - u.a. Menschen, Makaken oder Kaninchen - anfälliger sind auf die Wirkungen als andere Tiere wie Mäuse oder Ratten [10].
Die Erfahrungen mit Thalidomid haben unter anderem dazu geführt, dass Zulassungsbehörden Studien an unterschiedlichen Tierarten verlangen, bevor die Substanzen an Menschen getestet werden dürfen. Die Herausforderung bei der Auswahl des Modells besteht darin, das richtige Tiermodell für die zu beantwortende Frage zu wählen. Thalidomid ist auch ein gutes Beispiel dafür, warum Tierversuche eine wichtige Rolle beim Abklären der Sicherheit von Medikamenten dienen und noch nicht vollständig mit tierversuchsfreien Methoden ersetzt werden können: Da Thalidomid für lebende Zellen nicht giftig ist und auch keine krebsauslösende Wirkung hat [101], wären die Nebenwirkungen in Zellkulturstudien nicht entdeckt worden. Auch bei Tests am Menschen würde Thalidomid nicht als gefährlich eingestuft werden für das ungeborene Kind, da solche Tests nicht an schwangeren Müttern durchgeführt werden würden.
Siehe dazu auch die Anmerkungen zu Behauptungen A21ff.
Referenzen
[1] Taussig, H. B. (1962). The thalidomide syndrome. Scientific American, 207(2), 29-35.
[2] Schardein, J. L., Schwetz, B. A., & Kenel, M. F. (1985). Species sensitivities and prediction of teratogenic potential. Environmental health perspectives, 61, 55-67.
[3] Somers, G. F. (1962). Thalidomide and congenital abnormalities. The Lancet, 279(7235), 912-913.
[4] Somers, G. F. (1963). The foetal toxicity of thalidomide. In Proc. Eur. Soc. Study Drug Toxic (Vol. 1, pp. 49-58).
[5] King, C. T. G., & Kendrick, F. J. (1962). Teratogenic effects of thalidomide in the Sprague Dawley rat. The Lancet, 280(7265), 1116.
[6] Knapp, V., Christie, G., & Seller, M. (1962). Thalidomide and congenital abnormalities. The Lancet, 280(7249), 249.
[7] DiPaolo, J. A. (1963). Congenital malformation in strain A mice: Its experimental production by thalidomide. JAMA, 183(2), 139-141.
[8] Hendrickx, A. G., Axelrod, L. R., & Clayborn, L. D. (1966). ‘Thalidomide’syndrome in baboons. Nature, 210(5039), 958-959.
[9] Schardein, J. L., Keller, K. A., & Schwetz, B. A. (1989). Potential human developmental toxicants and the role of animal testing in their identification and characterization. CRC critical reviews in toxicology, 19(3), 251-339.
[10] Therapontos, C., Erskine, L., Gardner, E. R., Figg, W. D., & Vargesson, N. (2009). Thalidomide induces limb defects by preventing angiogenic outgrowth during early limb formation. Proceedings of the national academy of sciences, 106(21), 8573-8578.
[11] Zhu, X., Zhang, Y. P., Klopman, G., & Rosenkranz, H. S. (1999). Thalidomide and metabolites: indications of the absence ofgenotoxic'carcinogenic potentials. Mutation Research/Fundamental and Molecular Mechanisms of Mutagenesis, 425(1), 153-167.
Behauptung B29: Selbst wenn Thalidomid vor der Zulassung hinsichtlich der fruchtschädigenden Wirkung getestet worden wäre, wären diese Nebenwirkungen unentdeckt geblieben.
Originaltext
«There is some uncertainty and controversy about whether thalidomide was properly tested on pregnant animals before humans. However, even if the correct tests had been conducted it is unlikely they would have prevented the disaster. As Teeling-Smith (1980) notes: ‘With thalidomide (…) it is only possible to produce specific deformities in a very small number of species of animal. In this particular case, therefore, it is unlikely that specific tests in pregnant animals would have given the necessary warning: the right species would probably never have been used.’»
Worauf stützt sich die Behauptung?
Als Quelle wird eine Monographie der britischen Non-Profit-Organisation «Office of Health Economics» angegeben (Teeling Smith 1980) [1].
Was stimmt?
Siehe die Anmerkungen zu Behauptung B28.
Referenzen
[1] Teeling Smith, G. (1980). Question of Balance: the Benefits and Risks of Pharmaceutical Innovation. Monographs.
Behauptung B30: Die Polio-Impfung wurde wegen Tierversuchen um Jahrzehnte verzögert.
Originaltext
«The polio vaccine was delayed 40 years by monkey tests.»
Worauf stützt sich die Behauptung?
Als Quellen werden zwei Fachpublikationen von Albert Sabin (Sabin 1965, 1984) [1,2] und eine Fachmonographie zur Geschichte der Impfungen angegeben (Parish 1968) [3].
Was stimmt?
Siehe die Anmerkungen zu Behauptung A30.
Referenzen
[1] Sabin, A. B. (1965). Oral poliovirus vaccine: history of its development and prospects for eradication of poliomyelitis. Jama, 194(8), 872-876.
[2] Sabin, A. B. (1984). Strategies for elimination of poliomyelitis in different parts of the world with use of oral poliovirus vaccine. Reviews of infectious diseases, 6(Supplement_2), S391-S396.
[3] Parish, H. J. (1968). Victory with vaccines. The story of immunization. Victory with vaccines. The story of immunization.
Behauptung B31: Die Entwicklung von Penicillin sei durch Tierversuche verzögert worden.
Originaltext
«Animal research also significantly side-tracked the development of penicillin. [...] Fleming later commented, ‘How fortunate we didn’t have these animal tests in the 1940s, for penicillin would probably never been granted a license, and possibly the whole field of antibiotics might never have been realised’ (Parke 1994).»
Worauf stützt sich die Behauptung?
Als Quelle wird eine Publikation im Fachmagazin «Alternatives to Laboratory Animals» angegeben (Parke 1994).
Was stimmt?
Siehe die Anmerkungen zu Behauptung A28.
Referenzen
[1] Parke, D. V. (1994). Clinical pharmacokinetics in drug safety evaluation. Alternatives to Laboratory Animals, 22(3), 207-209.
Behauptung B32: Tierversuche hätten bei der Entwicklung von Insulin-Therapien keinen Nutzen gehabt bzw. diese sogar verzögert.
Originaltext
«While it is true that insulin obtained from animals saved the lives of many diabetics, animal research was not useful in investigating the cause of this disease. Physicians in the late 18th century first linked diabetes to changes in the pancreas seen at human autopsy. Although dogs, cats, and pigs became diabetic when their pancreases were removed, their symptoms led researchers to conjecture that diabetes was a liver disease, throwing diabetes research off track for decades.»
Worauf stützt sich die Behauptung?
Keine Quelle wird angegeben.
Was stimmt?
Siehe die Anmerkungen zu Behauptung A28.
Referenzen
Behauptung B33: Der Zusammenhang zwischen Diabetes und der Bauchspeicheldrüse sei dank Forschung an Menschen und in vitro Forschung, nicht dank Tierversuchen, entdeckt worden.
Originaltext
«In 1922, scientists spoke out against the animal experiments (Roberts 1922), pointing out that human autopsy had in fact shown the pancreas to be the vital organ in diabetes, and that it was in vitro research that was responsible for the isolation of insulin.»
Worauf stützt sich die Behauptung?
Als Quelle wird ein fast 100 Jahre alter Kommentar im «British Medical Journal» genannt (Roberts 1922) [1].
Was stimmt?
Der Kommentar diskutiert die Erkenntnisse von mehreren Experimenten mit Tieren und enthält keine Kritik am Tiermodell an sich, sondern an den Schlüssen, die andere Forschende aus diesen Experimenten gezogen haben. Es enthält auch keinen Hinweis auf menschliche Autopsien im Zusammenhang mit der Untersuchung des Pankreas. Siehe auch die Anmerkungen zu Behauptung A28.
Referenzen
[1] Roberts, F. (1922). Insulin. British Medical Journal, 2(3233), 1193.
Behauptung B34: Eine stille Mehrheit von Ärzten sei sich bewusst, dass Tierversuche weder Sicherheit noch Wirksamkeit von neuen Medikamenten garantieren würden.
Originaltext
«A silent majority of today’s doctors are aware that animal tests do not guarantee the safety and efficacy of new drugs.»
Worauf stützt sich die Behauptung?
Keine Quelle wird angegeben.
Was stimmt?
Siehe die Anmerkungen zu Behauptung A6 und Behauptung A20.
Referenzen
Haben Sie etwas entdeckt, das fehlt oder fehlerhaft ist? Dann weisen Sie uns darauf hin! So geht es:
- Markieren Sie im Text die Passage, die Sie kommentieren möchten.
- Klicken Sie auf das erscheinende Kommentarsymbol und sagen Sie uns, was fehlt oder falsch ist.
- Wichtig: Bitte begründen Sie Ihre Aussage. Bei Faktenaussagen bitte auch auf entsprechende Quellen verweisen.
Wir kontrollieren die Texte regelmässig auf neue Kommentare und betten diese wenn möglich in den Text ein. Achtung: Kommentare ohne Begründungen und Quellenangaben werden nicht berücksichtigt.
Les articles publiés sur le blog de Reatch reflètent l'opinion personnelle de leurs auteurs et autrices et ne correspondent pas nécessairement à celle de Reatch ou de ses membres.
Comments (0)