Big Data in der Medizin: Keine Nutzenbewertung ohne Kausalität!

PD Dr. Stefan Lange, stellvertretender Leiter des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)

„Große Daten, große Taten? Auf dem Weg zu datengestützten europäischen Gesundheitssystemen“, lautete jüngst der Titel einer Veranstaltung in Berlin. Referenten schwärmten dort von „virtuellen Räumen“ in Europa, aus denen jetzt ein gemeinsames Haus werden müsse – „damit die Daten fliegen können“. Für die Auswertung der großen Datenbestände in den einzelnen Gesundheitssystemen gäbe es bereits die technischen Möglichkeiten. Jetzt brauche es nur noch den nötigen Willen bzw. das „richtige Mindset“, um dies auch zu tun. Die vergangenen Pandemie-Monate hätten schließlich die Bedeutung großer Datenflüsse vor Augen geführt. Kurzum: Nun beginne die Ära von Big Data.

Ist es wirklich so einfach? Je größer die Datenmenge, je diffiziler die Auswertungsalgorithmen und je größer der Wille aller Beteiligten, desto größer auch die Taten? Und dann auch noch die COVID-19-Pandemie als Beispiel für die sinnhafte Verwendung großer Datenmengen? Ich sage zweimal: Nein.

 

Unerfüllte Versprechen

Das große Versprechen ist, dass Big Data bei der Gewinnung neuen medizinischen Wissens helfen kann. So sollen zum Beispiel die vielen tausend täglich in den Kliniken und Arztpraxen anfallenden Patientendaten (unter anderem die Routinedaten) dazu verwendet werden, Nutzenaussagen zu medizinischen Interventionen zu generieren. Dazu durchforsten aufwändige Programme in Hochleistungsrechnern riesige Datenmengen nach Assoziationsmustern und Korrelationen. Ein solcher digitaler Sieb-Vorgang kann durchaus bemerkenswerte Zusammenhänge ans Licht bringen: So kann man zeigen, dass sich der Käse-Konsum in Deutschland von 2000 bis 2010 parallel zur Zahl derjenigen Menschen entwickelt hat, die auf tragische Weise unter der Bettdecke erstickt sind. Sollten Menschen also weniger Käse essen, damit mehr Menschen die Nacht überleben? Dieses Käse-Beispiel stammt übrigens von Gerd Antes, einem der Wegbereiter der evidenzbasierten Medizin (EbM) in Deutschland. Er verwendet es gerne in seinen Vorträgen.

Selbstverständlich ist jeglicher Zusammenhang zwischen Käsekonsum und Erstickungstoten zufälliger Natur. Um Aussagen über Nutzen und Schaden einer medizinischen Intervention treffen zu können, ist deshalb der Kausalitätsnachweis unabdingbar. Allein auf Basis von Korrelationen ist ein solcher Nachweis nicht möglich. Es braucht nun einmal prospektive und idealerweise randomisierte vergleichende Studien. Dies zeigt sich übrigens aktuell auch bei der Bekämpfung der COVID-19-Pandemie: So mussten zwei hochrangig im „Lancet“ bzw. im „New England Journal of Medicine“ publizierte Forschungsarbeiten, die ihre vermeintlichen Erkenntnisse mithilfe von Big Data und Künstlicher Intelligenz gewonnen hatten wollen, zuletzt eiligst wieder zurückgezogen werden, weil die Ergebnisse nicht belastbar waren. Dass randomisierte kontrollierte Studien (RCT) auch in Pandemie-Zeiten und in kurzer Frist möglich sind, hat soeben eine norwegische Forschergruppe um Lise Helsingen belegt: In ihrer TRAiN-Studie untersuchten Helsingen et al. prospektiv in zwei Vergleichsgruppen mit je 1900 Menschen, ob bei Einhaltung von Abstands- und Hygieneregeln der Zugang zu ab Ende Mai wiedereröffneten Fitnessstudios die Infektionsrate mit COVID-19 erhöht hat. Nach den ersten Ergebnissen war dies nicht der Fall.

 

Lose-Lose-Situation in der Pandemie

Überhaupt zeigt die „Infodemie“ im Zuge von COVID-19 eindrucksvoll die Probleme des Big-Data-Ansatzes: Völlig unstrukturierte Informationen aus einem Sammelsurium geeigneter und ungeeigneter Daten(-quellen) werden, gepaart mit ungeeigneten Designs, über zahlreiche Kanäle verbreitet und dienen dann auch noch als Grundlage für politische Entscheidungen. Schlimmer noch: Das große Vertrauen darin, die Pandemie mithilfe von Big Data bekämpfen zu können, führt aktuell dazu, dass hochwertige Studien, die zu validen Erkenntnissen führen würden, viel zu selten aufgesetzt werden. Eine Lose-Lose-Situation, wenn man so will.

Warum hat man nicht schon längst (annähernd) repräsentative Bevölkerungskohorten gebildet und über einen gewissen Zeitraum im Hinblick auf das Infektionsgeschehen beobachtet, um interpretierbare Schätzungen für eine Inzidenz zu erlangen? Eine solche Studie ließe sich auf einer pragmatischen Grundlage bei einer akuten Infektionskrankheit einfach realisieren. Sie könnte auch problemlos erweitert und verlängert werden, um etwas zum weiteren Verlauf der Infektion zu erfahren. Eigentlich benötigten wir die – fortlaufend monitorierten – Ergebnisse einer solchen Studie jetzt, da die Fallzahlen wieder steigen und die Politik sich zu verschärften „Corona-Maßnahmen“ genötigt fühlt. Nebenbei gefragt: Wo ist eigentlich die Nationale Kohorte?

Nur am Rande sei hier erwähnt, dass die Zahl der täglich vermeldeten positiven Testergebnisse auf SARS-CoV-2 (teilweise auch kommuniziert als Zahl pro 100 000 Einwohner, gemittelt über eine Woche; der sogenannte „7-Tage-Inzidenzwert“) auch nicht ansatzweise eine Inzidenz beschreibt. Hier wird falsches Design („Convenience-Sample“) mit schlechter Statistik gekoppelt: Wenn bei  einer Million Menschen pro Woche ein Test durchgeführt, das aber dann auf die gesamte Bevölkerung „hochgerechnet“ wird, dann impliziert das, dass die restlichen 82 Millionen Menschen in Deutschland ein negatives Testergebnis hätten. Da dies eine unrealistische Annahme ist, würden Angaben zur Dunkelziffer benötigt. Nur: Valide Schätzungen zur Dunkelziffer können allein aus den im Absatz zuvor beschriebenen Kohortenstudien generiert werden. Womit sich der Kreis schließt.

 

Evidenz statt Masse

Noch einmal auf die eingangs erwähnte Big-Data-Veranstaltung zurückkommend: Die Zeiten von Entscheidungen aus dem Bauch heraus seien vorbei, hat ein Referent dort noch gesagt: „Die Kultur von datengetriebenen Entscheidungen werde sich durchsetzen.“ Wer solche Aussagen trifft, hat ganz offensichtlich den Siegeszug der EbM und der medizinischen Leitlinien in den letzten 30 Jahren verschlafen. Meine Hoffnung ist jedenfalls, dass Entscheidungen im Gesundheitswesen nicht einfach nur datengestützt, sondern auch evidenzbasiert getroffen werden. Daten alleine können ein vernünftiges Design nicht ersetzen – egal, wie viele es sind.

Was ist neben dem enormen Wissenszuwachs das zweite große Versprechen von Big Data in der Medizin? Man erhofft sich von Big Data gestützten Anwendungen wie medizinischen Apps oder auch digitalen Programmen zur Behandlungsplanung von Krebskranken spürbare Verbesserungen in Prävention, Diagnostik und Therapie. So sehr wir uns das alle wünschen, die wissenschaftliche Beweislage für den Nutzen durch Big Data gestützte Anwendungen sieht noch so aus wie der Potsdamer Platz kurz nach der Wende. Also eher übersichtlich. Dieses Zukunftsfeld muss dringend beackert werden: mit guter Forschung gemäß den Methoden der evidenzbasierten Medizin.


© Observer Gesundheit


Alle Kommentare ansehen