Warum ist maschinelles Lernen in der medizinischen Forschung im Trend, in unseren Arztpraxen jedoch nicht?
Wissenschaft und Technologie
Maschinelles Lernen (ML) programmiert Computer so, dass sie auf die gleiche Weise lernen wie wir – durch die kontinuierliche Auswertung von Daten und die Identifizierung von Mustern auf der Grundlage vergangener Ergebnisse. ML kann Trends in großen Datensätzen schnell erkennen, ohne oder mit wenig menschlicher Interaktion arbeiten und seine Vorhersagen im Laufe der Zeit verbessern. Aufgrund dieser Fähigkeiten findet es schnell Eingang in die medizinische Forschung.
Menschen mit Brustkrebs könnten durch ML bald schneller diagnostiziert werden als durch eine Biopsie. ML kann gelähmten Menschen auch dabei helfen, mithilfe von Prothesen, die durch in Gehirnscandaten identifizierte Muster gesteuert werden, ihre Autonomie wiederzugewinnen. Die ML-Forschung verspricht diese und viele weitere Möglichkeiten, um Menschen zu einem gesünderen Leben zu verhelfen. Doch während die Zahl der ML-Studien zunimmt, hat sich der tatsächliche Einsatz in Arztpraxen nicht ausgeweitet.
Die Einschränkungen liegen in der geringen Stichprobengröße und den einzigartigen Datensätzen der medizinischen Forschung. Diese kleinen Daten machen es für Maschinen schwierig, sinnvolle Muster zu erkennen. Je mehr Daten vorhanden sind, desto genauer sind ML-Diagnosen und -Vorhersagen. Für viele diagnostische Anwendungen wäre eine große Zahl von Probanden in der Größenordnung von Tausenden erforderlich, in den meisten Studien werden jedoch kleinere Zahlen von Dutzenden Probanden verwendet.
Es gibt jedoch Möglichkeiten, aus kleinen Datensätzen aussagekräftige Ergebnisse zu erzielen, wenn Sie wissen, wie man die Zahlen manipuliert. Die wiederholte Durchführung statistischer Tests mit verschiedenen Teilmengen Ihrer Daten kann auf die Signifikanz eines Datensatzes hinweisen, bei dem es sich in Wirklichkeit möglicherweise nur um zufällige Ausreißer handelt.
Diese Taktik, in ML als P-Hacking oder Feature-Hacking bekannt, führt zur Erstellung von Vorhersagemodellen, die zu begrenzt sind, um in der realen Welt nützlich zu sein. Was auf dem Papier gut aussieht, bedeutet nicht, dass ein Arzt in der Lage ist, uns zu diagnostizieren oder zu behandeln. Diese statistischen Fehler, die oft unwissentlich gemacht werden, können zu gefährlichen Schlussfolgerungen führen.
Um Wissenschaftlern zu helfen, diese Fehler zu vermeiden und ML-Anwendungen voranzutreiben, hat Konrad Kording, Professor an der Penn Integrates Knowledge University mit Berufungen in der Abteilung für Neurowissenschaften der Perelman School of Medicine und in den Abteilungen für Bioingenieurwesen und Computer- und Informationswissenschaft der School of Engineering and Applied Science leitet einen Teilbereich eines großen, vom NIH finanzierten Programms namens CENTER – Creating an Educational Nexus for Training in Experimental Rigor. Kording wird Penns Kohorte anführen, indem er die Community for Rigor gründet, die Open-Access-Ressourcen für die Durchführung fundierter Wissenschaft bereitstellen wird. Mitglieder dieser inklusiven wissenschaftlichen Gemeinschaft können an ML-Simulationen und diskussionsbasierten Kursen teilnehmen.
„Der Grund für das Fehlen von ML in realen Szenarien liegt eher im statistischen Missbrauch als in den Einschränkungen des Tools selbst“, sagt Kording. „Wenn in einer Studie eine Behauptung veröffentlicht wird, die zu schön erscheint, um wahr zu sein, ist sie das in der Regel auch, und oft können wir das auf die Verwendung von Statistiken zurückführen.“
Um sinnvolle Fortschritte im Bereich ML in der biomedizinischen Forschung zu erzielen, ist es notwendig, das Bewusstsein für diese Probleme zu schärfen, den Forschern zu helfen, sie zu erkennen und einzuschränken, und eine stärkere Kultur der wissenschaftlichen Genauigkeit in der Forschungsgemeinschaft zu schaffen.
Kording möchte zum Ausdruck bringen, dass die Einbeziehung maschinellen Lernens in die biomedizinische Forschung Raum für Voreingenommenheit schaffen kann, aber nicht bedeutet, dass Wissenschaftler darauf verzichten sollten. Sie müssen nur verstehen, wie sie es sinnvoll nutzen können.
Ziel der Community for Rigor ist es, die Herausforderungen auf diesem Gebiet mit konkreten Plänen anzugehen, um ein Modul zum maschinellen Lernen in der biomedizinischen Forschung zu erstellen, das die Teilnehmer durch Datensätze und statistische Tests führt und genaue Stellen ermittelt, an denen häufig Voreingenommenheit auftritt.
Diese Geschichte ist von Melissa Pappas. Lesen Sie mehr bei Penn Engineering Today.