Logo
DeutschClear Cookie - decide language by browser settings
Braun, Bernhard (2007): Fehlaktivierungen in der funktionellen Magnetresonanztomographie: Ursachen und mathematische Korrekturstrategien anhand von Simulationen und Meßdaten. Dissertation, LMU München: Faculty of Medicine
[img]
Preview
PDF
Braun_Bernhard.pdf

2571Kb

Abstract

Ein ernstes Problem stellt sich bei der Interpretation von funktionellen Magnetresonanztomographie-Aufnahmen (fMRT), wenn in den SPMs (Statistical Parametric Maps) Über- oder Unteraktivierungen auftreten. Es gibt a priori keine Möglichkeit, um zwischen "realer" neuronaler Aktivität und Über-/Unteraktivierung, die durch Artefakte hervorgerufen wird, zu differenzieren. In vielen Fällen – z.B. wenn die Ventrikel als aktiv klassifiziert werden – kann man davon ausgehen, daß es sich nicht um neuronale Aktivität handelt, sondern um Noise (Störungen) in den Meßdaten, welche durch Artefakte hervorgerufen wurden. Jedoch können auch in allen anderen Fällen bei statistischer Evaluierung, die auf T- oder Z-Statistik beruht, durch Artefakte Anomalien in den T- bzw. Z-Werte-Verteilungen hervorgerufen werden. Wichtige Informationen zur Identifikation und Kompensation von Noise lassen sich also aus der Verteilung der T- oder Z-Werte ableiten. Das Ziel dieser Arbeit war, eine Methode zu entwickeln, die anhand der Charakteristika von T- bzw. Z-Werte-Verteilungen die Identifikation von Artefakten ermöglicht. Weiterhin sollten neue Thresholding-Verfahren erarbeitet werden, welche den von Artefakten hervorgerufenen Noise kompensieren und somit Über- bzw. Unteraktivierung verringern oder eliminieren. In einem ersten Schritt wurden die T-Werte-Verteilungen aus Messungen von gesunden Probanden, die teilweise artefaktbehaftet waren, in Hinblick auf die Charakteristika Verschiebung, Breite und Deformation analysiert. Diese empirischen Daten ergaben, daß Anomalien in der T-Werte-Verteilung kein zu vernachlässigender Ausnahmefall sind. Mit der neu entwickelten Methode zur Identifikation von Artefakten konnten bei 98 % der Messungen anomale Charakteristika der T-Werte-Verteilungen nachgewiesen werden. Eine Analyse der T-Werte-Verteilung ist demzufolge unbedingt erforderlich, um die Qualität der Meßergebnisse und somit die Aussagekraft der Voxelaktivierungen beurteilen zu können. Hierfür stellen die in dieser Arbeit entwickelten Methoden ein effektives Werkzeug dar. Im nächsten Schritt wurden anhand von Simulationsdaten die Ursachen für die Anomalien der T-Werte-Verteilungen untersucht. Es zeigte sich, daß Verschiebungen, Verbreiterungen oder Deformationen der T-Werte-Verteilung durch Korrelationen von Artefakten mit dem Paradigma hervorgerufen wurden. Basierend auf diesen Ergebnissen wurden Adaptive Thresholding-Verfahren entwickelt, die Anomalien in der T-Werte-Verteilung und somit Artefakte kompensieren können. Bei Adaptiven Thresholds wird die verwendete theoretische Wahrscheinlichkeitsdichtefunktion (Probability Density Function, PDF) an die empirische T-Werte-Verteilung angepaßt. Die verschiedenen Adaptiven Thresholds – Shifted, Fitted, Proportional – unterscheiden sich in der Art und Weise, wie die Anpassung der PDF an die empirische T-Werte-Verteilung durchgeführt wird. Diese Verfahren wurden schließlich auf Simulationsdaten und fMRT-Messungen gesunder Probanden angewandt. Dabei konnte gezeigt werden, daß Artefakte nicht zwangsläufig eine Verschlechterung der Ergebnisse bewirken. Es war allerdings erforderlich, ein zu den Artefakten bzw. Anomalien passendes, Adaptives Thresholding-Verfahren anzuwenden. Die in dieser Arbeit entwickelten Shifted Thresholds liefern bei verschobenen T-Werte-Verteilungen wesentlich bessere Ergebnisse als die etablierten Standard Thresholding-Verfahren. Daher wird für zukünftige Untersuchungen die Anwendung von Shifted Thresholds vorgeschlagen.