Computertomographie (CT)

Die Computertomographie (CT) umfasst die 3D-Bildgebung mithilfe von Röntgenstrahlung. Dazu werden aus mehreren Richtungen Röntgenprojektionen aufgenommen und anschließend auf Grundlage der unterschiedlichen Abschwächung über computerbasierte Rekonstruktionsverfahren auf die materielle Zusammensetzung der gescannten Region geschlossen. Durch die Möglichkeit in sehr kurzer Zeit die Datengrundlage für eine klinische Diagnose zu liefern, ist die CT-Technik heutzutage in jeder radiologischen Abteilung trotz der relativ hohen Strahlenexposition unentbehrlich.

Blick auf die Rückseite des Spectral-CT 7500 von Philips.
Blick auf die Rückseite des Spectral-CT 7500 von Philips.
Seitlicher Blick auf Blick auf das Spectral-CT 7500 von Philips.
Seitlicher Blick auf das Spectral-CT 7500 von Philips. Für die Einwilligung, die Bilder auf unserer Webseite nutzen zu dürfen, bedanken wir uns herzlich bei der Philips GmbH.

Die nachfolgenden Kapitel vermitteln das Basiswissen rund um die Computertomographie.

Inhaltsverzeichnis

Aufbau und Funktionsprinzip

Die Basis eines Computertomographen bildet eine rotierenden Gantry, an der eine Röntgenröhre und ein gegenüberliegender Detektor montiert sind. Durch die bogenförmige Anordnung der Detektoren ist der Abstand zwischen Röhre und Detektor überall identisch. Typischerweise beträgt der Fokus-Detektor-Abstand um die 100cm. Der Winkel des Fächerstrahls liegt zwischen 40 – 60°. Während der Ring rotiert und Bilder erzeugt, wird der Patient in Längsrichtung auf einem Tisch durch die Öffnung der Gantry (engl. Bore) geschoben.

Schematische Darstellung des Funktionsprinzips eines Computertomographen der dritten Generation: Die Röntgenröhre und die Detektoren rotieren um den Patienten, während dieser auf dem Tisch langsam durch die Gantry geschoben wird.
Schematische Darstellung des Funktionsprinzips eines Computertomographen der dritten Generation: Die Röntgenröhre und die Detektoren rotieren um den Patienten, während dieser auf dem Tisch langsam durch die Gantry geschoben wird.
Blick unter die Abdeckung eines kommerziellen Computertomographen. Leicht zu erken-nen sind Hauptkomponenten wie die Röhre (oben), der Detektor (unten) und die Span-nungsversorgungen (rechts und links).
Blick unter die Abdeckung eines kommerziellen Computertomographen. Leicht zu erken-nen sind Hauptkomponenten wie die Röhre (oben), der Detektor (unten) und die Span-nungsversorgungen (rechts und links).

Die ermittelten Daten werden mithilfe einer Reihe von Detektoren aufgenommen, sodass im Gegensatz zur konventionellen Projektionsradiographie keine direkte 2D-Aufnahme, sondern Absorptionsprofile erzeugt werden. Moderne Computertomographen besitzen mittlerweile bis zu 320 solcher Detektorzeilen. Die Röntgenstrahlung wird also nicht nur in Richtung der Detektoren (x- und y-Richtung) sondern auch kegelstrahlförmig in Patientenrichtung (z-Richtung) aufgefächert.

Schematische Darstellung der Strahlauffächerung in z- bzw. Patientenrichtung für zwei unterschiedliche Anzahlen an Detektorzeilen.
Schematische Darstellung der Strahlauffächerung in z- bzw. Patientenrichtung für zwei unterschiedliche Anzahlen an Detektorzeilen.

Aus den einzelnen Schnittbildern wird mithilfe von Rekonstruktionsverfahren die dreidimensionale Zusammensetzung des Körpers berechnet.

Je höher die Schwächung und größer die Schichtdicke, desto kleiner ist das Signal, das am gegenüberliegenden Detektor gemessen wird. Das Lambert-Beersche-Gesetz

I(d(z,\theta), \mu(E, x,y,z)) = I_0 \:\cdot\: \exp(-\mu(E, x,y,z)\cdot d(z,\theta))

beschreibt diese Schwächung der Intensität I in Abhängigkeit der Ausgangsintensität I_0 , des material- und energiespezifischen Schwächungskoeffizienten \mu und dem Patientendurchmesser d , der auch von der Strahldivergenz der Röntgenstrahlung \theta abhängt.

Gantry

Die Gantry bezeichnet die Öffnung des CTs bzw. den Ring, an dem die restlichen Komponenten befestigt sind. In den Anfängen der Computertomographie wurden sowohl die Röntgenröhre als auch die Detektoren über Kabel mit Strom versorgt, was eine kontinuierliche Rotation unmöglich machte. Stattdessen musste die Gantry nach jeder 360°-Drehung gebremst und nach der Umkehr der Rotationsrichtung wieder beschleunigt werden. Seit den 80er Jahren verwenden die meisten Computertomographen Schleifringe zur Übertragung von Strom und Daten. Schleifringe bestehen aus einem Leiterring, Kugellager, Rotor, Gehäuse und den Gleitkontakten (sog. Bürsten). Durch diese Technik konnte die Dauer einer Untersuchung enorm gesenkt werden. Zusätzlich ist diese Technik deutlich wartungsärmer. In High-End-Geräten wird heutzutage ein Unterdruck erzeugt, sodass die Gantry luftgelagert ist. Dadurch wird die Präzision erhöht und gleichzeitig der Widerstand reduziert.

Es existieren Gantry-Ringe mit einer Öffnung von bis zu 90 cm. Diese großen „Bores“ werden insbesondere dann benötigt, wenn die gesamte Patientenanatomie erfasst werden muss, ohne dass z.B. die Schultern abgeschnitten werden, weshalb solche Geräte insbesondere in der Radioonkologie eingesetzt werden. Abgesehen davon, eignen sich diese Geräte besonders für klaustrophobische Patienten.

Röntgenröhre

Detaillierte Informationen zum Aufbau, Funktionsprinzip, zu Qualitätskriterien und Strahleigenschaften, zur Filterung sowie zum Spektrum findest du auf unserer entsprechenden Seite zur Röntgenröhre. Dem Inhalt dieser Seite werden in diesem Kapitel nur einige CT-spezifische Ergänzungen hinzugefügt.

Bis in die 90er Jahre wurden die Anoden indirekt gekühlt. Durch die Einführung der Spiral-CT ist die Belastung der Röntgenröhre jedoch stark gestiegen, wodurch diese so sehr erhitzt werden würde, dass eine Kühlpause eingelegt oder die Untersuchung unterbrochen werden müsste. Aus diesem Grund wurde diese Technik durch die der sogenannten STRATON-Röhre (Siemens), bei der nicht nur die Anode, sondern die gesamte Vakuumröhre rotiert, ersetzt. Der größte Unterschied bestand darin, dass diese Anode direkt gekühlt wird und so deutlich mehr Hitze abgeführt werden kann. Höhere Leistungen wurden erzielt und dadurch kleinere Rotationszeiten ermöglicht, die insbesondere für die Herz-Bildgebung notwendig sind.

Typische Röhrenspannungen U in der Computertomographie liegen zwischen 80 und 150 kV. Mit Röhrenströmen I von bis zu 1300 mA, erreichen kommerzielle Röntgenröhren gemäß

P = U \:\cdot\: I

maximale elektrische Leistungen P von bis zu 200 kW, die jedoch nur über eine sehr kurze Dauer abgerufen werden können.

Abbildungen einer geöffneten Philips MRC 600 Röntgenröhre.
Abbildungen einer geöffneten Philips MRC 600 Röntgenröhre. Für die Einwilligung, die Bilder auf unserer Webseite nutzen zu dürfen, bedanken wir uns herzlich bei der Philips GmbH.

Detektor

Der Detektor eines Computertomographen besteht aus einem Streustrahlenraster, einem Szintillationszähler, einer Photodiode oder einem Photomultiplier und einem Analog-Digital-Wandler.

Blick auf an der Gantry montierten Detektor eines Computertomographen.
Blick auf an der Gantry montierten Detektor eines Computertomographen.

Streustrahlenraster

Nur ein sehr geringer Anteil der Strahlung, die in den Körper eintritt, wird durch den Photoneffekt absorbiert oder verlässt den Körper ohne Wechselwirkung. Die meisten Photonen ändern durch Rayleigh- und Comptonstreuung ihre Richtung und verlassen den Körper wieder. Da gestreute Photonen zu Artefakten und Verschlechterung der Bildqualität führen (s.u. Artefakte), besitzen alle kommerziellen Computertomographen Streustrahlenraster.

Das Streustrahlenraster befindet sich vor dem Detektormodul, um Photonen zu absorbieren, die im gescannten Objekt gestreut wurden. Es besteht aus sehr dünnen gitterförmig gleichmäßig angeordneten Lamellen, die in der Regel aus Blei oder anderen Materialien mit einer hohen Ordnungszahl bestehen und zum Fokus der Röntgenröhre ausgerichtet sind. Durch die Strahlauffächerung bei modernen Computertomographen, müssen Raster zweidimensional aufgebaut sein. Sie werden mithilfe des sogenannte Schachtverhältnisses r spezifiziert. Es beschreibt den Quotienten aus der Lamellenhöhe h und dem Abstand zwischen zwei Lamellen d (Schachtbreite).

r = h/d

Die Bezeichnung Pb 10/50, f_0 100 beschreibt z.B. einen Raster bestehend aus Blei mit einem Rasterschachtverhältnis von 10:1, einer Lamellendichte von 50 Stk./cm mit einem optimalen Fokus-Detektor-Abstand von 100 cm.

Durch die Absorption der gestreuten Photonen sorgt das Streustrahlenraster für einen besseren Kontrast, erhöht aufgrund der absoluten Signalverringerung jedoch gleichzeitig die Exposition des Patienten.

Szintillationszähler

Szintillationszähler sind Detektoren, mit denen die Energie und Intensität von Strahlung bestimmt werden können. Für den Aufbau dieser Detektoren kommen nur bestimmte Materialien, sogenannte Szintillationskristalle, in Frage. Diese werden beim Durchgang von Photonen oder geladenen Teilchen angeregt und geben die aufgenommene Energie anschließend in Form von sichtbaren oder UV-Lichtpulsen wieder ab (Szintillation), deren Intensität proportional (bestenfalls linear) zur absorbierten Energie ist. Die Szintillation ist eine Art der Lumineszenz.

Damit ein Szintillationskristall das emittierte Licht nicht sofort wieder absorbiert, muss er für den praktischen Einsatz transparent für die Wellenlänge des jeweiligen Szintillationslichts sein. Außerdem sollte der Brechungsindex des Szintillators mit dem Material, in das das Licht weitergeleitet wird, einigermaßen übereinstimmen, sodass durch mögliche Reflexionen möglichst geringe Strahlungsverluste entstehen. Sowohl bei Photodioden (Epoxitharz) als auch bei Photomultipliern (Glas) liegt der Brechungsindex bei ca. 1,5. Ein weiteres relevantes Kriterium bei der Wahl des Materials, ist die Abklingzeit. Diese sollte möglichst kurz sein, damit das Signal schnell weitergeleitet werden kann und der Detektor bereit für das nächste einfallende Teilchen ist. Auch das exponentiell abfallende Nachleuchten eines Szintillators sollte verhältnismäßig klein ausfallen. Starkes Nachleuchten würde zu einem Signal in der nachfolgenden Aufnahme führen. Es wird in der Regel prozentual mit einer Zeitangabe angegeben (z.B. 2%, 10 ms nach Strahleintritt).

Die Lichtausbeute pro einfallendem Photon sollte möglichst hoch sein. Angegeben wird dieser Wert häufig in Szintillationsphotonen pro einfallendes 1 MeV-Photon. Für den sogenannten GOS-Szintillator (s.u.) liegt das theoretische Limit bei ca. 90.000 Teilchen pro MeV.

Gleichzeitig muss das Material gut gegen äußeren Lichteinfall und bei Materialien mit stark ausgeprägter Hygroskopie (Fähigkeit Feuchtigkeit, z.B. aus der Luft zu binden) gegen Feuchtigkeit geschützt sein.

Die bislang geeignetsten Szintillatoren für die Computertomographie sind anorganische Monokristalle und polykristalline Keramiken. Die meist genutzten Materialien sind nachfolgend mit ihren Eigenschaften aufgelistet. Die Angaben zur Lichtausbeute (light yield/output), zum Maximum des Emissionsspektrums (maximum peak), zur Abklingzeit (decay time), zum relativen Nachleuchten (afterglow), Brechungsindex (refractive index) und zur Dichte (density) stammen aus verschiedenen Quellen, die unten in der weiterführenden Literatur nachgesehen werden können.

Gadoliniumoxysulfid dotiert mit Praseodym oder Cerium (Keramikmischung).

  • Lichtausbeute Ph/MeV: 35000 – 50000
  • Maximum des Emissionsspektrums: 512 nm
  • Abklingzeit: 2-3µs
  • Relatives Nachleuchten: 0,004% nach 40 ms
  • Brechungsindex: 2,2
  • Dichte: 7,3 g/cm³

Nanopulver, das durch das sogenannte Co-Präzipitationsverfahren synthetisiert wird (Keramikmischung).

  • Lichtausbeute Ph/MeV: 42000
  • Maximum des Emissionsspektrums: 611 nm
  • Abklingzeit: 2µs
  • Relatives Nachleuchten: 4,9% nach 3 ms
  • Brechungsindex
  • Dichte: 5,9 g/cm³

Granatmischung (Mineral).

  • Lichtausbeute Ph/MeV: 44000 – 45000
  • Maximum des Emissionsspektrums: 585 nm
  • Abklingzeit: 0,03 µs
  • Relatives Nachleuchten: 0,001% nach 40ms
  • Brechungsindex: N/A
  • Dichte: N/A
  • Lichtausbeute Ph/MeV: 27000
  • Maximum des Emissionsspektrums: 475-480 nm
  • Abklingzeit: 14,5µs
  • Relatives Nachleuchten: <0,1 % (nach 3ms)
  • Brechungsindex: 2,2 – 2,3
  • Dichte: 7,9-8,0 g/cm³
  • Lichtausbeute Ph/MeV: 60000
  • Maximum des Emissionsspektrums: 550 nm
  • Abklingzeit: 0,8 µs
  • Relatives Nachleuchten: 1,5-2,0 % (nach 3 ms)
  • Brechungsindex: 1,79
  • Dichte: 4,51-4,53 g/cm³
  • NaI:Ti
  • CsI:Na
  • ZnWO4
  • Bi4Ge3O12 Bismuthgerminat (BGO)
  • ZnSe:Te
  • Tellur-dotiertes Zinkselenid als Low-Z Szintillator für niederenergetische Photonen
  • Die einzelnen quadratisch geformten Szintillatoren werden auf dem Detektorarray räumlich durch Reflektoren (z.B. Titandioxid, Aluminiumfolien) voneinander getrennt. Diese sorgen einerseits für Stabilität und andererseits dafür, dass gestreutes Licht zurück in die jeweiligen Segmente zurückreflektiert wird bzw. eine Interaktion zwischen den einzelnen Detektoren („cross-talk“) verhindert wird.

    Schematische Darstellung des Aufbaus eines Detektors moderner Computertomographen, bestehend aus einem Streustrahlenraster, einem Szintillator und Reflektoren und einem Array aus Photodioden.
    Schematische Darstellung des Aufbaus eines Detektors moderner Computertomographen, bestehend aus einem Streustrahlenraster, einem Szintillator und Reflektoren und einem Array aus Photodioden.

    Vor dem Einsatz der modernen Szintillationskeramiken und -kristalle wurden überwiegend Xenon-Detektoren verwendet. Einfach gesagt handelt es sich dabei um gasgefüllte Plattenkondensatoren. Beim Eintreffen eines Photons wird ein Xenon-Atom ionisiert und die Paare aus Elektronen und Ionen zu der jeweiligen entgegengesetzt geladenen Elektrode gezogen. Da jedoch nicht jedes einfallende Photon zu einer Ionisation führt, sind diese Detektoren nicht sehr effizient. Um dieses Problem zu beheben, wurden die Xenon-Detektoren sehr lang gebaut und der Druck in den Kammern erhöht. Allerdings besitzen diese Detektoren zusätzlich eine hohe Nachglühzeit bzw. Totzeit, in der keine weiteren Photonen detektiert werden können. Da so nicht alle Daten erfasst werden konnten, war die Bildqualität entsprechend schlechter. Um dies zu kompensieren hätte der Röhrenstrom erhöht oder der Pitch verringert werden müssen. Das Schließen dieser Datenlücke ging folglich mit einer erhöhten Patientenexposition einher.

    Schematische Darstellung des Aufbaus eines Detektors älterer Computertomographen, bestehend aus einem Streustrahlenraster, einer Xenon-Hochdruck-Ionisationskammer und Isolierung. Diese Kammern waren ca. 10x länger/höher als die modernen Detektoren. Aus Darstellungsgründen wird die Abbildung hier bewusst nicht in die Länge gezogen, sondern stattdessen mit einer Längenangabe (links im Bild) versehen.
    Schematische Darstellung des Aufbaus eines Detektors älterer Computertomographen, bestehend aus einem Streustrahlenraster, einer Xenon-Hochdruck-Ionisationskammer und Isolierung. Diese Kammern waren ca. 10x länger/höher als die modernen Detektoren. Aus Darstellungsgründen wird die Abbildung hier bewusst nicht in die Länge gezogen, sondern stattdessen mit einer Längenangabe (links im Bild) versehen.

    Photodioden und Photomultiplier

    Zur Umwandlung der Lumineszenz in einen elektrischen Strom werden Photodioden-Arrays (PDAs) und anwenderspezifische integrierte Schaltungen (ASICs) verwendet, die sich hinter den Szintillatoren befinden. Eine Photodiode ist eine Halbleiterdiode, die durch das Zusammenfügen eines p-leitendem (auch p-dotiert, Leitfähigkeit durch positive Löcher) und eines n-leitendem (auch n-dotiert, Leitfähigkeit durch zusätzliche Elektronen) Materials entsteht. In dem p-n-Übergang (auch Grenz- oder Sperrschicht) wandern die jeweils freien Ladungsträger auf die gegenüberliegende Seite und rekombinieren dort bis sich ein Gleichgewicht eingestellt hat. Dies hat die Bildung einer ladungsfreien Zone (auch „Verarmungszone“) zur Folge, in der sich ein elektrisches Feld ausbildet, das die Diffusion weitere Ladungsträger verhindert. Die zu diesem Zeitpunkt herrschende Potenzialdifferenz wird Diffusionsspannung bezeichnet. Die ladungsfreie Grenzschicht wird vergrößert, indem die Photodiode in Sperrichtung betrieben wird. D.h. der Minuspol wird an die p-dotierte Seite und der Pluspol an die n-dotierte Seite angelegt. Die Löcher der p-Schicht werden zum Minuspol und die Elektronen der n-Schicht zum Pluspol gezogen. Treten Photonen in die Diode, erzeugen diese durch Ionisationen Elektronen-Loch-Paare, die zu den angelegten Polen gezogen werden und so zu einem messbaren Strom führen.

    Relevante Eigenschaften der in der Computertomographie verwendeten Photodioden-Arrays sind u.a. die Empfindlichkeit, der relative Anteil des Cross-Talks zwischen den einzelnen Dioden, die Höhe des Nebenwiderstandes und die Antwortzeit. Die Empfindlichkeit einer Photodiode bezeichnet das Verhältnis aus dem elektrischen Ausgangssignal und dem optischen Eingangssignal. Der Nebenwiderstand (Shunt) sorgt für geringe Ableitströme sowie Unterdrückung des Rauschpegels und liegt in der Regel bei ca. 10 \text{G}\Omega.

    Früher wurden zum Auswerten der Lichtimpulse Photomultiplier verwendet, die jedoch aus Platz- und Kostengründen mittlerweile ersetzt wurden. Treffen dort die schwachen Lichtblitze aus dem Szintillatormaterial auf die Kathode des Photomultipliers, werden durch den photoelektrischen Effekt Elektronen aus dem Metall ausgelöst (Erklärungen zum Funktionsprinzip des Photoeffekts findest du auf unserer Seite zu den Wechselwirkungen von Photonen mit Materie). Die herausgelösten Elektronen werden im elektrischen Feld auf die gegenüberliegende Elektrode (Dynode) beschleunigt und schlagen dort mehrere Elektronen aus dem Material. Von dort aus werden sie weiter auf die nächste Dynode beschleunigt, die auf einem höheren Potential (relativ zur vorherigen Dynode) liegt. Dieser Vorgang kann beliebig oft wiederholt werden.  Die Zunahme der Anzahl der Elektronen erfolgt exponentiell. Mit typischen Photomultipliern, bestehend aus 10 Dynoden und einer Ausbeute von 5 Elektronen pro einfallendes Elektron, kann z.B. eine Verstärkung von 5^{10} bzw. 10^7 erzielt werden. Mit der Anzahl der Dynoden und der angelegten Spannung steigt die Verstärkung des Photomultipliers. Von der letzten Dynode treffen die Elektronen auf eine Anode und es kommt zu einer Potenzialänderung, die das Ausgangssignal des Vervielfachers ist.

    Analog-Digital-Wandler

    Wie der Name bereits verrät, ist ein Wandler (auch Umsetzer) ein elektronisches Bauelement, dass das analoge Signale (hier die Spannung der Photodiode oder des Photomultipliers) in ein digital verwertbare Werte umwandelt. Das analoge kontinuierliche Signal muss folglich regelmäßig abgetastet und wertdiskret gespeichert werden (Quantisierung). Daraus ergeben sich die zwei wichtigsten Eigenschaften des Analog-Digital-Wandlers: Die Abtastfrequenz und die Bittiefe, bzw. die Auflösung, mit der das Analogsignal erfasst werden kann.

    Hounsfield-Skala

    Je höher die Schwächung und je größer der Schichtdurchmesser, desto kleiner ist das Signal, das am gegenüberliegenden Detektor gemessen wird. Das Lambert-Beersche-Gesetz

    I(d(z,\theta), \mu(x,y,z)) = I_0 \:\cdot\: \exp(-\mu(x,y,z)\cdot d(z,\theta))

    beschreibt diese Schwächung der Intensität I in Abhängigkeit von der Ausgangsintensität I_0 , des linearen Schwächungskoeffizienten \mu und dem Patientendurchmesser d , der auch von der Strahldivergenz der Röntgenstrahlung \theta abhängt.

    Während der Rotation von Röntgenröhre und Detektor sowie des simultanen Vorschubs des Patiententisches werden eine große Menge von Daten aufgenommen, mit denen unter Verwendung der Rekonstruktionen auf die dreidimensionale Verteilung des Schwächungskoeffizienten \mu geschlossen werden soll. Zur Darstellung der räumlichen Verteilung des Schwächungskoeffizienten hat Godfrey Hounsfield, der entscheidend bei der Entwicklung der ersten Computertomographen mitgewirkt hat, die sogenannte Hounsfield-Skala etabliert. Da der der lineare Schwächungskoeffizient energieabhängig ist, ließen sich CT-Datensätze, die mit unterschiedlichen Energien erstellen wurden nicht vergleichen. Durch die Normierung wird dies (größtenteils) verhindert. Die HU-Wert bzw. CT-Zahl eines Materials ist wie folgt definiert:

    [\text{CT-Zahl}] (\mu_\text{Gewebe}) \coloneqq 1000 \: \text{HU} \: \cdot \: \frac{\mu_\text{Gewebe} – \mu_\text{Wasser}}{\mu_\text{Wasser}}

    Luft hat per Definition eine CT-Zahl von -1000 HU und Wasser von 0 HU.

    Die Darstellung der Schnittbilder erfolgt in sogenannten Binärbildern. Das sind digitale Grafiken, deren Pixel ausschließlich aus schwarz und weiß bzw. Graustufen bestehen. Die einfachste Form bestünde aus einem Raster von Nullen (schwarz) und Einsen (weiß), die dann ein schwarz-weißes Bild erzeugen würden. Dieses Bild könnte z.B. auch in einer Textdatei gespeichert werden. Für Graustufen werden weitere Zwischenstufen benötigt, z.B. eine Skala von 0 (schwarz) bis 255 (weiß). Je niedriger bzw. je höher die Zahl, desto dunkler bzw. heller der jeweilige Pixel. Bedingt durch die Varianz der Absorptionskoeffizienten, hat sich in der Computertomographie eine Binärbild mit 2^{12} bzw. 4096 Graustufen und einer Hounsfield-Skala von -1024 bis 3017 HU durchgesetzt.

    Darstellung der Hounsfield-Skala mit typischen CT-Werte unterschiedlicher Gewebetypen im menschlichen Körper sowie den definierten Werten von Luft (-1000 HU) und Wasser (0 HU).
    Darstellung der Hounsfield-Skala mit typischen CT-Werte unterschiedlicher Gewebetypen im menschlichen Körper sowie den definierten Werten von Luft (-1000 HU) und Wasser (0 HU).

    Da das menschliche Auge jedoch weniger als 100 Grauwerte unterscheiden kann, werden CT-Bilder auf den für die jeweilige Anwendung relevanten Bereich gefenstert. Definiert wird die Fensterung durch das Fensterzentrum und –breite. Bei einem Knochenfenster kann das Zentrum z.B. bei 1200 HU liegen und eine Fensterbreite von 1600 gewählt werden. Damit würde ein Bereich von 400 HU bis 2000 HU abgedeckt werden. Gewebe mit einer CT-Zahl, die kleiner als 400 HU ist, würden dann vollständig schwarz abgebildet werden und Gewebe mit CT-Zahlen über 2000 HU vollständig weiß. Ein Hirnfenster könnte z.B. ein Zentrum von 50 HU und eine sehr schmale Fensterbreite von 20 HU haben, sodass bereits kleine Anomalien in einem Gewebe, dessen Absorptionskoeffizient wenig schwankt, sichtbar gemachen werden können.

    Darstellung eines Transversalschnitts durch den Schädel mit zwei unterschiedlichen Fens-terungen. Links: Hirnfenster mit einem Fensterzentrum bei 35 HU und einer Fensterbreite von 70 HU. Rechts: Knochenfenster mit einem Fensterzentrum bei 800 HU und einer Breite von 2000 HU.
    Darstellung eines Transversalschnitts durch den Schädel mit zwei unterschiedlichen Fens-terungen. Links: Hirnfenster mit einem Fensterzentrum bei 35 HU und einer Fensterbreite von 70 HU. Rechts: Knochenfenster mit einem Fensterzentrum bei 800 HU und einer Breite von 2000 HU.

    Typen

    Mittlerweile ein halbes Jahrhundert liegt die Entwicklung des ersten kommerziellen Computertomographen zurück. Der heutzutage durch die Hounsfield-Skala bekannte Elektrotechniker Godfrey Hounsfield forschte mehrere Jahre an Prototypen, bis 1972 der erste Computertomograph namens EMI Mark 1 auf den Markt kam, der ausschließlich für das Scannen von Schädeln geeignet war. Die EMI Group ist seit 2011 ein Teil des größten Major-Labes Universals Music und war in den 70er Jahren bedingt durch den Verkauf von Beatles-Platten in der Lage die Entwicklung und Forschung von Hounsfield zu finanzieren. In diesem Kapitel werden die CT-Generationen sowie essentielle Weiterentwicklungen der CT-Technik vorgestellt.

    Generationen

    Bis heute hat sich die Technik der Computertomographie enorm weiterentwickelt. Je nach Prinzip der Datenerfassung und Form des Strahls werden die unterschiedlichen CT-Typen in Generationen unterteilt.

    Schematische Darstellung der Funktionsprinzipien der ersten vier Computertomographie-Generationen.
    Schematische Darstellung der Funktionsprinzipien der ersten vier Computertomographie-Generationen.

    1. Generation – Translation-Rotation + Pencil Beam

    Bei Computertomographen der ersten Generation wurde die Röntgenstrahlung zu einem Nadelstrahl auf einen gegenüberliegenden Detektor kollimiert. Röhre und Detektor waren fix miteinander verbunden und wurden zur Abtastung transversal sowohl in der x-y-Ebene als auch in z-Richtung verschoben. In einer Ebene wurde das System pro 160 aufgenommene Messwerte um 1° gedreht bis 360° aufgenommen wurden und anschließend in longitudinaler Richtung zur nächsten Projektionsebene geschoben. Der EMI Mark 1 funktionierte ebenfalls nach diesem Prinzip. Laut der damaligen Verkaufsbroschüre lag die Scandauer zwischen 4,5 – 20 Minuten. Die Rechenzeit pro Schicht betrug 7 Minuten, die Schichtdicke betrug 0,8 – 1,3 Zentimeter und die Bildmatrix bestand aus 80 x 80 = 6400 Pixeln. Die Röntgenröhre konnte Spannungen zwischen 100 – 140 kV und Ströme von 27 – 42 mA erzeugen. Der verwendete Detektor war ein NaI-Szintillator mit Photomultipliern.

    Nur ein Jahr später (1973) wurde der erste Körperscanner ATCA (Automated Computerized Transverse Axial) entwickelt und kommerziell von Pfizer vertrieben. Das Funktionsprinzip war dasselbe wie beim EMI Mark 1.

    2. Generation – Translation-Rotation + Fan-Beam

    Der Pencil-Beam der 1. CT-Generation wurde durch einen Fächerstrahl ersetzt, sodass mehrere Projektionswinkel simultan von einer gegenüberliegenden Detektorbank aufgenommen werden konnten. Nichtsdestotrotz waren auch die meisten CTs der zweiten Generation noch reine Schädel-Scanner. Der Body-Scanner EMI 5005 konnte z.B. Bildmatrizen von 320 x 320 in 20 Sekunden Scandauer pro Schicht erzeugen. Die Schichtdicke betrug weiterhin 1,3 Zentimeter.

    3. Generation – Rotation-Rotation + Fan-/Cone-Beam

    1975 wurde in der dritten CT-Generation das geradlinige Detektorarray durch einen kreissegmentförmigen Detektorkranz (30 – 60°) ersetzt. Zudem drehten Röhre und Detektor starr gleichzeitig kontinuierlich um den Patienten, wodurch die Notwendig der zeitaufwändigen Translation entfiel. Problematisch war jedoch die damalige Stromversorgung über Kabel, sodass die Gantry nach jeder 360°-Drehung gebremst und wieder in die entgegengesetzte Richtung rotiert werden musste, um dort erneut abgebremst zu werden und so weiter. Die Anzahl der verwendeten Detektoren stieg rasant auf 250 – 1200 Stück.

    Das Modell Searle Pho/Trax Head Scanner (Pfizer) von 1976 besaß ein 40°-Xenon-Hochdruckkammer-Detektorarray und erreichte damit Scanzeiten von 5 Sekunden pro Schicht mit einer Schichtdicke von 3 – 12 Millimetern. Die Rekonstruktion einer 256 x 256 Matrix dauerte nur noch 40 Sekunden.

    4. Generation – Rotation-Fix + Fan-/Cone-Beam

    Computertomographen der vierten Generation besitzen einen vollständigen 360°-Detektorring, in dem sich die Röntgenröhre dreht. Dadurch konnte das rotierende Gewicht deutlich reduziert werden und die Scanzeiten weiter auf bis zu einer Sekunde reduziert werden. Da für diese Technik allerdings 1200 – 5000 Detektoren notwendig waren, haben sie sich in der klinischen Routine nicht etabliert. Auf die Spitze getrieben wurde dieses Prinzip im Jahr 1980 bei dem einmalig installiertem sogenannten Dynamic Spatial Reconstructor (DSR, auch „Mayo-Monster“) in dem gleichzeitig zum vollständigen Detektorring noch 14 Röntgenröhren verbaut wurden. Die Gantry hatte einen Durchmesser von ca. 4,6 Metern und eine Länge von 6,3 Metern. Das System war in der Lage 240 hintereinanderliegende 0,9 mm-Schichten in 17 Millisekunden aufzunehmen. Obwohl dieses CT nicht für kommerzielle Zwecke geeignet war, konnten mithilfe der geringen Scanzeit wertvolle Daten für die Kardio-CT-Technik gesammelt werden.

    5. Generation – Elektronenstrahlscanner

    Im Jahr 1983 wurden sogenannte Elektronenstrahlscanner entwickelt, die insbesondere für die Bildgebung des Herzens genutzt wurden. Der Detektorring aus der 4. Generation wurde beibehalten. Anstelle einer rotierenden Röntgenröhre wurde ein Wolframring (Target) in die Gantry eingesetzt und das Prinzip der Braunschen Kathodenstrahlröhre genutzt. Ein erzeugter Elektronenstrahl wird dabei elektromagnetisch den Wolframring entlanggeführt und erzeugt beim Auftreffen die Röntgenstrahlung. Da die Bewegung mechanischer Teile durch diese Methode obsolet wurde, konnte die Scangeschwindigkeit so stark erhöht werden, dass sie mit modernen CTs konkurrieren könnten. Die Nachteile der hohen Kosten des Detektorrings, sorgten wie auch bei Scannern der 4. Generation dafür, dass bis heute alle kommerziellen Computertomographen nach dem Prinzip der dritten Generation arbeiten.

    Während dieses Verfahren nicht mehr in der Medizin verwendete wird, entwickelte das Helmholtz-Zentrum Dresden-Rossendorf den ROFEX (Rossendorf Fast Electron beam X-ray tomography), genau nach diesem Prinzip. Das System wird zur Strömungsanalyse in Kernkraftwerken genutzt. Es rekonstruiert bis zu 8000 1mm-dicke Schnittbilder pro Sekunde. Eine schöne visuelle Darstellung der ROFEX ist auf dem Youtube-Kanel des HZDR zu finden.

    Schleifringe – Kabellose CT

    Seit den 80er Jahren verwenden die meisten Computertomographen Schleifringe zur Übertragung von Strom und Daten. Schleifringe bestehen aus einem Leiterring, Kugellager, Rotor, Gehäuse und den Gleitkontakten (sog. Bürsten). Durch diese Technik konnte das ständige Wiederholen von Abbremsen, Umkehren und Wiederbeschleunigen ersetzt werden, was deutlich kürzere Scanzeiten ermöglichte. Zusätzlich ist diese Technik wartungsärmer.

    Spiral-/Helix-CT

    Das Spiral-CT ersetzte 1989 die Stop-and-Go-Technik, bei der nach jeder 360°-Drehung ein Richtungswechsel der Gantry und gleichzeitig ein Tischvorschub stattfindet. Das erste Gerät, das Siemens Somatom Plus, erlaubte eine kontinuierliche Rotation und einen simultanen konstant fortlaufenden Tischvorschub, sodass die Kurve der Röntgenröhre eine Spirale um den Patienten formt. Mittlerweile ist diese Technik seit Jahrzehnten bei allen Herstellern Standard. Durch die Geschwindigkeit können Behandlungszeiten verkürzt und Bewegungsartefakte reduziert werden. Charakterisiert wird diese Technik mithilfe des sogenannten Pitch-Faktors (s. unten Bildqualität vs. Dosis).

    Dadurch, dass keine definierten Schichten akquiriert werden, wird eine isotrope Abtastung ermöglicht. Isotrope Pixel haben in alle Raumrichtungen eine identische räumliche Auflösung, sodass CT-Scans nicht nur transversal, sondern ohne Auflösungsverluste auch oblique betrachtet werden können.

    Multi-Slice-CT

    Das erste Mehrschicht-CT wurde 1993 von der israelischen Technologie-Firma Elscint unter dem Namen Elscint CT TWIN vertrieben (genau genommen war auch das allererste CT EMI Mark 1 ein Mehrzeiler, da es bereits zwei Detektoren besaß). Zur Jahrhundertwende verkaufte Elscint ihre Bildgebenden Sparten größtenteils an Philips und GE. Das damalige CT konnte zwei Schichten gleichzeitig aufnehmen. Die größeren Hersteller folgten diesem Trend und veröffentlichten 5 Jahre später ebenfalls Mehrschicht-CT, die vier Schichten simultan aufnehmen konnten. Die axiale Auflösung wurde verbessert und die Scan-Zeit konnte durch erhöhte Rotationsgeschwindigkeiten (ca. 0,5 Sekunden pro 360°) verkürzt werden, das insbesondere für das Scannen von Trauma- oder unkooperativen Patienten nützlich war. Auch die Kardio-CT und die CT-Angiographie profitierte enorm von dieser Weiterentwicklung.

    Durch die Aufnahme geringerer Schichtdicken, konnten außerdem sowohl dünne als auch dicke Schichten rekonstruiert werden und dadurch das Rauschverhalten künstlich beeinflusst werden.

    Der bislang größte Mehrzeiler wurde 2006 im Toshiba Aquillion ONE verbaut (Stand 2020). Er besitzt 320 Detektoren mit einer Breite von je 0,5 mm, woraus ein Scanbereich von 16 Zentimetern resultiert. Das Herz, aber auch das Hirn können bei diesem CT mit einer einzigen Rotation ohne Spiralscan erfasst werden.

    Dual-Energy-CT

    In der Computertomographie wird die Verteilung des linearen Schwächungskoeffizienten (auch Absorptionskoeffizient) dreidimensional dargestellt. Die Dual-Energy-CT-Technik (DECT-Technik) macht sich die Energieabhängigkeit dieses Koeffizienten zu Nutze, indem es die Informationen der nieder- und hochenergetischen Photonen voneinander auftrennt. Es wird also eine zweite 3D-Verteilung mit einem anderen Röntgenspektrum erzeugt.

    Funktionsprinzip und Konzept

    Die Wahrscheinlichkeiten der relevanten Wechselwirkungen – hier Photoeffekt und Compton-Effekt – verhalten sich je nach Material bei zwei Röntgenspektren unterschiedlich, wodurch sich bestimmte Materialien im CT besser trennen lassen.

    Obwohl zum Beispiel die Ordnungszahl von atherosklerotischen kalkhaltigen Plaques und kontrasthaltigem Blut unterschiedlich ist, lassen sie sich in der Computertomographie häufig nicht sehr gut voneinander unterscheiden. Allerdings ist der Unterschied der Massenschwächungskoeffizient \mu/\rho von Iod und Knochen bzw. verkalkten Gefäßen bei niederenergetischen Photonen (z.B. 80 kV) deutlich größer als bei höherenergetischer Röntgenstrahlung (z.B. 140 kV). Der Koeffizient von Knochengewebe (Cortical Bone nach ICRU 44) ändert sich im Vergleich zu Iod kaum.

    Darstellung der Veränderung des Massenschwächungskoeffizienten <span class="wp-katex-eq" data-display="false"> \mu/\rho </span> von Iod (Z=53) und kortikalem Knochen (ICRU 44) bei Erhöhung der Photonen-energie von 80 kV auf 140 kV. Der Plot wurde mithilfe der Daten von NIST (National Insti-tute of Standards and Technology) erzeugt.
    Darstellung der Veränderung des Massenschwächungskoeffizienten von Iod (Z=53) und kortikalem Knochen (ICRU 44) bei Erhöhung der Photonen-energie von 80 kV auf 140 kV. Der Plot wurde mithilfe der Daten von NIST (National Institute of Standards and Technology) erzeugt.

    Mithilfe der DECT-Technik können Knochen bzw. verkalkte Gefäße und iodhaltiges Kontrastmittel (Blut) somit voneinander differenziert werden und u.a. farbkodierte Iod-Verteilungen („iodine maps“) berechnet werden. Ein weiteres Anwendungsbeispiel ist Untersuchung bei Verdacht auf Urolithiasis, bei der die spektrale Aufteilung eine bessere Unterscheidung von kalk- und harnsäurehaltigen Nierensteinen ermöglicht.

    Mithilfe spezieller Rekonstruktionsalgorithmen kann die Iodverteilung aus dem CT-Datesatz herausgerechnet werden und somit ein virtuelles Nativbild erzeugt werden.

    DECT-Typen

    Es existieren vier verschiedene Ansätze zur Realisierung der DECT-Technik, von denen zwei „echte“ Dual-Energy-Systeme sind und eines spezielle Detektoren zum Umsetzung verwendet.

    Schematische Darstellung der Funktionsprinzipien der unterschiedlichen DECT-Typen.
    Schematische Darstellung der Funktionsprinzipien der unterschiedlichen DECT-Typen.
    1. Sequenzielle Scans
      Die einfachste Möglichkeit ein Dual-Energy-Scan zu erzeugen, ist die Durchführung eines sequenziellen Scans. Ein offensichtliches Problem dieser Methode ist die schlechte Zeitauflösung.
    1. Dual-Source (z.B. Siemens)
      Das Dual-Source-CT besitzt zwei um 90° relativ zueinander versetzte Röntgenröhren, die mit unterschiedlichen Röhrenspannungen arbeiten können (aber nicht müssen). Da eine Umdrehung von 180° mit zwei Röhren einem 360°-Scan mit einer Röhre entspricht, ermöglicht diese Variante verkürzte Aufnahmezeiten. Allerdings ist das Field of View der zweiten Röhre sehr eingeschränkt und Streuungen in den falschen Detektor können das Bild beeinflussen.
    1. kV-Switching (z.B. GE)
      Beim kV-Switching CT springt die Spannung der Röntenröhre sehr schnell (~ 1kHz) zwischen zwei Röhrenspannungen hin- und her. Hier kann zwar wieder ein übliches Field-of-View (FOV) genutzt werden, allerdings treten bei den Spannungsübergängen Einschwingvorgänge auf, d.h. die Spannungen sind nicht scharf voneinander getrennt, woraus ein höheres Rauschen resultiert.
    1. Sandwich-Detektor (z.B. Philips)
      Die letzte Variante ist ein Single-Energy-CT, weshalb diese einleitend von den „echten“ DECT-System getrennt wurde. Diese besitzt zwei Detektorschichten, von denen die innere alle Photonen detektiert und die äußere (größtenteils) die höherenergetischen Photonen. Solche Detektoen können z.B. einen inneren 1mm Yttrium- oder ZnSe-Szintillator für niederenergetische Photonen und einen äßeren 2mm GOS-Szintillator für hochenergetische Photonen besitzen. Der offensichtliche Nachteil dieser Konstruktion ist, dass das Spektrum, das auf den zweiten Detektor trifft durch die Streuung mit dem oberen Detektor verformt ist.

    Spektral-CT – Photonenzählende Detektoren

    Ein Problem der DECT-Technik ist die Überlagerung der kontinuierlichen 80 kV- und 140 kV-Röntgenspektren. Mithilfe von Filtern zur Aufhärtung des 140 kV-Spektrums kann die spektrale Trennung zwar optimiert, aber nicht gänzlich behoben werden

    Die optimale Lösung für ein Dual-Energy-CT wären folglich photonenzählende Detektoren (Spektral-CT). Während bei aktuellen Detektoren das Photon zunächst in Licht (Szintillation) umgewandelt wird, würden die neuen sogenannten Photon-Counting-Detektoren das Photon direkt in ein elektrisches Signal umwandeln (direkte Konversion). Durch die hohe Signaldauer (µs) bei Szintillationsdetektoren, überlagern sich aufeinanderfolgende Signale. Werden stattdessen sehr schnell (ns) auslesbare Halbleiterdetektoren oder Dioden (z.B. Cadmiumtellurid, Cadmiumzinktellurid, Galliumarsenid) verwendet, können einzelne Photonen gezählt und mithilfe eines Diskrimanotors bin-weise in ein Histogramm sortiert werden. Diese Technik ermöglicht eine saubere spektrale Trennung und damit eine bestmögliche nachträgliche Materialdifferenzierung.

    Durch das Umgehen der indirekten Konversion entfällt auch das Elektronikrauschen im Detektor, sodass bessere Signal-Rausch-Verhältnisse erreicht werden bzw. die gleichen Verhältnisse bei weniger Dosis.

    Aktuell ist noch kein CT mit photonenzählenden Detektoren kommerziell verfügbar, da insbesondere die für CT notwendige Photonenintensität zu hoch für die Detektoren ist (Stand 2020).

    Rekonstruktionsverfahren

    Mithilfe der Rekonstruktionsverfahren wird aus den aufgenommenen Intensitätsverteilungen auf die Verteilung des Absorptionskoeffizienten des gescannten Körpers geschlossen. Aus einer Vielzahl von 2D-Schwächungsprofilen soll eine dreidimensionale Verteilung berechnet werden. Dazu wird der Körper zunächst in Schichten, die jeweils aus endlich vielen, diskreten Volumenelementen (Voxel) bestehen, unterteilt. Werden diese graphisch dargestellt, werden die entsprechenden einzelnen Bildelemente als Pixel bezeichnet.

    Analytische Rekonstruktion

    Die analytische Rekonstruktion ist der „einfachste“ Weg auf die Verteilung eines gescannten Objektes zu schließen. Dazu muss das Lambert-Beersche Gesetz (Erklärung s.o.)

    I(d(z,\theta), \mu(E, x,y,z)) = I_0 \:\cdot\: \exp(-\mu(E, x,y,z)\cdot d(z,\theta))

    nach \mu(E,x,y,z) umgestellt werden. Um das Problem zu veranschaulichen, vernachlässigen wir in einem kleinen Beispiel die Energieabhängigkeit und betrachten das Problem für eine 3×3-Quadrat, das ausschließlich von nadelstrahlförmigen geradlinigen Strahlen durchleuchtet wird. Die Formel vereinfacht sich mit der Ausgangsintensität N zu

    I = I_0 \:\cdot \: \exp (-\sum\mu_i \cdot d_i )

    Mit bekannter Anfangsintensität I_0 und Würfelkantenlänge d sowie der gemessenen Ausgangsintensität I_j kann für jede j-te Projektion die Gleichung zu

    \sum_i \mu_i \cdot d_i = \ln(I_0 / N_j) = \vec{I_j}

    umgestellt und gelöst werden. Da in diesem Fall die Verteilung einer 3×3-Schicht bestimmt werden soll, müssen mindestens neun Projektionen aufgenommen werden, um ein lösbares Gleichungssystem zu generieren. Um die Genauigkeit der Messung zu erhöhen, werden in diesem Beispiel 12 Projektionen gemäß der folgenden Abbildung aufgenommen.

    Darstellung der würfelförmigen 3x3-Verteilung mit neun verschiedenen Absorptionskoeffizienten sowie den 12 unterschiedlichen Projektionsrichtungen bzw. Ausgangsintensitäten.
    Darstellung der würfelförmigen 3x3-Verteilung mit neun verschiedenen Absorptionskoeffizienten sowie den 12 unterschiedlichen Projektionsrichtungen bzw. Ausgangsintensitäten.

    Nach der obigen Gleichung gilt in Matrixschreibweise

    A \cdot \vec{\mu}= \vec{I}

    Unter Berücksichtigung des Bestrahlungsplan aus der obigen Abbildung ergibt sich damit das nachstehende Gleichungssystem.

    Darstellung des zu lösenden Gleichungssystem für eine Schicht bestehend aus 3x3-Voxeln vor der Umstellung nach µ.
    Darstellung des zu lösenden Gleichungssystem für eine Schicht bestehend aus 3x3-Voxeln vor der Umstellung nach µ.

    Die Einträge der Matrix ergeben sich aus den Wegstrecken im Würfel. Für die erste Projektion bzw. Ausgangsintensität I_1 werden z.B. zwei Stücke des Würfels (2 und 4) diagonal durchstrahlt. Da sich die Diagonale eines Würfels durch Multiplikation der Kantenlänge mit dem Faktor \sqrt{2} berechnen lässt, befinden sich in der ersten Zeile der Matrix an der zweiten und vierten Stelle zwei entsprechende Faktoren. Die erste Zeile des Gleichungssystems lautet ausgeschrieben folglich:

    d \cdot \sqrt{2} \cdot \mu_1 + d \cdot \sqrt{2} \cdot \mu_4 = I_1

    Die restlichen Zeilen werden analog gebildet.

    Diese Formel lässt sich nach \mu umstellen, indem zwei Matrix-Rechenregeln verwendet werden. Zunächst wird von links die transponierte Matrix A^T multipliziert und das Ergebnis dann invertiert. Daraus resultiert

    \vec{\mu} = (A^T \cdot A)^{-1} \cdot A^T \cdot \vec{I}

    Aus Platzgründen wird hier auf die ausführliche Darstellung der Matrix (A^T \cdot A)^{-1} \cdot A^T verzichtet.

    Ein Gleichungssystem für einen 3×3-Würfel bestehend aus mindestens neun Gleichungen bzw. einen 3x3x3- Würfel bestehend aus 27 Gleichungen zu lösen, ist aufwendig, aber machbar und gut nachvollziehbar. Wird jedoch eine Schicht, bestehend 128×128 Voxeln betrachtet, sind es bereits 16.384 Gleichungen. Bei einer Auflösung von 1024×1024 bestünde das System aus 1.048.576 Gleichungen, für dessen Lösung selbst moderner Rechner mehrere Wochen benötigen würde. Für die Berechnung von CT-Schnittbilder mit hoher Auflösung ist eine Rekonstruktion mit dieser Methode daher nicht möglich.

    Gefilterte Rückprojektion

    Zur Erklärung der Radon-Transformation in Bezug auf die Computertomographie betrachten wir die Verteilung der Absorptionskoeffizienten in einer Transversalschicht als eine zweidimensionale Funktion f(x,y) . Diese Verteilung ist nicht bekannt und soll mithilfe der Computertomographie und der Radon-Transformation herausgefunden werden.

    Radon-Transformation

    Zur Erklärung der Radon-Transformation in Bezug auf die Computertomographie betrachten wir die Verteilung der Absorptionskoeffizienten in einer Transversalschicht als eine zweidimensionale Funktion f(x,y) . Diese Verteilung ist nicht bekannt und soll mithilfe der Computertomographie und der Radon-Transformation herausgefunden werden.

    Darstellung der 2D-Funktion f(x,y) die hier repräsentativ für eine Verteilung der Absorptionskoeffizienten einer Transversalschicht ist.
    Darstellung der 2D-Funktion f(x,y) die hier repräsentativ für eine Verteilung der Absorptionskoeffizienten einer Transversalschicht ist.

    Die Verteilung wird aus verschiedenen Projektionsrichtungen \theta (Winkel zur y-Achse) durchleuchtet (Der Winkel \theta steht nachfolgenden also nicht mehr wie in den vor-herigen Ausführungen für die Strahldivergenz). Auf dem gegenüberliegenden Detektor werden in Abhängigkeit des Winkels \theta Intensitätsprofile p_\theta(t) (auch Detektorfunktion) erzeugt. Der Wert t entspricht dem jeweiligen Ort auf dem CT-Detektor. Die Ortsauflösung des Detektors bzw. die Tatsache, dass t diskret ist, wird in dieser Betrachtung vernachlässigt. Ebenso wird hier angenommen, dass aus allen Winkeln (also unendlich vielen) eine Projektion stattfindet.

    Die Parallelprojektionen durch unsere gesuchte Verteilung f(x,y), die auf den Detektor treffen, bezeichnen wir als L(\theta,t) .

    Darstellung der Projektion eines Parallelstrahls <span class="wp-katex-eq" data-display="false"> L </span> durch die Funktion <span class="wp-katex-eq" data-display="false"> f(x,y) </span> auf die Detektorebene.
    Darstellung der Projektion eines Parallelstrahls L durch die Funktion f(x,y) auf die Detektorebene.

    Basierend auf diesen Informationen können wir eine Formel zur Berechnung der Detektorfunktion definieren. Der Wert an dem Ort t auf dem Detektor ergibt sich durch die Integration der Funktion f(x,y) entlang der Parallelprojektion L(\theta,t) :

    p_\theta(t) = \int _{L(\theta,t)} f(x,y) \text{d}s

    Damit ein vollständiges Intensitätsprofil auf dem Detektor für einen bestimmten Winkel \theta entsteht, müssen die Linienintegrale für jeden Ort auf dem Detektor t berechnet werden.

    Darstellung repräsentativer Parallelstrahlen für die Winkel <span class="wp-katex-eq" data-display="false"> θ </span> = 135° und <span class="wp-katex-eq" data-display="false"> θ </span> = 0° durch die Funktion <span class="wp-katex-eq" data-display="false"> f(x,y) </span> auf die gegenüberliegende Detektorebene, die dort jeweils ein Intensitätsprofil <span class="wp-katex-eq" data-display="false"> p_θ (t) </span> erzeugen.
    Darstellung repräsentativer Parallelstrahlen für die Winkel θ = 135° und θ = 0° durch die Funktion f(x,y) auf die gegenüberliegende Detektorebene, die dort jeweils ein Intensitätsprofil p_θ (t) erzeugen.

    Wird dieser Schritt für alle Winkelrichtungen \theta wiederholt und die Intensitätsprofile in ein \thetat-Diagramm übertragen, erhalten wir eine neue zweidimensionale Funktion Rf(x,y) , die als Radon-Transformation der Funktion f(x,y) bezeichnet wird. In dem hier abgebildeten \thetat-Diagramm wurden beispielhaft die zuvor gezeigten Schwächungsprofile an der entsprechenden Stelle eingefügt, um das Prinzip zu verdeutlichen.

    Veranschaulichung der Übertragung der Intensitätsprofile (Detektorfunktionen) <span class="wp-katex-eq" data-display="false"> p_θ (t) </span> in ein <span class="wp-katex-eq" data-display="false">θ</span>-<span class="wp-katex-eq" data-display="false">t</span>-Diagramm für die Winkel <span class="wp-katex-eq" data-display="false"> θ</span> = 135° und <span class="wp-katex-eq" data-display="false"> θ </span> = 0°.
    Veranschaulichung der Übertragung der Intensitätsprofile (Detektorfunktionen) p_θ (t) in ein θ-t-Diagramm für die Winkel θ = 135° und θ = 0°.

    Die Darstellung der aneinandergefügten Projektionen im \thetat-Diagramm wird auch Sinogramm genannt.

    Die Darstellung der Intensitätsprofile in einem <span class="wp-katex-eq" data-display="false">θ</span>-<span class="wp-katex-eq" data-display="false">t</span>-Diagramm ergibt die 2D-Radontransformierte, auch Sinogramm genannt. Hier beispielhaft das Sinogramm eines Hot Sphere Phantoms von Franck P. Vidal (Fpvidal, Wikipedia).
    Die Darstellung der Intensitätsprofile in einem θ-t-Diagramm ergibt die 2D-Radontransformierte, auch Sinogramm genannt. Hier beispielhaft das Sinogramm eines Hot Sphere Phantoms von Franck P. Vidal (Fpvidal, Wikipedia).

    Fourier-Slice-Theorem

    Für die Veranschaulichung des Fourier-Slice-Theorems (dt. Zentralschnitt-Theorem), betrachten wir wieder die Funktion f(x,y) , die wir bereits zur Erklärung der Radon-Transformation verwendet haben. Sie liegt in kartesischen Koordinaten vor und spiegelt Verteilung des Absorptionskoeffizienten in einer beliebigen Transversalebene eines CT-Scans wieder. Diese 2D-Funktion kann theoretisch mithilfe der 2D-Fourier-Transformation in den Frequenzraum fouriertransformiert werden. Diese Funktion entspräche der 2D-Fouriertransformierten F(u,v) , welche theoretisch auch wieder in die Funktion f(x,y) rücktransformiert werden kann (Fourier-Synthese). Es ist an dieser Stelle erstmal nur wichtig zu wissen, dass diese Hin- und Rücktransformation grundsätzlich möglich ist. Im Verlauf dieses Kapitels wird deutlich, warum das für die Rekonstruktion entscheidend ist.

    Darstellung der Verteilung <span class="wp-katex-eq" data-display="false"> f(x,y) </span> und der 2D-Fouriertransformierten <span class="wp-katex-eq" data-display="false"> F(u,v) </span>.
    Darstellung der Verteilung f(x,y) und der 2D-Fouriertransformierten F(u,v) .

    Wir halten also fest, dass aus der 2D-Fouriermierten einer zweidimensionalen Funktion auf die ursprüngliche Verteilung geschlossen werden kann. Da wir die ursprüngliche Verteilung f(x,y) jedoch nicht kennen, kann auch die 2D-Fouriertransformierte nicht berechnet werden. Es liegt eine Gleichung mit zwei Unbekannten vor.

    Zur Lösung dieses Problems wird das Fourier-Slice-Theorem angewendet. Das Theorem besagt, dass die 1D-Fouriertransformierten eines Intensitätsprofils auf der Detektorebene p_\theta(t) (s. Radon-Transformation) exakt dem Linienprofil durch den Ursprung der 2D-Fouriertransformierten F(u,v) , das entlang des gleichen Winkel \theta läuft, entspricht.

    Darstellung des Transformationsprinzips: Zunächst wird die 2D-Fouriertransformierte <span class="wp-katex-eq" data-display="false"> F(u,v) </span> mithilfe der 1D-Fouriertransformierten der Intensitätsprofils auf der Detektorebene <span class="wp-katex-eq" data-display="false"> p_θ (t) </span> rekonstruiert und damit anschließend durch Anwendung der inversen 2D-Fouriertransformation die gesuchte Verteilung <span class="wp-katex-eq" data-display="false"> f(x,y) </span> berechnet.
    Darstellung des Transformationsprinzips: Zunächst wird die 2D-Fouriertransformierte F(u,v) mithilfe der 1D-Fouriertransformierten der Intensitätsprofils auf der Detektorebene p_θ (t) rekonstruiert und damit anschließend durch Anwendung der inversen 2D-Fouriertransformation die gesuchte Verteilung f(x,y) berechnet.

    Aus der Summe aller 1D-Foriertransformationen der Schwächungsprofile p_\theta(t) lässt sich folglich die 2D-Fouriertransformierte F(u,v) konstruieren, die nachfolgend über die inverse 2D-Fouriertransformation zu unserer gesucht Verteilung f(x,y) führt.

    Ganz so einfach ist es jedoch leider nicht. Dadurch, dass alle 1D-Fouriertransformierten durch den Ursprung des Frequenzraum gelegt werden, sind die Werte kreisförmig um den Ursprung angeordnet.

    Anordnung der 1D-Fouriertransformierten von <span class="wp-katex-eq" data-display="false"> p_θ (t) </span> im Frequenzraum. Die Punkte repräsentieren die Ortsauflösung des Detektors bzw. den Ort <span class="wp-katex-eq" data-display="false"> t </span> im Objektraum.
    Anordnung der 1D-Fouriertransformierten von p_θ (t) im Frequenzraum. Die Punkte repräsentieren die Ortsauflösung des Detektors bzw. den Ort t im Objektraum.

    Diese Anordnung wäre kein Problem, wenn unendlich viele Projektionen mit kontinuierlichen Intensitätsprofilen aufgenommen würden. Durch eine begrenzte Anzahl an Projektionen, liegt die Fourierverteilung allerdings nicht kontinuierlich, sondern diskret für definierte Winkel vor. Gleichzeitig sind auch die Linienprofile, die die Fouriertransformation zusammensetzen, bedingt durch die Ortsauflösung der Detektoren, eher Strichlinien. Dass die Daten in Polarkoordinaten vorliegen ist insbesondere für die inverse Fouriertranformation problematisch, da die heutigen Algorithmen (z.B. die schnelle Fourier-Transformation FFT, bzw hier iFFT) für die Rückprojektion diskreter Fouriertransformationen quadratisch gitterförmig angeordnete Daten als Grundlage benötigen. Eine Interpolation der fehlenden Werte (Resampling, Neuabtastung) und Umrechnung in kartesische Koordinaten liegt zwar nahe, hat allerdings weitere Fehler im Niederfrequenzbereich zur Folge.

    Eine weitere Erschwernis fällt bei genauer Betrachtung der Anordnung der 1D-Fouriertransformierten im Frequenzraum auf. Die Dichte der vorhandenen Werte fällt radial nach außen ab. Das bedeutet, dass der Bereich um den Ursprung, in dem die niedrigeren Frequenzen liegen, sehr fein abgetastet wird, während die hohen Frequenzen im äußeren Bereich, die bei der Bildrekonstruktion insbesondere für die Details (Schärfe) notwendig sind, unterrepräsentiert bleiben. Infolge dieser Datendiskrepanz würden die rekonstruierten Bilder sehr verschwommen aussehen.

    Aus diesen Problemen resultiert die Schlussfolgerung, dass das Fourier-Slice-Theorem zur Rekonstruktion von CT-Bildern ungeeignet ist. Nichtsdestotrotz bildet es die Grundlage für ein Verfahren, das diese Probleme umgeht, indem die inverse 2D-Fouriertransformation durch ein mathematisches Alternativverfahren ersetzt wird. Dabei handelt es sich um die sogenannte gefilterte Rückprojektion.

    Gefilterte Rückprojektion - Funktionsprinzip

    Die gefilterte Rückprojektion (engl. Filtered Backprojection, FBP) ist das bekannteste Rekonstruktionsverfahren. Dabei werden die Projektionen eines Objektes über den Objektraum zurückgeschmiert. In Bezug auf unser obiges Beispiel bedeutet das, dass die Intensitätsprofile p_\theta(t) der gesuchten Verteilung f(x,y) für alle Winkel \theta in den Raum zurückprojiziert werden.

    f(x,y)\:\approx\: f_{BP}(x,y) = \int p_\theta(x\cdot\cos\theta + y\cdot\sin\theta) \text{d}\theta

    Um das zu veranschaulichen, haben wir das für ein kreisrundes homogenes Objekt vereinfacht dargestellt.

    Darstellung des Funktionsprinzips der ungefilterten Rückprojektion für unterschiedliche viele Projektionen. Das Endergebnis ist verschwommen.
    Darstellung des Funktionsprinzips der ungefilterten Rückprojektion für unterschiedliche viele Projektionen. Das Endergebnis ist verschwommen.

    Bei einmaliger Anwendung formt die Rückprojektion einen Balken. Anschließend ein Kreuz, einen Stern und schlussendlich ein Kreis, der dem ursprünglichen Objekt bereits sehr nah kommt, aber trotz unendlicher Projektionswinkel nicht scharf wird. Die Ursache für dieses Phänomen wurde bereits in dem Kapitel über da Fourier-Slice-Theorem erläutert. Über den Mittelpunkt des Objektraum wird häufiger „drüberprojiziert“ als über den Rand. Dadurch wird der niederfrequente Bereich feiner abgetastet als die äußeren, höherfrequenten Bereiche, die für die Details (Bildschärfe) zuständig sind (vgl. Abbildung oben).

    Um diese Datendiskrepanz zu korrigieren, werden die Daten vor der Rückprojektion gefiltert. Dazu werden die Intensitätsprofile (Detektorfunktionen) p_\theta(t) zunächst 1D-fouriertransformiert (s. Fourier-Slice-Theorem) und wir erhalten P_\theta(\omega) . Anschließend werden die niedrigeren Frequenzen im Frequenzraum mithilfe eines Hochpass-Filters, dem sogenannten Rampenfilter, auch bekannt als Ram-Lak-Filter (nach Ramachandran und Lakshmi-Narayanan), unterdrückt. Je höher die Frequenz, desto schwächer die Unterdrückung. Ab einer definierten Frequenz \omega werden die Werte der Funktion P_\theta(\omega) zur Rauschunterdrückung vollständig gelöscht. Die neue Funktion Q_\theta(\omega) wird abschließend invers 1D-fouriertransorfmiert, woraus eine neue, gefilterte Detektorfunktion q_\theta(t) im Objektraum resultiert, die über den Raum zurückprojiziert wird. q_\theta(t) ist also die invers 1D-Fouriertransformierte von Q_\theta(\omega) für die nach Definition gilt:

    q_\theta(t) = \int Q_\theta(\omega) \exp(I \cdot 2\pi\omega t) ,

    wobei

    Q_\theta(\omega) = P_\theta(\omega)\:\cdot\:|\omega|_\text{Ram-Lak}

    die mit |\omega|_\text{Ram-Lak} gefilterte 1D-Tranfortmierte P_\theta(\omega) von p_\theta(t) ist. (Diese Lösung ist sehr schön, da eine Multiplikation im Frequenzraum durch eine Faltung ersetzt werden kann. Auf weitere detailliertere mathematische Darstellung wird an dieser Stelle verzichtet.)

    Prinzip der gefilterten Rückprojektion: Die Detektorfunktion wird in den Frequenzraum 1D-fouriertransformiert. Nachdem die höheren Frequenzen dort mit dem Ram-Lak-Filter stärker gewichtet wurden, erfolgt die inverse 1D-Fouriertransformation zurück in den Objektraum.
    Prinzip der gefilterten Rückprojektion: Die Detektorfunktion wird in den Frequenzraum 1D-fouriertransformiert. Nachdem die höheren Frequenzen dort mit dem Ram-Lak-Filter stärker gewichtet wurden, erfolgt die inverse 1D-Fouriertransformation zurück in den Objektraum.

    In der Darstellung des Filterprinzips ist bereits zu erkennen, dass die neue Detektorfunktion q_\theta(t) insbesondere die Kanten der ursprünglichen Detektorfunktion p_\theta(t) hervorhebt.

    Wir wiederholen die beispielhafte Rekonstruktion für unser kreisrundes Objekt, in dem ausschließlich die „Schattenränder“ (also das Ergebnis der Filterung) zurückprojiziert werden.

    Darstellung des Funktionsprinzips der gefilterten Rückprojektion für unterschiedliche viele Projektionen. Das Endergebnis ist scharf.
    Darstellung des Funktionsprinzips der gefilterten Rückprojektion für unterschiedliche viele Projektionen. Das Endergebnis ist scharf.

    Der Ram-Lak Filter besitzt die Eigenschaften ein Unschärfeproblem, das durch die Art der Rekonstruktion entstanden ist, zu beheben, indem er niedrigere Frequenzen unterdrückt und höhere Frequenzen verstärkt. Da Bildrauschen allerdings auch an anderen Stellen (z.B. am Detektor) entstehen kann und unter Umständen höhere Frequenzen aufweist, kann der Ram-Lak-Filter das Rauschen erhöhen. Aus diesem Grund wurden weitere Filter entwickelt, mit dem Ziel, die wichtigsten Informationen aus den Rohdaten herauszufiltern. Diese unterscheiden sich im Wesentlich in unterschiedlichen Verstärkungen der höheren Frequenzen.

    Darstellung unterschiedlicher Filter im Frequenzraum, die im Vergleich zum Ram-Lak-Filter die höheren Frequenzen weniger stark verstärken (Liste nicht abschließend).
    Darstellung unterschiedlicher Filter im Frequenzraum, die im Vergleich zum Ram-Lak-Filter die höheren Frequenzen weniger stark verstärken (Liste nicht abschließend).

    Iterative Konstruktion

    Die gefilterte Rückprojektion ist einfach und schnell, vernachlässigt bei der Bildrekonstruktion allerdings die tatsächlichen Geometrien und Strahleigenschaften. Der Fokus wird z.B. als punktförmig und die Röntgenstrahlen als nadelförmig angenommen. Ebenfalls wird vernachlässigt, dass die Anzahl der erzeugten Photonen der Poisson-Verteilung folgen bzw. die Anzahl durch stochastische Prozesse beeinflusst werden. Diese Annahmen resultieren in einer erhöhten Anfälligkeit für Artefakte und Rauschen, insbesondere wenn die Dosisleistung am Detektor sehr gering ist (die Statistik also schlecht ist). Zur Lösung dieser Problematik wurden iterative Rekonstruktionsverfahren entwickelt.

    Grundsätzlich bezeichnet ein iteratives Verfahren die Wiederholung eines Prozesses zur schrittweisen Annäherung an eine bestimmte Lösung, wobei bei jedem Iterationsschritt das vorherige Ergebnis berücksichtigt wird. Diese Methode wird so oft wiederholt bis ein zuvor definiertes Abbruchkriterium erreicht ist. Das kann der Fall sein, wenn der Unterschied zwischen zwei Iterationsschritten einen definierten Grenzwert erreicht hat oder eine bestimmte absolute Anzahl an Iterationen durchgeführt wurde.

    In Bezug auf die Computertomographie stellt die Iteration einen wiederholenden Wechsel zwischen Objekt- und Frequenzraum dar, bei dem virtuell erzeugte Daten mit den aufgenommenen Projektionen verglichen werden. Die initiale Rekonstruktion wird z.B. wie gehabt mithilfe der gefilterten Rückprojektion erzeugt. Anschließend werden unter Berücksichtigung der Eigenschaften des bildgebenden Systems Vorwärtsprojektionen (also vom Frequenzraum in den Objektraum) erzeugt. Im Objektraum werden unter Verwenden der virtuellen und tatsächlichen Projektionen neue Intensitätsprofile erzeugt, die dann wieder gefiltert in den Frequenzraum zurückprojiziert werden. Die Berücksichtigung der Systemkomponenten (z.B. Fokusgröße, Röntgenspektrum, Geometrie, Scanparameter, Detektorelektronik, Voxelgröße) und der Photonenstatistik ermöglicht eine bessere Auflösung und eine Reduzierung des Bildrauschens. Je detaillierter das modellierte System, desto besser die Bildqualität.

    Da in der klinischen Routine die Geschwindigkeit der Rekonstruktion ein entscheidendes Kriterium ist, bleibt diese Methode limitiert durch die Rechenkapazität. Die notwendige Performanz ist gleichzeitig der Grund, warum die iterative Rekonstruktion nicht schon eher Einzug in die praktische Anwendung fand. Ein Kompromiss zwischen Bildqualität und Geschwindigkeit bieten sogenannte hybride iterative Rekonstruktionsalgorithmen, bei dem iterative Verfahren zwar sowohl im Objekt- als auch im Frequenzraum stattfinden, aber der Übergang in Frequenzraum nur einmalig stattfindet.

    Schematische Darstellung der Rekonstruktionsverfahren. Oben: Konventionelle gefilterte Rückprojektion. Mitte: Hybride iterative Rekonstruktion mit statistischen Filtern im Projektions- und Bildraum. Unten: Modelbasierte iterative Rekonstruktion mit mehrfachen Übergängen zwischen Projektions- und Bildraum (nach Stiller, 2018).
    Schematische Darstellung der Rekonstruktionsverfahren. Oben: Konventionelle gefilterte Rückprojektion. Mitte: Hybride iterative Rekonstruktion mit statistischen Filtern im Projektions- und Bildraum. Unten: Modelbasierte iterative Rekonstruktion mit mehrfachen Übergängen zwischen Projektions- und Bildraum (nach Stiller, 2018).

    Nach Willemink et al. (2014) ermöglichen modellbasierte iterative Rekonstruktionsalgorithmen eine Dosisreduzierung von bis zu 80% bei gleichbleibender Bildqualität im Vergleich zur gefilterten Rückprojektion. Bei der hybriden iterativen Rekonstruktion liegt das Einsparpotential bei 27-54 %.

    Abschließend eine tabellarische Darstellung iterativer Rekonstruktionsverfahren der bekannten CT-Hersteller.

    Typ Hersteller Bezeichnung Vollständiger Name
    Hybrid
    Philips
    iDose4
    iDose4
    Siemens
    IRIS
    Iterative Reconstruction in Image Space
    GE
    ARIS
    Adaptive Statistical Iterative Reconstruction
    Toshiba
    AIDR
    Adaptive Iterative Dose Reduction
    Typ Hersteller Bezeichnung Vollständiger Name
    Modellbasiert
    Philips
    IMR
    Iterative Model Reconstruction
    Siemens
    ADMIRE
    Advanced Modeled Iterative Reconstruction
    Siemens
    SAFIRE
    Sinogram-Affirmed Dose Reduction
    GE
    MBIR
    Model-based Iterative Reconstruction
    Toshiba
    FIRST
    Forward Projected Model-Based Iterative Reconstruction Solution

    Fächer- und Kegelstrahlgeometrie

    Heutzutage werden die Detektoren nicht mehr nach und nach orthogonal zur Parallelstrahlung verschoben, anschließend weitergedreht und das Verfahren wiederholt bis der Tisch zur nächsten Schicht vorgeschoben werden kann. Stattdessen wird die Röntgenstrahlung aufgefächert und trifft auf einen kreissegmentförmigen Detektorkranz, während der Patient kontinuierlich durch die Gantry geschoben wird. Dadurch kann die Computertomographie erheblich beschleunigt werden. Werden mehrere Detektorzeilen nebeneinandergelegt und der Strahl auch in z-Richtung aufgefächert (Kegelstrahl) kann die Geschwindigkeit nochmals erhöht werden. Dieses Verfahren ist in allen modernen Computertomographien Standard. Genau genommen sind also alle modernen Multi-Slice-CT auch Cone-Beam-CT.

    Auf die mathematische Erläuterung dieses Prinzips wird an dieser Stelle verzichtet. Lösungen für diese Geometrie sind in der Literatur zu finden.

    Bildqualität vs. Dosis

    Die Bildqualität einer Computertomographie wird hauptsächlich durch die Auflösung, und das Bildrauschen bestimmt. Artefakte können die Qualität negativ beeinflussen. Natürlich haben auch das Bildwiedergabesystem und der Arbeitsplatz sowie die Fähigkeit vom Auge des jeweiligen Betrachters einen Einfluss auf die Bewertung der Bildqualität.

    Scanparameter

    Die im Vorfeld bestimmten Scanparameter bestimmen hauptsächlich die resultierende Bildqualität und Dosis.

    Scanparameter Wertebereich
    Röhrenspannung
    70 – 150 kVp
    Röhrenstrom
    10 – 1300 mA
    Rotationszeit
    0,25 – 2,0 Sekunden
    Pitch
    0,04 – 1,50
    Eff. Röhrenstrom-Zeit-Produkt
    10 – 2000 mAs
    Kollimierung
    2 x 0,5 – 320 x 0,5 mm
    Schichtdicke
    0,1 – 10,0 mm
    Scanlänge
    1 – 2000 mm
    Röhrenstrom-Modulation
    Ja / Nein
    Rekonstruktionskern
    Weich – Scharf
    Rekonstruktionsalgorithmus
    Analytisch, FBP, Iterativ

    CTDI, DLP und Pitch

    Ausführliche Definitionen mit anschaulichen Skizzen findet ihr in unseren Grundlagen zu Dosisparametern:

    Auflösung

    Die Auflösung setzt sich aus der Ortsauflösung und der Kontrastauflösung zusammen.

    Die Ortsauflösung (auch Detektorauflösung) beschreibt den Abstand zwischen zwei Punkten, der vom Detektorsystem noch getrennt aufgelöst werden kann (Rayleigh-Kriterium). Sie ist also insbesondere für die Diagnostik kleiner krankhafter Strukturen (z.B. Gefäßverschlüsse) von Bedeutung. Gemeint ist mit der Ortsauflösung in der Regel die Auflösung in Schnittbildebene (x,y-Ebene). In z-Richtung wird die Auflösung maßgeblich durch die Schichtdicke bestimmt.

    Die Ortsauflösung wird von der Brennfleckgröße, der Größe der Detektorpixel, Anzahl der Projektionen pro Schicht ab und der Scangeometrie (Abstände zwischen Fokus und Isozentrum und Detektor) beeinflusst. Hinzu kommt, dass während der Rekonstruktion durch mathematische Operationen die Ortsauflösung verändert werden kann. (Iterative Rekonstruktionsverfahren verfügen über die Möglichkeit, die Auflösung nachträglich zu verbessern). Des Weiteren spielt auch die Bewegung des Objekts (Patienten) eine Rolle.

    Die Kontrastauflösung beschreibt die Fähigkeit geringe Dichteunterschiede (genau genommen Unterschiede des Absorptionskoeffizienten) darzustellen zu können. Sie ist nach unten – im Niedrigkontrastbereich – durch das Rauschen limitiert.

    Die Überprüfung der räumlichen Auflösung erfolgt in der Regel mithilfe von QA-Phantomen, die im Inneren entweder unterschiedlich dicke Linienstrukturen oder einen dünnen Draht enthalten. Zur Beurteilung wird in der Regel die sogenannte Modulartransferfunktion (MTF) verwendet. Sie beschreibt das Verhältnis aus Bildkontrast und Objektkontrast.

    MTF = \frac{\text{Bildkontrast}}{\text{Objektkontrast}}

    Sie wird berechnet, indem die Ableitung einer Kantenfunktion fouriertransformiert wird.

    Links: Darstellung eines perfekten Strichmusters, der zugehörigen idealen Abbildung, der tatsächlichen Abbildung und dem resultierenden Bild des Objektes. Rechts: Darstellung der Modulartransferfunktion für drei unterschiedliche gute Systeme, aus denen jeweils drei unterschiedliche Grenzauflösungen bzw. auflösbare Linienpaare pro Millimeter (hier: bei MTF=10%) resultieren.
    Links: Darstellung eines perfekten Strichmusters, der zugehörigen idealen Abbildung, der tatsächlichen Abbildung und dem resultierenden Bild des Objektes. Rechts: Darstellung der Modulartransferfunktion für drei unterschiedliche gute Systeme, aus denen jeweils drei unterschiedliche Grenzauflösungen bzw. auflösbare Linienpaare pro Millimeter (hier: bei MTF=10%) resultieren.

    Das dargestellte Verfahren für Linienpaare kann analog auf punktförmige Strukturen (Drähte) übertragen werden, wobei die Bildmodulation in diesem Fall auch Punktspreizfunktion genannt wird.

    Die Auflösung bezeichnet also immer die Grenzauflösung, die in der Regel durch einen bestimmten Grenzwert (z.B. 10%) definiert wird, auf den die MTF gefallen ist. Sogenannte Ultra-High-Resolution (UHR)-CT erreichen heutzutage räumliche Auflösungen von bis zu 5 Linienpaaren pro Millimeter.

    Rauschen

    Das Bildrauschen bezeichnet homogen gleichmäßig über das gesamte Bild verteilte Fluktuationen, die keinen Bezug zum gescannten Objekt haben. Es kann sowohl an der Röntgenröhre oder dem Objekt als auch am Detektor, z.B. durch Dunkelstrom an lichtempfindlichen elektronischen Elementen (Ausleserauschen), entstehen.

    Das Grundrauschen (auch fundamentales Rauschen) setzt sich aus thermischen Rauschen, bedingt durch brownsche Molekularbewegungen, und dem poissonsche Quantenrauschen (auch Schrotrauschen, Shot-Noise) zusammen. Quantenrauschen ist das Ergebnis stochastisch auftretender elektrischer Ströme einzelner Ladungsträger die z.B. beim Durchqueren des pn-Übergang in der Photodiode entstehen.

    Da das Rauschen der Poisson-Verteilung folgt, hängt es invers von der Wurzel der mittleren Anzahl der nachgewiesenen Photonen N_\text{Detektor} bzw. von den erzeugten Photonen N_\text{Röhre} multipliziert mit der Wahrscheinlichkeit, den Detektor ohne Wechselwirkung zu erreichen p_\text{Pass} , ab.

    \sigma = 1\: / \: \sqrt{N_\text{Röhre} \cdot p_\text{Pass}}

    Darstellung einer Transversalschicht eines QA-Phantoms zur Bestimmung der Ortsauflösung für vier unterschiedliche konstante Strom-Zeit-Produkte bei 120 kV und einer Schichtdicke von 2 Millimetern. Von links nach rechts: 30 mAs, 75 mAs, 140 mAs, 200 mAs.
    Darstellung einer Transversalschicht eines QA-Phantoms zur Bestimmung der Ortsauflösung für vier unterschiedliche konstante Strom-Zeit-Produkte bei 120 kV und einer Schichtdicke von 2 Millimetern. Von links nach rechts: 30 mAs, 75 mAs, 140 mAs, 200 mAs.
    Rauschen in einem homogenen QA-Phantom in Abhängigkeit vom Strom-Zeit-Produkt. Von links nach rechts: 30 mAs, 75 mAs, 140 mAs, 200 mAs.
    Rauschen in einem homogenen QA-Phantom in Abhängigkeit vom Strom-Zeit-Produkt. Von links nach rechts: 30 mAs, 75 mAs, 140 mAs, 200 mAs.
    Rauschen und CTDI(vol) in einem homogenen QA-Phantom in Abhängigkeit vom Strom-Zeit-Produkt. Von links nach rechts: 30 mAs, 75 mAs, 140 mAs, 200 mAs. Das Rauschen läuft gegen einen Grenzwert.
    Rauschen und CTDI(vol) in einem homogenen QA-Phantom in Abhängigkeit vom Strom-Zeit-Produkt. Von links nach rechts: 30 mAs, 75 mAs, 140 mAs, 200 mAs. Das Rauschen läuft gegen einen Grenzwert.
    Rauschen in einem homogenen QA-Phantom in Abhängigkeit von der Röhrenspannung. Von links nach rechts: 80 kV, 100 kV, 120 kV, 140 kV.
    Rauschen in einem homogenen QA-Phantom in Abhängigkeit von der Röhrenspannung. Von links nach rechts: 80 kV, 100 kV, 120 kV, 140 kV.
    Rauschen und CTDI(vol) in einem homogenen QA-Phantom in Abhängigkeit von der Röh-renspannung. Von links nach rechts: 80 kV, 100 kV, 120 kV, 140 kV.
    Rauschen und CTDI(vol) in einem homogenen QA-Phantom in Abhängigkeit von der Röh-renspannung. Von links nach rechts: 80 kV, 100 kV, 120 kV, 140 kV.

    Durch die antiproportionale Abhängigkeit von der Wahrscheinlichkeit das Objekt zu durchqueren, steigt das Rauschen unter anderem mit größer werdendem Objektdurchmesser, zunehmender Materialdichte und niedrigeren Röhrenspannungen. Das kann bei sehr ungleichmäßigen Dichteverteilungen zu inhomogenem Rauschen im Bild führen. Gleichzeitig sinkt das Rauschen bei höherer Anzahl generierter Photonen. Der zentrale Grenzwertsatz nach Lindeberg-Lévy besagt, dass bei Addition n unabhängiger zufälliger Ereignisse das Signal um den Faktor n , das Rauschen jedoch nur um \sqrt{n} ansteigt, woraus eine Verbesserung des sogenannten Signal-Rausch-Verhältnis (SNR) von \frac{n}{\sqrt{n}} = \sqrt{n} resultiert. Das SNR bewertet die Qualität des eigentlichen Nutzsignals im Verhältnis zum Störsignal, dem Rauschen. Wie der obigen Formel entnommen werden kann, geht eine Erhöhung des SNR immer mit einer Erhöhung der Dosis einher. Eine Vervierfachung der Dosis, hätte z.B. eine Halbierung des Rauschens zur Folge.

    Durch die Entwicklung von Mehrschicht-CTs konnte die Schichtdicke deutlich reduziert werden. Bleiben die Untersuchungs- und Rekonstruktionsparameter bei einer Untersuchung mit geringerer Schichtdicke identisch, steigt der Rauschanteil im Bild, da weniger Röntgenquanten pro Schicht zur Verfügung stehen. Es gilt

    \text{Rauschen} \propto 1/\sqrt{\text{Schichtdicke}}

    , d.h. bei einer Reduktion der Schichtdicke um den Faktor 4, verdoppelt sich das Rauschen. Gleichzeitig nimmt der Kontrast bei kleinere Schichtdicke zu, da die Mittelung über mehrere Schichten verringert wird. Hier gilt

    \text{Kontrast} \propto 1/\text{Schichtdicke}

    , d.h. bei einer Reduktion der Schichtdicke um den Faktor 4, vervierfacht sich der Kontrast. Werden die obigen Abhängigkeiten kombiniert, lässt sich ein Zusammenhang zwischen dem sogenannten Kontrast-Rausch-Verhältnis CNR und der Schichtdicke herstellen. Durch Einsetzen folgt

    CNR \propto 1/\sqrt{\text{Schichtdicke}}

    , d.h., um das CNR zu verdoppeln, muss die Schichtdicke um den Faktor vier reduziert werden.

    Darstellung der Standardabweichung des mittleren Hounsfield-Werts in einem QA-Phantom für unterschiedlich rekonstruierte Schichtdicken. Von links nach rechts: 1mm, 2mm, 5mm, 10mm.
    Darstellung der Standardabweichung des mittleren Hounsfield-Werts in einem QA-Phantom für unterschiedlich rekonstruierte Schichtdicken. Von links nach rechts: 1mm, 2mm, 5mm, 10mm.

    Methoden zur Verringerung der Exposition

    Vermeidung: Rechtfertigende Indikation

    Die effizienteste Methode zur Verringerung der Patientenexposition ist die Vermeidung. Die rechtfertigende Indikation ist erst nach gründlicher Abwägung zwischen gesundheitlichem Nutzen und resultierendem Strahlenrisiko vom fachkundigen Arzt zu stellen. Die von der Strahlenschutzkommission veröffentlichte Orientierungshilfe für die bildgebende Diagnostik unterstützt den Arzt mit Empfehlungen beim Treffen der richtigen Entscheidung. Ist eine Untersuchung indiziert, sollte der fachkundige Arzt die Untersuchungsfragen genauestens spezifizieren, um Serien, die keine relevanten Informationen zur Diagnosestellung liefern, zu vermeiden.

    Scanlänge

    Der Scan muss so lang sein, um die klinische Fragestellung beantworten zu können. Da zu kurze CTs ggf. zu Wiederholungsuntersuchung führen können, wird die Scanlänge jedoch manchmal sehr großzügig gewählt. Das Dosislängenprodukt ist linear proportional zur Scanlänge. Durch klar definierte Scangrenzen des Radiologen kann die/der MTRA am Gerät Dosis einsparen.

    Darstellung der linearen Koreleation zwischen dem Dosislängenprodukt und dem Produkt aus CTDI und Scanlänge für ca. 20.000 CT-Untersuchungen aller Art.
    Darstellung der linearen Koreleation zwischen dem Dosislängenprodukt und dem Produkt aus CTDI und Scanlänge für ca. 20.000 CT-Untersuchungen aller Art.

    Lagerung

    Moderne Computertomographen verwenden Formfilter, sogenannte Bow-Tie-Filter, die zur objektabhängigen Steuerung der Photonenintensität eingesetzt werden. In stark absorbierenden Regionen wird wenig geschwächt und in dünneren, weniger stark absorbierenden Bereichen wird die Strahlung durch ein dickeres Filtersegment abgeschwächt. Die Konstruktion der Filter setzt voraus, dass der Patientenschwerpunkt zentral im Field-of-View positioniert ist. Um das zu Kontrollieren besitzen die meisten CT-Scanner Laser. Sofern nach den Übersichtsaufnahmen eine Dezentrierung festgestellt wird, sollte die Lage korrigiert und neue Topogramme aufgenommen werden.

    Ist der Patient während des Topogramms röhrennah positioniert, erscheint er größer, was aufgrund der Röhrenstrommodulation zu einer erhöhten Exposition führt. Andersherum führt eine Lagerung von der Röhre weg zu einer niedrigeren Exposition bzw. zu einer schlechten Photonenstatistik am Detektor. Daraus resultiert letztendlich ein erhöhtes Rauschen bzw. ein schlechteres Signal-Rausch-Verhältnis. Wir haben versucht diese Tatsache messtechnisch zu überprüfen und dabei feststellen müssen, dass dieser Effekt an unserem CT nicht zu beobachten war. Das Rauschen und der CTDI waren auch bei Fehlpositionierungen von bis zu 10 Zentimeter konstant. Sofern jemand eine Erklärung für dieses Messergebnis hat, würden wir uns über eine Aufklärung freuen.

    Bekanntlich führt ein größerer Objektdurchmesser aufgrund der Röhrenstrommodulation automatisch zu einer erhöhten Dosis. Aus diesem Grund ist die Lagerung der Arme außerhalb des Scanbereichs eine Möglichkeit, um die Dosis zu reduzieren. Während diese Lagerung bei einigen Untersuchungen Standard ist, wird laut Brink et al (2008) bei polytraumatisierten Patienten häufig auf eine Armlagerung neben dem Kopf verzichtet. Stattdessen werden die Arme entweder neben dem Körper oder diagonal über den Torso gelagert und damit eine erhöhte Dosis in Kauf genommen. Bei Patienten die einen Arm anheben konnten wurde 18% gespart, bei Anhebung beider Arme 45%.

    Iterative Rekonstruktion

    Siehe Kapitel zur iterativen Konstruktion.

    Dosismanagement und Optimierung der Protokolle

    Deuten Dosisindikatoren eines Protokolls über einen längeren Zeitraum auf eine erhöhte Exposition hin, ist das zugrundliegende Protokoll zu optimieren. Dosismanagementsysteme (s. Seite zu Dosismanagementsystem) sind zur Erkennung solcher Überschreitungen hilfreich. Für bestimmte Untersuchungen veröffentlicht das Bundesamt für Strahlenschutz diagnostische Referenzwerte (DRW), für alle anderen Untersuchungen ist die Definition interner Schwellenwerte empfehlenswert.

    Die Protokollanpassung sollte schrittweise in enger Zusammenarbeit mit dem Radiologen (und ggf. einem Applikationsspezialisten) erfolgen, um sicherzustellen, dass die Bildqualität nach jeder Änderung weiterhin zur Beantwortung der Fragestellung ausreichend ist. Dieses Prinzip verhindert, dass Untersuchungen aufgrund zu schlechter Bildqualität wiederholt werden müssen, wodurch letztendlich die doppelte Patientenexposition zustande käme. Zur Optimierung der Protokolle, nachfolgend eine tabellarische Darstellung der Zusammenhänge zwischen bestimmten Scanparametern und der Dosis sowie der Bildqualität.

    Faktor Dosis Bildqualität Was tun?
    Spannung U
    \propto U^{2-3}
    Kontrast sinkt, wenn U steigt
    Abhängig von der Fragestellung und mAs
    Strom-Zeit-Produkt Q
    \propto Q
    Rauschen \propto 1/\sqrt{Q}
    So niedrig wie möglich
    Pitch p *
    \propto 1/p
    Rauschen steigt und Auflösungen sinkt, wenn p steigt
    So groß wie möglich
    Weicher Faltungskern
    Weniger Dosis
    Weniger Rauschen, schlechtere Auflösung
    Abhängig von der Fragestellung, so weich wie möglich.
    Harter Faltungskern
    Mehr Dosis
    Mehr Rauschen, bessere Auflösung
    Abhängig von der Fragestellung, so weich wie möglich.
    Objektdicke d **
    x2 pro 3-5 cm mehr
    x2 pro 6-10 cm mehr
    Ggf. kV und mAs an-passen **

    * Bei den meisten Multi-Slice-CT wird das effektive Strom-Zeit-Produkt (Photonen pro Schicht) angegeben, wodurch die Dosis, das Bildrauschen und die Auflösung Pitch-unabhängig werden.

    ** Verfügt das Gerät über eine automatische Röhrenstrommodulation, die mithilfe des Topogramms berechnet wird, wird dadurch insbesondere für schlanke Patienten bereits Dosis gespart. Da die Modulationen herstellerspezifisch sind, sollten manuelle Anpassung nur bei Kenntnis über die Folgen durchgeführt werden.

    Für einige Untersuchungen existieren Empfehlungen zu Dosisanpassungen. Bei der Diagnostik und Begutachtung von gutartigen berufsbedingten Erkrankungen der Lunge – Low-Dose-HRCT des Thorax (HRCT = High Resolution CT) empfiehlt die Arbeitsgemeinschaft Thoraxdiagnostik der Deutschen Röntgengesellschaft zum Beispiel eine BMI-orientiere Dosisanpassung.

    Habitus BMI in kg/m² Anpassung CTDI(vol) in mGy DLP in mGycm DLP(ges) in mGycm
    Schlank
    < 21
    0,7
    < 1,2
    < 43
    < 48
    Normal
    22 – 28
    1,0
    < 1,7
    < 60
    < 66
    Kräftig
    29 – 34
    1,4
    < 2,4
    < 85
    < 94
    Sehr kräftig
    34 – 40
    2,0
    < 3,4
    < 120
    < 132
    Extrem
    > 40
    2,8
    < 4,8
    170
    187

    Patienten-Strahlenschutzmittel

    Um bestimmte Organe bei der CT-Untersuchung besonders zu schonen, können Patienten-Strahlenschutzmittel verwendet werden. 2018 hat die Strahlenschutzkommission ein Empfehlungsschreiben zur Verwendung von Patienten-Strahlenschutzmitteln bei der diagnostischen Anwendung von Röntgenstrahlung am Menschen mit wissenschaftlicher Begründung veröffentlicht. Darin sind alle wichtigen Information zu finden, weshalb an dieser Stelle auf detaillierte Ausführungen verzichtet wird. Diejenigen, die einen kurzen Überblick suchen, finden die Empfehlungen in der nachstehenden Tabelle zusammengefasst.

    Untersuchung Patientenstrahlenschutzmittel
    Hirnschädel

    Augenlinsenprotektor, wenn die Augen im direkten Strahlenfeld liegen

    Schilddrüsenschutz

    Brustschutz bei Patientinnen

    Nasennebenhöhlen

    Augenlinsenprotektor, wenn die Augen im direkten Strahlenfeld liegen

    Schilddrüsenschutz

    Gesichtsschädel

    Augenlinsenprotektor, wenn die Augen im direkten Strahlenfeld liegen

    Schilddrüsenschutz

    Thorax

    Schilddrüsenschutz (außer Pädiatrie)

    Abdomenschutz bei Schwangeren

    Abdomen/Becken
    Hodenkapsel bei Patienten (wenn Arte-fakte nicht stören)

    Beim Einsatz von Strahlenschutzmitteln muss die/der MTRA die Funktionsweise der Röhrenstrommodulation des jeweiligen Geräts kennen. Üblicherweise dient das Topogramm als Grundlage für die Röhrenstrommodulation des CTs. Wird ein Strahlenschutzmittel also bereits vor dem eigentlichen Scan auf dem Patienten platziert, wird das mAs-Produkt in diesen Schichten erhöht, um ein konstantes Signal-Rausch-Verhältnis zu erhalten. Um diesen Effekt zu verdeutlichen, haben wir zwei CT-Scans von einem Alderson-Phantom mit einer Bleiabdeckung mit unterschiedlichen Übersichtsaufnahmen durchgeführt:

    • Topogramm ohne Bleiabdeckung, dann der CT-Scan
    • Topogramm mit Bleiabdeckung, dann der CT-Scan
    CT-Scan eines Alderson-Phantoms mit Strahlenschutzmittel, bei dem die Bleiabschirmung erst nach dem Topogramm aufgelegt wurde.
    CT-Scan eines Alderson-Phantoms mit Strahlenschutzmittel, bei dem die Bleiabschirmung erst nach dem Topogramm aufgelegt wurde.
    CT-Scan eines Alderson-Phantoms mit Strahlenschutzmittel, bei dem die Bleiabschirmung bereits bei dem Topogramm aufgelegt wurde.
    CT-Scan eines Alderson-Phantoms mit Strahlenschutzmittel, bei dem die Bleiabschirmung bereits bei dem Topogramm aufgelegt wurde.

    Die Scans wurden jeweils mit 120 kV durchgeführt. Bei der Aufnahme ohne Bleiabschirmung im Topogramm hat die Röhrenstrommodulation ein durchschnittliches Strom-Zeit-Produkt von 72 mAs eingeregelt, während in dem zweiten Scan der Wert bei 89 mAs beträgt. Diese Differenz zeigt sich auch in einer erhöhten Strahlenexposition – der CTDI ist um ca. 23 % erhöht. Das Rauschen hat hingegen nur um ca. 10 % abgenommen.

    Organdosismodulation

    Beim Anfertigen eines Hirnschädel-CT kann die Augenlinsendosis mit ca. 30 mSv exponiert werden. Diese Belastung kann reduziert werden, indem der Kopf des Patienten gebeugt wird und/oder die Gantry gekippt wird, sodass die Linsen außerhalb des Strahlengangs liegen. Zudem empfiehlt die SSK das Auflegen eines Augenlinsenprotektors. Alternativ dazu kann auch eine sogenannte Organdosismodulation (ODR) angewandt werden, bei die Strahlenintensität aus dem frontalen Winkelbereich reduziert wird oder gar keine direkte Strahlung aus diesem Segment in den Kopf des Patienten eintritt. Dadurch kann nach der Publikation Dose reduction to anteriorsurfaces with organ-based tube-current modulation: evaluation of performance in a phantom study (Duan et al., 2011) die Exposition um 50% reduziert werden, was ungefähr dem gleichen Dosiseinsparpotential von Linsenprotektoren entspricht.

    Während die Organdosismodulation beim Hirnschädel-CT noch gleichwertig zu Linsenprotektoren ist, kann sie im Bereich der Schilddrüse und der Brust effizienter sein, da sie keine Artefakte im CT erzeugt und somit keinen Einfluss auf die Bildqualität hat, solange der ausgesparte Winkelbereich nicht zu einem signifikanten Datenverlust führt.

    Schematische Darstellung der Organdosismodulation. Aus dem frontalen Winkelbereich trifft keine Strahlung auf den Patienten oder der Röhrenstrom wird reduziert, sodass oberflächennahe Organe geschont werden können. Für die Linsen reicht ein geringes Segment (dunkelblau), für die Brust oder die Schilddrüse wird ein größerer Winkelbereich benötigt.
    Schematische Darstellung der Organdosismodulation. Aus dem frontalen Winkelbereich trifft keine Strahlung auf den Patienten oder der Röhrenstrom wird reduziert, sodass oberflächennahe Organe geschont werden können. Für die Linsen reicht ein geringes Segment (dunkelblau), für die Brust oder die Schilddrüse wird ein größerer Winkelbereich benötigt.

    Bei der Anwendung der Organdosismodulation müssen zwei Parameter, die relative Dosisreduzierung und der Winkelbereich definiert werden. Zur Schonung der Linsen genügt ein Segment von ca. 72°, bei Thorax-Scans hat sich ein Bereich von ca. 154° bewährt (Masatake Nukui, GE Organ Dose Modulation). Der optimale Winkelbereich ist letztendlich abhängig von der jeweils individuellen Patientenanatomie und kann im Topogramm vor dem Scan definiert werden.

    Artefakte

    Artefakte bezeichnen unerwünschte Fehler im rekonstruierten Bild, die ihren Ursprung nicht im gescannten Objekt haben. Die wichtigsten Artefakte der Computertomographie, deren Ausgangspunkte sehr vielfältig sind, und mögliche Korrekturmöglichfaktoren werden in diesem Kapitel vorgestellt.

    Bewegungsartefakte

    Natürliche Bewegungen wie die Atmung, der Herzschlag oder die Motilität von Magen und Darm führen zu Artefakten.

    Bei der Atmung vergrößert und verkleinert sich der Brustraum periodisch, wodurch insbesondere die Lunge, das Zwerchfell, die Leber und der Brustkorb in ständiger Bewegung sind. Wird in den Bauch geatmet, erweitert sich der Bereich betroffener Organe entsprechend. Durch die Bewegung werden die Übergänge zwischen zwei Geweben verschmiert dargestellt. Bewegt sich eine Struktur während des Scans in Richtung der Rotationsachse kann das zusätzlich zur sogenannten Zähnelung einer Struktur führen.

    Durch den Herzschlag entstehen sogenannte Pulsationseffekte, die zur unscharfen Abbildung des Herzens, der herznahen Gefäße (z.B. Aorta) und Organen (z.B. Lunge) führen können. Wie bei der Atmung kann auch hier eine Zähnelung des Herzens auftreten.

    Darstellung einer periodischen Zähnelung der Leber: Während der Patient gescannt wurde, hat er eingeatmet. Die Leber wird in den Bauchraum gedrückt und die Leberspitze in mehreren Projektionsebenen erfasst.

    Dank fortlaufender Optimierung der Computertomographietechnik und Einführung der Mehrzeilendetektoren konnte die Rotationszeit moderner System reduziert werden (bis zu 0,25 Sekunden pro 360°) bei gleichzeitiger Erhöhung der Tischvorschubgeschwindigkeit. Kurze Scanzeiten ermöglichen sogenannte Gating-Techniken, die entweder während des Scans (prospektiv) oder nach dem Scan (retrospektiv) zur Behebung der Artefakte genutzt werden. Um atmungsbedingte Artefakte prospektiv zu vermeiden, bekommt der Patient akustische Atemkommandos, sodass er während des Scans die Luft anhält und dadurch eine statische Anatomie erzeugt. Analog wird das Kardio-CT immer nur während einer bestimmten Phase des Herzzyklus fortgesetzt. Für die nachträgliche Korrektur der Bilder wird während des Scans der Ursprung der Bewegung (die Atmung z.B. mit einem Spirometer oder Brustgurt und der Herzzyklus mit einem EKG) erfasst und anschließend eine phasenbasierte Selektion der Daten vorgenommen.

    Neben den natürlichen periodischen Bewegungen können bei unkooperativen oder erkrankten (z.B. Parkinson) Patienten willkürliche Bewegungen während des Scans zu Artefakten führen, die je nach Geschwindigkeit ebenfalls verschmiert über dem Bild dargestellt werden. Die Korrektur solcher unerwarteten komplexen Bewegungen ist allerdings quasi unmöglich.

    Aufhärtungsartefakte

    Niederenergetische Photonen werden von Materialien, insbesondere von solchen mit einer hohen Ordnungszahl, stärker absorbiert, als höherenergetische Photonen. Befin-det sich im gescannten Objekt ein sehr dichtes Material verschiebt sich das Intensitätsmaximum des Energiespektrums durch energieabhängige Absorptionswahrscheinlichkeiten (niederenergetische Photonen werden herausgefiltert) zu höheren Energien. Die Strahlaufhärtung (engl. Beam-Hardening) bezeichnet also eine Erhö-hung der durchschnittlichen Photonenenergie eines Strahls. Wird die durchschnittlich gemessene Energie überschätzt bzw. die Absorption unterschätzt, resultieren daraus z.B. Streifenartefakte oder ein scheinbar radial vom Zentrum ausgehender Anstieg der Dichte („Cupping“-Artefakt).

    Computertomographen, die solche Artefakte gänzlich vermeiden können, benötigten energieauflösende Detektoren. Diese existieren (bislang) allerdings nur als Prototypen (s. Dual-Energy-CT)

    Leichter Beam-Hardening-Effekt: Im Rand des Phantoms liegt der Wert bei 110 HU und die mittlere Standardabweichung bei 12,6 HU. Im Zentrum beträgt der Wert 107 HU mit einer Standardabweichung von 23,1 HU. In den äußeren Bereichen ist die Photonenstatistik deutlich besser.
    Leichter Beam-Hardening-Effekt: Im Rand des Phantoms liegt der Wert bei 110 HU und die mittlere Standardabweichung bei 12,6 HU. Im Zentrum beträgt der Wert 107 HU mit einer Standardabweichung von 23,1 HU. In den äußeren Bereichen ist die Photonenstatistik deutlich besser.

    Metfalllartefakte

    Metallartefakte können im klinischen Alltag, z.B. erzeugt durch künstliche Gelenke, sogenannte Totalendoprothesen (TEPS), relativ häufig beobachtet werden. Durch die stark erhöhte Dichte wird der Effekt der Strahlaufhärtung verstärkt und gleichzeitig steigt die Anzahl gestreuter Photonen. Zu große und/oder sehr dichte Metalle können zu vollständiger Absorption in bestimmten Detektorarealen führen (engl. photon starvation). Im Bild äußern sich diese Effekte durch Streifenartefakte in der Projektionsebene und einem erhöhten Rauschen.

    Zur Behebung dieser Artefakte verfügen moderne Computertomographen über die sogenannte Röhrenstrom-Modulation, bei der der Strom so angepasst wird, dass im gesamten Objekt ein konstantes Signal-Rausch-Verhältnis erreicht wird. Darüber hinaus existieren spezielle Metallartefaktrekonstruktionsalgorithmen, die die erzeugten Metallartefakte nachträglich unter bestimmten Umständen herausfiltern können.

    Korrekturversuch von schweren Metallartefakten als Folge beidseitiger Hüft-TEP mithilfe des O-MAR-Rekonstruktionsalgorithmus (Metal Artifact Reduction for Orthopedic Implants) von Philips.
    Korrekturversuch von schweren Metallartefakten als Folge beidseitiger Hüft-TEP mithilfe des O-MAR-Rekonstruktionsalgorithmus (Metal Artifact Reduction for Orthopedic Implants) von Philips.

    Eine weitere Möglichkeit besteht in der Drehung des Objekts nach dem ersten Scan und anschließender Fusion mit dem zweiten Scan. Das funktioniert, da die Streifenartefakte immer in der Projektionsebene auftreten. Wird das Objekt zum Beispiel um 90° um die x- oder y-Achse gedreht, werden die Artefakte in eine senkrecht liegende Bildebene verschoben. Durch die Fusion (und Gewichtung) der Scans können die Artefakte herausgemittelt werden. Da ein Patient im CT allerdings nur schlecht um diese Achsen gedreht werden kann und der zweite Scan zu einer erhöhten Exposition führen würde, ist diese Methode für den klinischen Alltag ungeeignet.

    Streustrahlungsartefakte

    Von den ursprünglich generierten Photonen erreichen nur wenige den gegenüberliegenden Detektor ohne eine einzige Wechselwirkung. Im menschlichen Gewebe dominiert für Röntgenstrahlung um 100 kV der Compton-Effekt, sodass ein Großteil der Photonen das zu scannende Objekt in abweichenden Richtungen verlassen können. Im schlimmsten Fall treffen die gestreuten Photonen in ein falsches Detektorelement und erzeugen dort eine Falschinformation. Um das zu verhindern werden Streustrahlenraster vor dem Detektor platziert, die auf den Fokus ausgerichtet sind. Die stark absorbierenden Lamellen sorgen dafür, dass gestreute Photonen nicht quer in den Detektor einfallen können und verhindern so Streustrahlungsartefakte (s.o. Streustrahlenraster).

    Partialvolumeneffekte

    Partialvolumeeffekte treten insbesondere dann auf, wenn in einem Voxel zwei Materialien mit unterschiedlichem Absorptionskoeffizienten nicht aufgelöst werden können. Ist bspw. die Schichtdicke eines Scans größer als das aufzulösende Objekt, wird ein gemittelter Absorptionskoeffizient dargestellt. Da für zwei Materialien jedoch

    I_\text{Real} = I_1 \cdot \exp^{-\mu_1\cdot d} + I_2 \cdot \exp^{-\mu_2\cdot d}\:\neq\: (I_1+I_2) \cdot \exp^{-1/2(\mu_1+\mu_2)\cdot d} = I_\text{Rekonstruktion}

    gilt, wird in dem „Misch-Pixel“ ein falscher Wert zugeordnet. Das führt insbesondere dazu, dass scharfe Übergänge kleiner Strukturen verschwommen dargestellt werden. Heutzutage sind die Schichtdicken in der Regel so klein, dass dieser Effekt nur selten auftritt.

    Trunkationsartefakte

    Kann das Objekt nicht vom gesamten Detektor abgebildet werden, die Projektionen also an den Rändern abgeschnitten werden, entstehen sogenannte Trunkationsartefakte. Im Bild äußern sich diese Artefakte durch helle Streifen an den abgeschnittenen Rändern, da diese quasi verantwortlich für die Absorption der Strukturen außerhalb des gescannten Bereits sein müssen und folglich vom Rekonstruktionsalgorithmus eine höhere Dichte zugeordnet bekommen. Zur Behebung der Artefakte können die Projektionsränder z.B. mithilfe eines virtuelles Wasserzylinders oder Symmetrieannahmen korrigiert werden.

    CT - Trunkationsartefakt
    CT-Bildgebung eines extrem adipösen Patienten, der nicht vom Detektor erfasst werden kann, was zur Erzeugung eines Trunkationsartefakts am rechten Bildrand geführt hat.
    CT - Trunkationsartefakt 2
    CT-Bildgebung eines extrem adipösen Patienten, der nicht vom Detektor erfasst werden kann, was zur Erzeugung eines Trunkationsartefakts am rechten Bildrand geführt hat.

    Da solche Artefakte von modernen CT-Scannern in der Regel automatisch korrigiert werden, haben wir den Effekt noch einmal künstlich provoziert. Dazu wurde ein Alderson-Phantom quer in ein CT mit großer Gantryöffnung geschoben und der Bildschirm vor der finalen Rekonstruktion abfotografiert (daher auch die schlechte Bildqualität). Das Artefakt am Rand des Scanbereichs ist deutlich zu erkennen.

    Erzeugung eines Trunkationsartefakt in einer Transversalschicht, indem ein Alderson-Phantom quer gescannt wurde. Links: Artefakte am rechten Bildrand in Richtung des Phantoms, das außerhalb des Scan-Bereich liegt. Rechts: Ergebnis nach der finalen Rekonstruktion ohne Trunkationsartefakt mit übrig gebliebenen Streuartefakten.
    Erzeugung eines Trunkationsartefakt in einer Transversalschicht, indem ein Alderson-Phantom quer gescannt wurde. Links: Artefakte am rechten Bildrand in Richtung des Phantoms, das außerhalb des Scan-Bereich liegt. Rechts: Ergebnis nach der finalen Rekonstruktion ohne Trunkationsartefakt mit übrig gebliebenen Streuartefakten.

    Ringartefakte

    Ringartefakte kennzeichnen sich, wie der Name bereits vermuten lässt, durch eine Alternation konzentrisch röntgendicht und –durchlässig erscheinend Ringformationen. Häufig treten diese Artefakte im Zentrum des Scanners auf und die Intensität nimmt radial nach innen zu. Durch die auffällige Struktur sind sie in der Regel sehr schnell erkennbar. Ursächlich für diesen Typ von Artefakten sind z.B. schlecht kalibrierte oder defekte Detektoren, eine ungenaue Ausrichtung der Röntgenröhre oder Temperatureinflüsse.

    Darstellung eines Ring-Artefaktes Im Zentrum des kreisrunden Körpers sind ringförmige Strukturen zu erkennen, deren Intensität radial nach außen abnimmt.
    Darstellung eines Ring-Artefaktes Im Zentrum des kreisrunden Körpers sind ringförmige Strukturen zu erkennen, deren Intensität radial nach außen abnimmt.

    Spezielle Anwendungen

    Kapitel in Arbeit ...

    Weiterführende Literatur

    1. Leitlinien der Bundesärztekammer zur Qualitätssicherung in der Computertomographie
    2. Buzug, Einführung in die Computertomographie: Mathematisch-physikalische Grundlagen der Bildrekonstruktion, 2004
    3. Bugby et al., A comparison of CsI:Tl and GOS in a scintillator-CCD detector for nuclear medicine imaging, 2016
    4. Slavic et al., Technology White Paper GSI Xtream on RevolutionTM CT, 2017
    5. Shefer et al., State of the Art of CT Detectors and Sources: A Literature Review, 2013
    6. Van Eijk, Inorganic Scintillators in Medical Imaging, 2002
    7. Duclos et al., Development of the HiLightTM scintillator for computed tomography medical imaging, 2003
    8. Vartuli et al. GE healthcare’s new computed tomography scintillator—gemstone. In: Presented at the 2008 symposium on radiation measurement and applications, 2008
    9. Fuchs et al., Direct comparison of a xenon and a solid-state CT detector system: measurements under working conditions, 2000
    10. Alkhadi et al., Wie funktioniert CT? Eine Einführung in Physik, Funktionsweise und klinische Anwendungen der Computertomographie, 2011
    11. Schlegel et al., Medizinische Physik: Grundlagen, Bildgebung, Therapie, Technik, 2018
    12. McCollough et al., Dual- and Multi-Energy CT: Principles, Technical Approaches, and Clinical Applications, 2015
    13. Schindera et al., Strategien zur Reduktion der CT-Strahlendosis, 2010
    14. Skornitzke, Iterative Verfahren zur Artefaktreduktion in der Computertomo-graphie, 2018
    15. Mehta et al., Iterative model reconstruction: simultaneously lowered computed tomography radiation dose and improved image quality, 2013
    16. Willemink et al., Computed tomography radiation dose reduction: effect of different iterative reconstruction algorithms on image quality, 2014
    17. Ernstberger et al., Computed tomography in multiple trauma, 2016
    18. Brink et al., Arm raising at exposure-controlled multidetector trauma CT of thoracoabdominal region: higher image quality, lower radiation dose, 2008
    19. May et al., Aktuelle Strategien zur Dosisreduktion in der Computertomographie, 2012
    Nach oben scrollen