Subscribe to RSS
DOI: 10.1055/s-2003-44531
© Georg Thieme Verlag Stuttgart · New York
„Virtual Reality” - Manipulierbare digitale Welten für die Medizin
Virtual Reality - Manipulable - Digital Worlds for MedicinAnschrift des Verfassers
Prof. Dr. Dr. Hans-Gerd Lipinski
Fachbereich Informatik, Fachhochschule Dortmund
Emil-Figge-Str. 42
44227 Dortmund
Publication History
Publication Date:
20 November 2003 (online)
- Zusammenfassung
- Summary
- Bilddaten und ihre Visualisierung
- Bildbearbeitung
- Räumliche Darstellungstechniken
- Simulationen und klinische Anwendungen
- Rechnersysteme
- Ausblick
- Danksagung
- Literatur
Zusammenfassung
Mit den modernen bildgebenden Verfahren der Radiologie (Computertomografie oder Magnetresonanztomografie) und geeigneter Bildverarbeitungs- und Grafik-Software lassen sich komplexe, realistische dreidimensionale Szenen von der Anatomie des Menschen und möglichen pathologischen Strukturen erzeugen. Diese Szenen vermitteln einen umfassenden Eindruck von den räumlichen Beziehungen zwischen Anatomie und pathologischer Struktur. Ärzte können in diesen virtuellen Räumen mit speziellen virtuellen Instrumenten - zum Beispiel Datenhelmen, Datenhandschuhen und Force-Feedback-Steuereinrichtungen - interaktiv agieren.
Sie können so anatomische oder pathologische Objekte virtuell bewegen, abschneiden oder entfernen. Sowohl für das chirurgische Training als auch für die Operationsplanung lassen sich diese Verfahren erfolgreich einsetzen.
#Summary
Highly complex realistic 3D-scenes of human anatomy and pathology as well can be created by recent radiologial imaging devices (computertomography, magnetic resonance imaging) and manipulated by image processing and graphical software. Such scenes allow for a comprehensive understanding of the spatial relationships of anatomy and pathological features. Physicians can use virtual reality instruments - for example head mounted devices, data gloves, and force feedback sticks - to operate interactively within these scenes. Anatomical objectes and pathological structures can virtually be touched, cut and removed. These techniques can be efficiently used for both surgical training and pre-operation planning.
Moderne bildgebende Verfahren, wie die Computertomografie (CT) und die Magnetresonanztomografie (MRT) erlauben einen Einblick in den lebenden Körper des Menschen, ohne dabei invasiv eingreifen zu müssen. Sie dokumentieren primär Biomaterialeigenschaften, wie etwa das Röntgenabsorptionsverhalten beim CT oder Relaxationszeiten bei der MRT. Bilderzeugung und -darstellung erfolgen dabei mithilfe eines Computers, der unverzichtbarer Bestandteil dieser Technologie ist.
Mit den erzeugten Daten lassen sich jedoch nicht nur ebene Bilder generieren, die auf einer Filmfolie - ähnlich einem konventionellen Röntgenbild - visualisiert werden. Vielmehr sind durch ihre gezielte Manipulation räumliche Illustrationen lebendiger anatomischer Objekte möglich, wobei die dafür notwendigen Darstellungsverfahren ständig weiterentwickelt werden. Zu diesen modernen Verfahren gehört auch die virtuelle Medizin. Sie nutzt die Technologien der virtuellen Realität für die Simulation und die Durchführung von Eingriffen in biologische Systeme zu diagnostischen und therapeutischen Zwecken.
#Bilddaten und ihre Visualisierung
Die Bilddaten lassen sich durch ein kompliziertes mathematisches Verfahren aus Werten berechnen, die außerhalb des Körpers gemessen werden. Sie werden so aufbereitet, dass sie auf einem Monitor dargestellt werden können. Die räumliche Anordnung der Bilddaten erfolgt in Form eines rechteckigen Gitters.
Jeder Knoten des Gitters entspricht dabei einem Bildpunkt - auch Bildelement oder Pixel genannt (abgeleitet aus dem Englischen „picture element”). Ein Pixel ist also durch seine Lage innerhalb des Gitters und durch seinen zahlenmäßigen Wert charakterisiert. Die Menge der Bildpunkte in ihrer rechteckförmigen Anordnung bezeichnet man auch als Bildmatrix.
Liegt die Bildinformation in Form von räumlichen Bildserien vor, wie sie üblicherweise mit den CT- und MRT-Geräten erzeugt werden, besitzen die Bilder grundsätzlich räumliche Informationen. Damit kann man die Information auch durch eine räumliche (also dreidimensionale) Bildmatrix darstellen. Die Bildpunkte innerhalb einer solchen Bildmatrix bezeichnet man als „Voxel” (abgeleitet aus dem Englischen „volume element”).
Im Allgemeinen sind 4096 (= 212) verschiedene Werte für ein Pixel bzw. Voxel möglich. In diesem Fall besitzt jedes Element der Bildmatrix einen Werteumfang von 12 Bit. Den Speicherbedarf einer Bildmatrix erhält man, wenn man die Anzahl der Bildpunkte mit dem Bit-Wert eines Bildpunktes multipliziert. Da insbesondere räumliche Bildmatrizen sehr viele Bildpunkte umfassen, benötigen sie im Allgemeinen auch einen sehr großen Speicherplatz im Computer. Dieser wird in Byte, Kilobyte oder Megabyte angegeben.
Da 8 Bit einem Byte entsprechen, sind in einem Grauwertbereich von 12 Bit zum Speichern eines Bildpunktes 1,5 Byte nötig. Diese Bytes lassen sich leicht in die Einheiten Kilobyte (1 kB = 210 Byte) bzw. Megabyte (1 MB = 210 kB = 220 Byte) umrechnen.
Für die Bilddarstellung („Visualisierung”) werden die Werte der Original-Bildmatrix in Grau- bzw. Farbstufen umgewandelt und auf einem Monitor dargestellt. Ein Grauwertbild benötigt hierzu 8 Bit pro Bildpunkt, ein Farbbild für jeden der drei Farbkanäle ebenfalls 8 Bit - insgesamt also 24 Bit. Da die Bildelemente in der Ausgangsbildmatrix mit 12 Bit aber einen viel größeren Wert als diese 8 Bit annehmen können, muss für die Visualisierung die Original-Bildmatrix manipuliert werden.
#Bildbearbeitung
Die Zahlenwerte innerhalb einer Bildmatrix lassen sich grundsätzlich beliebig verändern. Dieses nutzt man aus, um die ursprünglich 4096 möglichen Werte, die ein Bildpunkt in der Originalbildmatrix annehmen kann, auf die darstellbaren 256 (= 28) Grauwerte zu reduzieren. Jeder Bildpunkt besitzt dann nur noch einen Wertebereich von 8 Bit, also 256 Graustufen.
Die [Abbildung 1a]zeigt das Ergebnis einer einfachen linearen Reduktion der Bildelementwerte am Beispiel eines kranialen Computertomogramms. Der Originalwert von 4096 wird auf den Grauwert 255 reduziert, alle dazwischen liegenden Werte werden proportional dazu verringert. Der kleinste Grauwert (null) entspricht der Farbe „Schwarz”, der größte Grauwert (255) ist „Weiß” - alle anderen Werte werden grau abgestuft. Das Ergebnis ist ein Bild, das die Konturen des Schädelknochens zeigt. Das Hirngewebe hingegen kann jedoch so nicht visualisiert werden.
Berücksichtigt man jedoch die Grauwerte derjenigen Pixel, die das Hirngewebe repräsentieren, durch eine besondere Transformation, lässt sich eine visualisierbare Bildmatrix erzeugen, die auch die Weichteile gut darstellt [Abbildung 1b]. In diesem Fall ist nicht nur das Hirngewebe, sondern auch ein sich darin befindender Tumor gut zu sehen.
Mithilfe eines weiteren Bildverarbeitungsverfahrens lassen sich aus den möglicherweise vielen im Bild vorkommenden Objekten ausgewählte Objekte herausarbeiten. Diese so genannte „Segmentierung” des Bildes ermöglicht sowohl die Trennung von Objekt(en) und Hintergrund als auch von Objekten untereinander.
Ein besonders einfaches Verfahren hierzu ist die Binarisierung eines Bildes: Bei einem Binärbild ist von jedem Bildpunkt bekannt, ob er dem Hintergrund oder dem Objekt innerhalb des Bildes angehört (binäre Information). Grundlage hierfür ist der aktuelle Grauwert eines Bildpunktes. Ist der Hintergrund dunkel, das im Bild enthaltene Objekt hingegen hell, dann definiert man einen geeigneten Grauwert - oder auch Schwellwert -, der zwischen den für den Hintergrund bzw. das Objekt typischen Grauwerten liegt. Ist der Grauwert des betrachteten Bildpunktes kleiner als der Schwellwert, dann wird dieser Bildpunkt dem Hintergrund zugeordnet, größere Werte zählen damit als Objektbildpunkt.
Dies generiert zunächst eine binäre Bildmatrix, welche die logischen Werte „1” für die Zugehörigkeit zum Objekt und „0” für die Zugehörigkeit zum Hintergrund definiert. Diese Werte wiederum lassen sich dann in Zahlenwerte umwandeln, zum Beispiel die logische „0” in den Zahlenwert Null und die logische „1” in den Zahlenwert 255. Somit erhält man ein so genanntes Zweipegelbild, das aus zwei darstellbaren Grauwerten besteht.
Die [Abbildung 1c] zeigt das Ergebnis einer solchen Bildmanipulation. Im Zweipegelbild ist der kompakte Verlauf des Schädelknochens, aber auch der im Weichteilbereich liegende Tumor deutlich zu sehen. Offensichtlich hat die angewendete Bildsegmentierung einen „Hintergrund” erzeugt, der sowohl aus dem den Kopf des Patienten umgebenden Luftraum als auch dem gesunden Hirngewebe besteht, während Schädelknochen und Tumor dem Bildobjekt zugehören.
Betrachtet man noch lokale Eigenschaften von Schädelknochen und Tumor, sind diese beiden „Objekte” prinzipiell auch in zwei Teilobjekte zu trennen. Dies ließe sich durch Markieren des Tumorareals mit einem anderen Grauwert als dem des Schädelknochens visualisieren. Da nunmehr drei Grauwerte notwendig sind, zwei für die Objekte und einen für den Hintergrund, spricht man von einem Dreipegelbild.
Die Konturen oder Kanten des Objektes „Schädelknochen und Tumor” lassen sich durch den Unterschied von benachbarten Bildpunkten im Zweipegelbild ermitteln. Ausgehend von der [Abbildung 1c] verfolgen wir zeilenweise von links nach rechts den Wert benachbarter Bildpunkte. Sind diese gleich groß, so vermerken wir das in einer neuen Bildmatrix durch einen mittleren Grauwert, z.B. 128. Ist das rechte der jeweils betrachteten zwei Bildelemente größer als das linke, wird dies mit dem kleinstmöglichen darstellbaren Grauwert (0) festgehalten. Der größtmögliche Grauwert (255) dokumentiert den umgekehrten Fall. Auf diese Weise wird ein Dreipegelbild erzeugt, welches die Kontur der Objekte zeigt. Die Ergebnisse dieser „Kantendetektion” sind in der [Abbildung 1d] zu sehen.
Damit kann man nicht nur den Verlauf der Kanten darstellen, sondern erhält auch einen quasi räumlichen Eindruck des Verlaufs der Objekte Knochen und Tumor in Form eines Reliefs. Dies geschieht vor allem durch einen Pseudo-Beleuchtungseffekt, hervorgerufen durch die unterschiedlichen Grauwerte von äußeren und inneren Objektkanten. Mithilfe solcher künstlicher Licht- und Schatteneffekte sind auch in ebenen Bilddarstellungen dreidimensionale Effekte zu erzielen.
#Räumliche Darstellungstechniken
Viele digitale bilderzeugende Systeme generieren von vornherein räumlich orientierte Bilddaten. In der klinischen Praxis werden diese Daten derzeit überwiegend nur zweidimensional dargestellt. Für eine räumliche Visualisierung stehen grundsätzlich zwei verschiedene Methoden zur Verfügung: die Oberflächendarstellung und die Volumendarstellung.
#Gittermodelle
Bei der Oberflächendarstellung geht man in der Regel von einem binären Bilddatensatz aus. Bildschicht für Bildschicht werden die Oberflächenelemente, also die Kanten ausgewählter Objekte, aus den Daten gewonnen. Ein Netzwerk von Gitterlinien („wire frame”) verbindet dabei die korrespondierenden Oberflächenelemente. Jeweils vier benachbarte Knoten dieser Gitterlinien werden zunächst zu einem Quadrat verbunden. Eine Diagonale teilt dieses nochmals in zwei Dreiecke. Man bezeichnet dieses Verfahren auch als Triangulation.
Jedes der Dreiecke lässt sich mit einem bestimmten Grauwert versehen, dessen Größe von Richtung und Intensität einer virtuellen Beleuchtung abhängt. Sind Anzahl und Richtung der virtuellen Beleuchtungsquellen geschickt gewählt, erscheint das abgebildete Objekt insgesamt plastisch [Abb. 2]. Nebenbei sei erwähnt, dass solche Oberflächenmodelle auch stereoskopisch visualisiert werden können, sodass der Betrachter einen noch realistischeren räumlichen Eindruck gewinnen kann.
#Volumenmodelle
Zu den häufigsten Methoden zur Generierung von Volumenmodellen, die auf Bild-Voxeln basieren, gehören das „back-to-front” (bzw. „front-to-back”)-Verfahren, das „ray-casting”-Verfahren und das „voxelbased surface rendering”. Beim „back-to-front”-Verfahren wird zunächst eine virtuelle Bildebene festgelegt. Ausgehend vom am entferntesten liegenden Punkt werden alle Voxel bis zum nächstliegenden Punkt des dreidimensionalen Bildes durchlaufen. Dabei werden sie unter dem jeweiligen Beobachtungswinkel auf die virtuelle Bildebene projiziert.
Erfolgt das Durchlaufen der Bildpunkte in umgekehrter Richtung, dann spricht man vom „front-to-back”-Verfahren. Werden beim „back-to-front”-Verfahren mehrere Voxel gleichzeitig auf dieselbe Stelle der Beobachtungsebene projiziert, so ist aufgrund der gewählten Richtung sichergestellt, dass nur das oberflächennahe Voxel dargestellt wird. Beim „front-to-back”-Verfahren sind für diesen Fall einige zusätzliche Berechnungen notwendig.
Beim „ray-casting”-Verfahren gehen von den Punkten einer ausgewählten Beobachtungsebene virtuelle Suchstrahlen in Beobachtungsrichtung aus, bis sie ein darzustellendes Voxel erreichen. Berücksichtigt man bei der Visualisierung zusätzlich noch Reflexionen und Transmissionen, dann spricht man vom „ray-tracing”-Verfahren. Beim speziellen „voxel based surface renderning” werden die darzustellenden Objekte durch ihren ausgewählten Grauwertbereich festgelegt. Nachdem die Bildpunkte für die Beobachtungsebene ermittelt sind, müssen noch virtuelle Beleuchtungen vorgesehen werden, die sich an den Oberflächennormalen der ausgewählten Voxel orientieren. [Abbildung 3] zeigt zwei verschiedene Ansichten von Schädelausschnitten, die mit dieser Technik erstellt worden sind.
#Simulationen und klinische Anwendungen
Durch gezielte Ausblendung von Objektteilen in dreidimensionalen (3D) Szenen lassen sich für den Betrachter neue Einblicke in anatomische Zusammenhänge gewinnen. In der [Abbildung 4] ist der Schädel eines Patienten mit entferntem Schädeldach [Abb. 4a] und nach Ausschnitt des linken seitlichen Schädelteils [Abb. 4b] zu sehen. Erzeugt wurden diese Bilder mithilfe eines Oberflächen-Rekonstruktionsverfahrens. Dabei sind aber nicht nur Manipulationen unter visueller Kontrolle („optisches Feedback) an virtuellen anatomischen Objekten generierbar, sondern auch interaktive Manipulationen, die dem Anwender einen mechanischen Eindruck vom Eingriff vermitteln („haptisches Feedback”).
[Abbildung 5] zeigt das Ergebnis einer virtuellen Schädeltrepanation auf der Basis von CT-Bilddaten. Durch entsprechende Vorverarbeitungen können Bildinformationen über die räumliche Lage von Weichteilen und Knochen im Bereich des Schädels gewonnen werden. Da alle Bildinformationen durch ein Koordinatensystem zu lokalisieren sind, kann man auch den Ort des Eingriffs festlegen. Danach erfolgt der simulierte Eingriff.
Ein virtueller Bohrer, der durch den Einsatz eines Force-Feedback-Steuergeräts (FF-Stick) realisiert wird, vermittelt dem Anwender ein mechanisches Gefühl für den virtuellen Bohrvorgang. Der FF-Stick erzeugt beim Durchdringen der Schädelhaut und des darunter liegenden Fettgewebes nur einen geringen mechanischen Widerstand. Trifft der virtuelle Bohrer dagegen auf die Knochenstruktur, erhöht sich dieser Widerstand sprunghaft. Dringt der Bohrer dann in das Schädelinnere ein, sinkt dementsprechend der mechanische Widerstand, der auf das Bohrgerät wirkt. Skalieren lassen sich die mechanischen Widerstände des FF-Sticks anhand von Erfahrungen, die man bei realen Trepanationen gewonnen hat. Auf diese Weise gelingt es, einen realistischen Trainingssimulator für Schädeltrepanationen einzurichten.
Eine solche Simulation kann man nicht nur im Bereich von Knochenstrukturen, sondern auch an Weichteilen - wie im Bereich der Wirbelsäule und des Rückenmarks [Abb. 6] durchführen. Hier werden die verschiedenen anatomischen Objekte in CT-Bildern getrennt segmentiert und in einem Oberflächenmodell zusammengefasst. In [Abbildung 6a] erkennt man die Region des simulierten Eingriffs im Überblick, [Abbildung 6b] zeigt das Operationsareal vergrößert. Auch das virtuelle Operationsinstrument ist eingeblendet.
Mittlerweile sind nicht nur Simulationen mit starren Objekten möglich, plastische und elastische Eigenschaften von Geweben lassen sich heute ebenfalls nachstellen. So kann man benachbarte Bildpunkte virtuell durch Federn miteinander verbinden, welche die gleichen mechanisch-elastischen Eigenschaften wie ein reales Gewebe haben. Trennt man das Gewebe virtuell, werden die jeweiligen Federn „gekappt” und die daraus resultierende Verformung des Gewebes kann dann ebenfalls visualisiert werden. Auf diese Weise lässt sich auch ein Weichteileingriff simulieren.
Für die Simulationen wird natürlich ein spezielles Instrumentarium („Cyberlab”) benötigt. Neben den üblichen Monitoren, die auch für den konventionellen Computereinsatz verwendet werden, kommen im Cyberlab spezielle Datenhelme bzw. Datenbrillen zum Einsatz. Die Steuerungen von Eingriffen lassen sich im Rahmen von Laborsystemen mithilfe von Force-Feedback-Sticks durchführen, zusätzliche Interaktionen sind mit Datenhandschuhen möglich. Fingerbewegungen erzeugen hierbei die Steuerbefehle.
Optisches und haptisches Feedback wird nicht nur im Rahmen von Simulationen oder im Rahmen eines Trainingsprogramms eingesetzt, sondern auch schon für eine reale Operationsplanung und -durchführung - vor allem in der Knochen- bzw. Kieferchirurgie, Herzchirurgie, Neurochirurgie, Leberchirurgie und der Endoskopie. Die dabei verwendeten Modelle können rein virtuell oder durch reale Modelle gegeben sein, die auf der Basis von Bilddaten gewonnen werden. Werden die Objekte einer virtuellen Realität mit realen Objekten bei der Visualisierung überlagert, was mit speziellen Datensichtgeräten („See-through-Brille”) möglich ist, so spricht man auch von erweiterter Realität („augmented reality”).
Eine andere Möglichkeit der Umsetzung von virtueller in „wirkliche” Realität ist das „rapid prototyping”. Hiermit lassen sich Organmodelle aus den Koordinaten segmentierter Objekte gewinnen. Diese Daten werden mithilfe einer speziellen Fertigungstechnik („Laserstereolithografie”) in ein Kunstharzmodell überführt. So lassen sich Organe, für die ein chirurgischer Eingriff geplant ist, separat real modellieren. Anschließend kann die Intervention anhand des Modells geplant werden. Auch über den Einsatz von Robotern können die virtuellen Welten mit der realen Welt in Verbindung treten.
#Rechnersysteme
In den letzten Jahren hat sich insbesondere die Personal-Computer(PC)-Technologie rasant weiterentwickelt. Inzwischen werden für die Bildverarbeitungssysteme zunehmend PCs eingesetzt, sie weisen mittlerweile ein hervorragendes Preis-Leistungsverhältnis auf. Da die Bildverarbeitung im Bereich der virtuellen Realität sehr rechenintensiv ist, sind jedoch leistungsstarke Computer notwendig. Die Leistung einzelner PCs kann durch eine Verknüpfung mehrerer Rechner über ein lokales oder unter Umständen auch weltweites Netzwerk ernorm gesteigert werden.
Dabei werden bestimmte Rechenaufgaben von einem zentralen PC („Server”) auf verschiedene andere PCs verteilt („distributed computing”). Sind die Teilaufgaben der einzelnen Rechner beendet, fasst der Server die Resultate zusammen und stellt diese zum Beispiel bildlich dar. Hervorragend bewährt hat sich diese Technik beispielsweise bei der Farbbildverarbeitung. In diesem Fall reichen vier Rechner aus, um sehr effektiv zu arbeiten: Drei PCs führen für jeden der drei Farbkanäle (Rot, Grün, Blau) getrennt die jeweilige Bildverarbeitung durch, während der vierte PC die Rechenprozesse koordiniert und die Teilergebnisse zusammenführt. Viele weitere grafische und Bildverarbeitungsaufgaben kann man ebenfalls auf verschiedene Computer verteilen. So lassen sich rechenintensive und zugleich zeitkritische Datenverarbeitungsprozesse, wie sie in der virtuellen Medizin ständig vorkommen, optimieren.
Eine besonders interessante neue Hardware-Entwicklung sind die mobilen Endgeräte, wie „Personal Digital Assistants” (PDA), Pocket-PCs, Smartphones und mobile Telefone. Sie erlauben quasi überall und ohne großen Aufwand den Einsatz von Datenverarbeitung. Zwar sind sie in ihrer Rechenleistung und ihrer grafischen Darstellungskapazität (noch) relativ beschränkt. Eine Vernetzung, die auch drahtlos erfolgen kann (z.B. Bluetooth-Technologie), kann diese Einschränkungen jedoch weitgehend beheben [Abb. 7].
Mittlerweile eignen sich diese Systeme nicht nur für die Textbearbeitung, sondern erlauben bereits schon eine bescheidene dreidimensionale Bildverarbeitung und damit eine primitive virtuelle Medizin. Die [Abbildung 8] zeigt die Darstellung eines Röntgenbildes (Ventrikulogramm), welches auf einem PDA bearbeitet wird. Es ist Teil eines Simulationsprogramms für einen stereotaktischen Eingriff zur Therapie zentralmotorischer Störungen, welches auf mobilen Komponenten durchgeführt wird. Insbesondere im Bereich von Ausbildung und Training werden die mobilen Systeme zukünftig eine wichtige Rolle im Rahmen der virtuellen Medizin spielen.
#Ausblick
Die virtuelle Medizin steckt noch in den Anfängen. Viele Entwicklungen sind rein theoretisch, nur einige wenige werden bereits klinisch-experimentell getestet. Wesentliche Fortschritte sind in der Computertechnologie zu erwarten: Rechner werden bei relativ konstantem Preis zunehmend schneller und leistungsfähiger und damit für die virtuelle Medizin brauchbarer. Andererseits werden auch die Visualisierungstechniken immer realitätsnäher.
Simulationen an starren Körpern, wie etwa am Knochen, sind jetzt schon relativ einfach zu realisieren. Etliche Anwendungen befinden sich daher bereits in der klinischen Erprobung. Weitgehend ungelöst sind jedoch noch die biomechanischen Probleme, die sich bei der Simulation von Weichteileingriffen ergeben. Hier besteht noch ein großer Forschungsbedarf.
Ob die virtuelle Medizin zukünftig einen wichtigen Stellenwert in der Patientenversorgung einnehmen wird, hängt - neben der Akzeptanz dieser Technologien durch die Ärzte - entscheidend davon ab, ob es gelingen wird, die Komplexität von Anatomie und biomechanischer Funktion im Computer abzubilden und dieses dem Anwender mithilfe geeigneter Interaktionsgeräte auch zugänglich zu machen. Damit ist und bleibt die virtuelle Medizin eine große Herausforderung für die Medizininformatik.
#Danksagung
Für die freundliche Überlassung des Bildmaterials danke ich meinen Mitarbeitern Dipl.-Inf.(FH) Kai Annacker, Dipl.-Inf.(FH) Michael Kroll, B.Sc. Robert Mahnke, Dipl.-Inf.(FH) Kay Melzer, Dipl.-Inf.(FH) Alexander Roth und Dipl.-Inf.(FH) Andreas Schröter.
#Literatur
- 1 Haux R, Kulikowski C. Yearbook of Medical Informatics. Stuttgart: Schattauer Verlag. 2002;
- 2 Kroll M, Lipinski H-G, Melzer K. Mobiles Computing in der Medizin. GI-Edition P 27, Lecture Notes in Informatics. Bonn. 2003;
- 3 Lehmann TM, Meyer zu Bexten T. Handbuch der medizinischen Informatik München. Hanser Verlag. 2002;
- 4 Lemke HU. et al. . CARS 2003. Computer Assisted Radiology and Surgery. Propceedings of the 17th International Congress and Exhibition. Elsevier, Amsterdam. 2003;
- 5 Wittenberg T. et al. . Bildverarbeitung für die Medizin 2003. Algorithmen, Systeme, Anwendungen. Berlin: Springer Verlag. 2003;
Anschrift des Verfassers
Prof. Dr. Dr. Hans-Gerd Lipinski
Fachbereich Informatik, Fachhochschule Dortmund
Emil-Figge-Str. 42
44227 Dortmund
Literatur
- 1 Haux R, Kulikowski C. Yearbook of Medical Informatics. Stuttgart: Schattauer Verlag. 2002;
- 2 Kroll M, Lipinski H-G, Melzer K. Mobiles Computing in der Medizin. GI-Edition P 27, Lecture Notes in Informatics. Bonn. 2003;
- 3 Lehmann TM, Meyer zu Bexten T. Handbuch der medizinischen Informatik München. Hanser Verlag. 2002;
- 4 Lemke HU. et al. . CARS 2003. Computer Assisted Radiology and Surgery. Propceedings of the 17th International Congress and Exhibition. Elsevier, Amsterdam. 2003;
- 5 Wittenberg T. et al. . Bildverarbeitung für die Medizin 2003. Algorithmen, Systeme, Anwendungen. Berlin: Springer Verlag. 2003;
Anschrift des Verfassers
Prof. Dr. Dr. Hans-Gerd Lipinski
Fachbereich Informatik, Fachhochschule Dortmund
Emil-Figge-Str. 42
44227 Dortmund