Einsatz von Neuronalen Netzen in der Elektronenholographie

 

 

Dissertation

Zur Erlangung des Grades eines Doktors

der Naturwissenschaften

an der Fakultät für Physik

der Eberhard-Karls-Universität zu Tübingen

 

 

 

 

 

Vorgelegt von

Eduard Heindl

aus Mühldorf am Inn

2001


 

 

 

 

 

 

 

 

 

 

 

 

 

 

Selbstverlegt von :                    Eduard Heindl, Wildermuthstr 28, 72076 Tübingen

Tag der Mündlichen Prüfung:    11. Mai 2001

Dekan:                                                Prof. Dr. Gerhard J. Wagner

1. Berichterstatter:                    Prof. Dr. Hannes Lichte

2. Berichterstatter:                    Prof. Dr. Dieter Kern


Inhalt

1   Überblick.................................................................................................. 1-9

2   Vorwort................................................................................................... 2-10

2.1      Der Weg zum Thema...................................................................... 2-10

3   Technik der Elektronenholographie im Transmissions-Elektronenmikroskop (TEM).................................................................................................................... 13

3.1      Problematik des Auflösungsvermögens............................ 13

3.1.1          Das menschliche Auge................................................................. 13

3.1.2          Elektronenoptisches Limit....................................................... 15

3.1.3          Stand der Technik......................................................................... 16

3.2      Bildentstehung im Elektronenmikroskop....................... 16

3.2.1          Die elastische Streuung der Elektronen........................... 17

3.2.2          Die Phasenverschiebung des Elektrons.............................. 19

3.2.3          Die inelastische Streuung der Elektronen....................... 20

3.3      Der Abbildungsprozess.................................................................. 21

3.3.1          Einfluß der Bildfehler auf das aufgezeichnete Bild... 22

3.4      Holographie........................................................................................ 24

3.4.1          Allgemeines Prinzip...................................................................... 24

3.5      Rekonstruktion der komplexen Welle............................... 25

3.5.1          Optische Rekonstruktion.......................................................... 26

3.5.2          Numerische Rekonstruktion von Standardhologrammen    26

3.5.3          Probleme bei der Seitenbandrekonstruktion................. 27

Mindestabstand des Seitenbands von der Autokorrelation............................................. 27

Kanalkapazität des Hologramms................................................................................ 27

Problem der Glasfaserankopplung.............................................................................. 28

Wahl der Blendenfunktion für die Seitenbandmethode.................................................. 29

Übersprechen der Streaks aus der Autokorrelation...................................................... 30

Informationsverlust durch Verwerfen der Autokorrelationsinformation.......................... 31

3.6      Phase-Shift Hologramme............................................................. 32

3.6.1          Technische Realisierung der Phasenverschiebung....... 32

Shift mit Piezostellelement......................................................................................... 33

Elektronische Shift.................................................................................................... 33

Thermische Shift....................................................................................................... 33

3.6.2          Mathematische Problemanalyse........................................... 33

3.6.3          Analytisches Auswerteverfahren....................................... 34

4   Fourier-Elektronenmikroskop..................................................... 35

4.1      Hintergrund des Verfahrens..................................................... 35

4.2      Meßprinzip............................................................................................. 36

Beschreibung der Signale........................................................................................... 37

4.3      Technischer Aufbau........................................................................ 40

4.3.1          Anmerkung zur verwendeten Optik..................................... 41

4.4      Abtastvorgang.................................................................................. 42

4.4.1          Scannen mit zwei Biprismen...................................................... 42

4.4.2          Scannen mit einem Biprisma und Steuerung des Linsenstroms          42

4.5      Kontrastentstehung..................................................................... 43

4.5.1          Kontrastentstehung mit Elektronendetektoren........ 43

4.5.2          Kontrastentstehung mit Röntgendetektoren............... 43

4.6      Grenzen der Auflösung................................................................. 43

5   Neuronale Netze..................................................................................... 45

5.1      Historische Anmerkungen.......................................................... 45

5.2      Funktionsweise des Trainings.................................................... 46

5.2.1          Was ist ein Netz............................................................................... 48

5.2.2          Eingabe- und Ausgabedatenraum.......................................... 48

5.3      Netzklassen......................................................................................... 48

5.3.1          Kohonenkarten............................................................................. 49

Aufbau..................................................................................................................... 49

Trainingsmethode...................................................................................................... 50

Datenauswertung...................................................................................................... 52

5.3.2          Feedforward-Netze mit Backpropagation........................ 52

Mathematische Formulierung des feedforward-Netzes................................................ 52

Aufbau..................................................................................................................... 53

Trainingsmethode...................................................................................................... 54

Trainingsaufwand...................................................................................................... 55

Datenauswertung...................................................................................................... 55

6   Auswertung von Hologrammen..................................................... 56

6.1.1          Auswertung mit Kohonen-Karten......................................... 56

Daten zur Kohonenkarte............................................................................................ 56

Training der Kohonenkarte........................................................................................ 56

Auswertung von Daten mit der Kohonenkarte............................................................. 57

6.1.2          Fehlergrenzen................................................................................ 57

Auswertegenauigkeit................................................................................................. 59

Auswertebeispiel....................................................................................................... 60

6.1.3          Optimales Verfahren................................................................... 61

6.2      Standard Hologramme................................................................. 61

6.2.1          Betrachtung als Phase-Shift-Hologramme....................... 62

Räumliche Korrelation in der Bild- und Objektwelle..................................................... 62

Bestimmung der optimalen Interferenzstreifen............................................................. 63

6.2.2          Rekonstruktion im Ortsraum mit dem Simplex-Algorithmus 63

6.2.3          Auswertung mit feedforward-Netzen................................. 64

Generation von Trainingsdaten................................................................................... 65

Training des Netzes................................................................................................... 66

Welche Informationen nutzt das trainierte Netz........................................................... 66

Auswertung von Testhologrammen............................................................................ 69

Auswertung von hochauflösenden Hologrammen........................................................ 71

Analyse der Auswertung........................................................................................... 74

6.3      Optimale Rekonstruktion.......................................................... 74

6.3.1          Minimieren des Auswertefehlers........................................... 75

6.3.2          Fehlerfunktion E analytisch minimieren.......................... 76

Analytische Berechnung der wahrscheinlichsten Bildwelle........................................... 76

Bestimmung der Gewichte......................................................................................... 78

Bestimmung der Phase.............................................................................................. 79

Bestimmung der Amplitude........................................................................................ 80

6.3.3          Auswertung mit dem optimalen Verfahren...................... 80

6.4      Vergleich der Verfahren............................................................ 81

Rekonstruktion im Seitenband.................................................................................... 81

Neuronale Netze....................................................................................................... 82

Analytische Rechnung im Ortsraum........................................................................... 82

7   Bildfehlerkorrektur........................................................................ 83

7.1      Das Prinzip der Diffraktometrie............................................. 83

7.2      Datenreduktion in den Diffraktogrammen..................... 84

7.2.1          Berechnung der Radialabhängigkeit (Circlescan)....... 85

7.2.2          Projektion in ein Basissystem.................................................. 85

7.3      Das neuronale Netz zum Auswerten der Datensätze... 86

7.4      Die Trainingspattern...................................................................... 86

7.5      Analyse der Auswertefehler.................................................... 87

8   Allgemeiner Ansatz bei der Auswertung................................. 89

8.1      Messung der Bewegungssignale............................................... 90

8.2      Analyse von Fingerbewegungen............................................... 90

8.2.1          Aufbau der Messung..................................................................... 91

8.2.2          Auswertung der Daten............................................................... 92

8.3      Untersuchungsmethode für Gleichgewichtsstörungen       94

8.3.1          Der Stehversuch............................................................................ 94

8.3.2          Der Tretversuch............................................................................ 94

8.3.3          Meßmethode..................................................................................... 95

8.3.4          Datenerhebung.............................................................................. 95

8.3.5          Klassische Datenauswertung................................................. 95

8.4      Analyse der "klassischen" Bewegungsdaten mit einem neuronalen Netz       96

8.4.1          Training der Netze........................................................................ 97

8.4.2          Beurteilung der Auswertung.................................................. 99

8.5      Bewegungsmodell für den Tretversuch............................ 99

8.5.1          Vorverarbeitung der Daten.................................................. 101

8.5.2          Analyse der Bewegungsdaten im Phasenraum mit einem neuronalen Netz       102

8.5.3          Beurteilung des Resultats..................................................... 103

9   Ausblick.................................................................................................... 107

10   Ergebnisse und Zusammenfassung............................................. 109

11   Anhang...................................................................................................... 110

12   Literatur................................................................................................ 111

13   Lebenslauf............................................................................................. 124

 


 

Teile dieser Arbeit wurden an folgenden Stellen bereits vorab veröffentlicht:

Computer Signal Processing, Bern [HEI95c]

DGE Leipzig [HEI95],[HEI95b]

Dreiländertagung Regensburg [HEI97a], [HEI97b]

Dreiländertagung Zürich [HEI93c]

EUREM96 Dublin [HEI96c], [HEI96d], [LIC96d]

Hannover Messe [HEI96b]

ICEM Paris [HEI94]

Interdisciplinary Workshop Würzburg [HAH95]

Journal of Hand Surgery [HAH96]

Journal of Microscopie [HEI98]

Patent Fouriermikroskopie [HEI93b], [HEI97]

Technische Rundschau [HEI96]

Ultramicroscopie, Bildverzerrung [LIC96c]

Ultramicroscopie, Phase-Shift [HEI96e]

(Vollständige Zitate siehe Literaturangaben)

1                  Überblick

Die Arbeit untersucht die Einsatzmöglichkeiten von neuronalen Netzen bei der Auswertung von Elektronenhologrammen. Dazu wird zuerst eine Einführung in die Bildentstehung im Elektronenmikroskop und den speziellen Verfahren der Aufzeichnung von Elektronenhologrammen gegeben. Dabei werden Fragen der Auflösung und alternativer Aufzeichnungsverfahren erläutert. Insbesondere werden jene Punkte genauer betrachtet, die für den Einsatz der neuronalen Netze eine wichtige Rolle spielen

Daran schließt sich ein Überblick zur Funktionsweise von neuronalen Netzen an. In diesem Abschnitt werden die beiden Netztypen, Kohonenkarte und feedforward-Netze, die für die Auswertung der einzelnen Fragestellungen eingesetzt werden, kurz besprochen.

Als erstes wurde untersucht, inwieweit der Rekonstruktionsprozess der Elektronenhologramme ohne Fouriertransformation möglich ist. Dazu wurden verschiedene Verfahren zur Rekonstruktion im Ortsraum analysiert. Dies beginnt mit der Auswertung von Phase-Shift Hologrammen mit neuronalen Netzen.

Anschließend wird die Rekonstruktion von Standardhologrammen im Ortsraum mit feedforward-Netzen untersucht. Dabei gilt das Augenmerk den Informationsquellen des Netzes. Darauf aufbauend wird ein analytisches Auswerteverfahren entwickelt.

Für die Bildfehlerkorrektur der Aufnahmen ist es notwendig, daß die genauen Parameter der Bildaufzeichnung bekannt sind. Um diese zu ermitteln, wird die Auswertung von Diffraktogrammen genutzt. Der Einsatz von neuronalen Netzen zur Auswertung dieser Diffraktogramme mit der dazu notwendigen Datenvorverarbeitung wird gezeigt und das Resultat besprochen.

Abschließend führt eine Verallgemeinerung der Analyse von periodischen Meßdaten mit neuronalen Netzen zu einem neuen Ansatz für Bewegungsanalysen aus dem medizinischen Bereich. Dabei ist es ebenfalls möglich, mit den gleichen Auswerteverfahren aus der Elektronenholographie, einer Abtastlänge im Periodenbereich, quantitative Aussagen über die Bewegungen zu erhalten. Dies wird an zwei konkreten Beispielen, Fingerbewegung und Tretbewegung, gezeigt.

2                  Vorwort

Überlege dir nun, fuhr ich fort, wie es wäre, wenn sie von ihren Fesseln befreit und damit auch von ihrer Blindheit geheilt würden; da müßte ihnen doch naturgemäß folgendes widerfahren: Wenn einer aus den Fesseln gelöst und genötigt würde, plötzlich aufzustehen, den Hals zu wenden, zu gehen und gegen das Licht zu schauen, und wenn er bei all diesem Tun Schmerzen empfände und wegen des blendenden Glanzes jene Dinge nicht recht erkennen könnte, deren Schatten er vorher gesehen hat - was meinst du wohl, daß er antworten würde, wenn ihm jemand erklärte, er hätte vorher nur gesehen, jetzt aber sei er dem Seienden näher und so, dem eigentlicher Seienden zugewendet, sehe er richtiger? Und wenn der ihm dann ein jedes von dem Vorüberziehenden zeigte und ihn fragte und zu sagen nötigte, was das sei? Meinst du nicht, er wäre in Verlegenheit und würde das, was er vorher gesehen hat, für wahrer (wirklicher) halten als das, was man ihm jetzt zeigt? - Für viel wahrer (wirklicher), erwiderte er.

Platon, Der Staat [PLA73]

Je tiefer die Physik in die Struktur der Materie eindringt, dabei die vertraute Sinnenwelt der Menschen verläßt, Unbegreifliches, Unanschauliches zutage gefördert, um so mehr müssen wir uns auf Bilder, Modelle und mathematische Formalismen verlassen.

Klassische Modellbildung

Waren mathematische Modelle formal exakt, so beginnt mit der Anwendung von Methoden, die sich aus dem Bereich der Biologie ableiten, eine weitere Entfernung von beweisbar exakten Verfahren. Dies muß jedoch keineswegs bedeuten, daß neuronale Netze und genetische Algorithmen nicht mathematisch beschreibbar und die Resultate für eine weitere naturwissenschaftliche Verwertung nicht sinnvoll einsetzbar wären.

In der vorliegenden Arbeit werden Lösungen für Fragestellungen aus dem Bereich der Elektronenholographie dargelegt, die auf dem Einsatz von neuronalen Netzen beruhen.

Dazu wird zuerst ein Überblick zum Stand der Entwicklung von künstlichen neuronalen Netzen (ANN[1]) geliefert, anschließend die Fragestellung aus der Elektronenholographie erläutert, danach wird auf konkrete Beispiele aus der Anwendung von ANN zu diesen und ähnlichen Fragestellungen eingegangen. Die Arbeit schließt mit einer Betrachtung über den Erfolg der untersuchten Methoden.

2.1          Der Weg zum Thema

Jede Arbeit hat ihre Vorgeschichte, ihre Umwege und spezielle Entwicklung, die hier kurz geschildert werden soll, damit einerseits der Inhalt besser zugänglich wird, andererseits aber auch, um einen Eindruck von der Problemlösestrategie eines menschlichen neuronalen Netzes zu erhalten.

Die Rolle des Öffnungsfehlers im Mikroskop

Das Auflösungsvermögen eines Elektronenmikroskopes ist durch seinen Öffnungsfehler begrenzt. Das bedeutet: die Information in einem Bild ist über einem gewissen Bereich verschmiert. Um auf das Objekt zu schließen, benötigt man daher immer aus einer gewissen Umgebung um jeden interessanten Bildpunkt[2] Information [LAN96]. In der Praxis der Elektronenholographie bedeutet dies, daß das Hologramm mit einer möglichst hohen Anzahl an Bildpunkten aufgezeichnet werden sollte. Dies erfolgt bisher meist mit einer CCD-Kamera mit einer Bildpunktzahl von 1024*1024 Pixeln. Diese Abtastung des Hologramms reicht aber nicht, um an die technischen Grenzen des vorhandenen Mikroskops heranzukommen, wie in Kapitel 3 erläutert wird. Kann die Anzahl der Bildpunkte auf  2048*2048 erhöht werden, wäre bei der Bildaufzeichnung genügend Information vorhanden, um mit dem vorliegenden Instrument, einem Philips CM30 Elektronenmikroskop, 0,1 nm Auflösung zu erreichen.

Welche Wege stehen zur Verfügung, um dieses Ziel zu erreichen? Die geradlinige Lösung ist natürlich der Kauf einer CCD-Kamera mit 2048*2048 Bildpunkten. Dies hat allerdings seinen Preis, einerseits finanziell, er liegt um mehr als den Faktor 3 über dem Preis einer 1024*1024 CCD-Kamera, aber auch technisch, es treten schwer zu beherrschende Probleme bei derart großen Chipflächen auf [Lang pers. Mitteilung].

Phase-Shift

Holographie

Eine Alternative ist das Abrastern des Bildes mit der CCD-Kamera durch Aufzeichnen von vielen Teilbildern, die später im Rechner wieder zusammengesetzt werden. Dies erscheint zuerst sehr vielversprechend, scheitert aber in der Praxis an einer bildpunktgenauen Anpassung der  Teilhologramme, insbesondere, weil sich die Phasenlage der Referenzwelle während der Aufzeichnung der einzelnen Teilbilder verschiebt [GRO95].

Kohonenkarte als  neuronales Netz

Eine weitere Alternative stellt das Aufzeichnen von Phase-Shift Hologrammen dar, die eine erheblich höher auflösende Rekonstruktion der komplexen Bildwelle als aus einem Einzelhologramm erlauben [RAU89]. Genau dieser Ansatz wurde zuerst verfolgt. Dabei zeigt sich, daß der Einsatz des konventionellen Auswertealgorithmus die vorhandene Information in den drei Teilbildern nur unvollständig nutzt. Dies war der Punkt, an dem versuchsweise ein neuronales Netz und hier speziell eine Kohonenkarte zum Einsatz kam.

Mit dem Einsatz der Kohonenkarte gelang es, die Information aus den drei Teilbildern vollständig zu nutzen [HEI96]. Dabei konnte auch analytisch gezeigt werden, daß es eine optimale Lösung für diese Fragestellung gibt [HEI93]

Standard Hologramm

Für die Auswertung von Standardhologrammen ist dieses Verfahren allerdings nicht direkt anwendbar. Daher mußte eine neue Form der Bildanalyse gefunden werden. Betrachtet man das Hologramm im Fourierraum, so sieht man, daß nur ein kleiner Teil der  von den aufgezeichneten Elektronen gelieferten Informationen für die spätere Auswertung genutzt wird. Die Fourieranalyse nutzt nur den linearen Anteil und kann nicht den quadratischen Term der Autokorrelation auswerten.

Geht man aber davon ab, jeden einzelnen Bildpunkt zu analysieren, sondern erfaßt immer eine gewisse Umgebung, ( und das war der schwierigste Gedankensprung an dieser Stelle der Arbeit) innerhalb der sich das Objekt nicht ändert, so erkennt man, daß die einzelnen Bildpunkte zueinander eine Phasenverschiebung wie bei einem Phase-Shift-Hologramm haben, wie in Abschnitt 3.6 dargelegt wird. Der Unterschied liegt im wesentlichen in der großen Anzahl an Intensitätswerten, die zur Auswertung kommen.

Damit ist aber eine analytische Auswertung zunächst praktisch nicht möglich, weil ein extrem überbestimmtes und zudem mit starkem Rauschen versehenes Gleichungsystem vorliegt. Auch numerische Verfahren wie der Simplex-Algorithmus scheitern. An dieser Stelle wurde wieder auf die flexible Einsatzmöglichkeit von neuronalen Netzen zurückgegriffen, diesmal allerdings nicht auf Kohonenkarten, sondern auf feedforward-Netze, die naturgemäß sehr gut in hochdimensionalen Eingangsdatenräumen arbeiten [ZEL94].

Analytische Lösung

Dieser Ansatz zeigte sehr schnell beeindruckende Ergebnisse, die eine deutliche Verbesserung der Hologrammauswertung gegenüber dem bisherigen Verfahren zeigten [HEI98]. Die genaue Analyse des Auswerteprozesses bei den neuronalen Netzen führte dann zu einer vollständigen analytischen Lösung der Fragestellung, was bezüglich der Exaktheit bei der Bildanalyse und auch bezüglich der Geschwindigkeit eine deutliche weitere Verbesserung bedeutete. [MEY97]

Nach diesem erfolgreichen Vorgehen wurde auch versucht, die Bildfehler in den Hologrammen mit neuronalen Netzen zu analysieren. Hierbei zeigte sich aber, daß es aufgrund der extrem komplexen Fragestellung, der großen Zahl an freien Parametern und der geringen Zahl an brauchbaren Trainingsdaten nicht sinnvoll ist, die Auswertung mit neuronalen Netzen zu forcieren, insbesondere weil zur selben Zeit neue Algorithmen, wie der genetische Algorithmus, für die Auswertung zum Einsatz kamen, die ungleich vielversprechendere Ergebnisse zeigten [LEH97].

Übertragung auf analoge Probleme

Die Arbeit mit den neuronalen Netzen wurde zu Vergleichszwecken auf andere Meßreihen, die in ihrer Struktur sehr ähnlich dem modulierten Interferenzmuster sind, menschliche periodische Bewegungen, angewandt und in diesem Bereich, für den keine geeigneten mathematischen Modelle vorliegen, übertragen und erfolgreich eingesetzt, was am Ende der Arbeit erläutert wird.

 


3                  Technik der Elektronenholographie im Transmissions-Elektronenmikroskop (TEM)

In diesem Kapitel werden die prinzipiellen Möglichkeiten und Grenzen eines TEM aufgezeigt, damit der Einsatz der Elektronenholographie verständlich wird. Dabei können die einzelnen Probleme natürlich nur angeschnitten werden, die an anderer Stelle ausführlich in der Literatur behandelt werden [REI89].

Die hochauflösende Elektronenmikroskopie lebt seit Anbeginn mit Bildfehlern, die aus prinzipiellen Gründen nicht direkt korrigiert werden können, was seit der grundlegenden Arbeit von Scherzer 1936 [SHZ36] als Scherzer-Theorem bekannt ist. Mit diesem Wissen hatte Gabor [GAB48] die Holographie gedanklich entwickelt. Seine Idee war: wenn es gelingt, die Bildwelle vollständig aufzuzeichnen, sind damit prinzipiell alle Informationen vorhanden, um auf das Objekt zurückzuschließen. Damit kann versucht werden, außerhalb des Elektronenmikroskops durch ein Rekonstruktionsverfahren die ursprüngliche Objektwelle wiederzufinden. Nicht zuletzt deshalb ist es nützlich, der Beschreibung der Elektronenholographie ein Kapitel über das TEM voranzustellen, damit die Problematik in der Bildaufzeichnung klar wird. Anschließend wird der genaue Aufbau in der Elektronenholographie erläutert.

3.1          Problematik des Auflösungsvermögens

Ziel der Elektronenholographie ist es, im Bereich der Höchstauflösung immer mehr Objektdetails sichtbar zu machen, damit auf die Struktur der Objekte geschlossen werden kann. Die Materialwissenschaft fragt nach Position, elementarer Zusammensetzung und Konfiguration der Atome in der Probe. Von besonderem Interesse ist dabei immer die Abweichung von der idealen Kristallstruktur wie sie an Rändern und bei Defekten auftritt. Die ideale Kristallstruktur ist häufig aus der Röntgenstrukturanalyse vorab bekannt und wird daher zumeist nicht im abbildenden Mikroskop ermittelt. Die periodischen Strukturen der Kristalle eignen sich aber vorzüglich als Eichmaß für die Abbildungsprozesse.

An die Objektauflösung wird die Forderung gestellt, daß nicht nur periodische Strukturen korrekt wiedergegeben werden, sondern auch nichtperiodische Erscheinungen mit atomaren Ausmaßen eindeutig abgebildet werden. Für eine klare Abgrenzung des Begriffs der Bildauflösung sollen hier einige kurze Anmerkungen zum Begriff Auflösungsvermögen erfolgen. Diese Frage ist in der Literatur [RUI92], [ISH92], [KIS95] immer wieder ausführlich behandelt worden, und eine mathematische Definition erfordert stets eine mehr oder weniger willkürliche Festlegung, was unter zwei getrennten Objekten zu verstehen ist.

3.1.1      Das menschliche Auge

Wird ein einfarbiger Lichtpunkt der Wellenlänge  mit einer Linse mit Durchmesser D abgebildet, so entsteht ein Beugungsscheibchen, dessen erstes Minimum unter einem Winkel  (bezogen auf das Objekt) sich wie folgt berechnet:

                Gleichung 31: Beugungsscheibchen

Eine mögliche Definition der Auflösung ist der Winkel , unter dem zwei inkohärent strahlende Lichtpunkte unterschieden werden, dabei liegt der zweite Lichtpunkt gerade im ersten Minimum des Beugungsscheibchens des ersten. Andere Definitionen sind denkbar, so kann ein Minimum erster oder höherer Ableitung zwischen den Lichtpunkten gefordert werden.

Natürliche Auflösung des Auges

Ausgehend von dieser Definition hat das menschliche Auge bei einem Linsendurchmesser von 3 mm ein Auflösungsvermögen von 2  rad für Licht von 500 nm Wellenlänge, dies entspricht bei einem Objektabstand von 200 mm etwa 0,04 mm, also etwa dem  Durchmesser eines Frauenhaares.

Hier bleibt anzumerken, daß das menschliche Auge durch geschickte Bildverarbeitung bereits etwas kleinere Abstände anhand der Kontraste zu unterscheiden vermag, man spricht dabei vom “physiologischen Faktor“ [EIC78]. Erstaunlicherweise ist das Auge sogar in der Lage, bei sehr regelmäßigen Strukturen, etwa einer geraden Linie, Versetzungen von weniger als 0,005mm zu erkennen, was besonders für die Hersteller von qualitativ hochwertigen Druckern ein Problem darstellt.

Speziell für die Herstellung von Biprismafäden für die Elektronenholographie ist es außerordentlich nützlich, daß der nur ca. 1mm dicke durchsichtige Quarzfaden im Streulicht vor einer schwarzen Fläche aufgrund der Beugung des Lichts gesehen werden kann. Dies bedeutet nicht, daß die Auflösung des Auges in diesem Fall 1mm wäre, es ist nur ein Hinweis, daß sehr wohl Strukturen unterhalb des Auflösungsvermögens erkannt werden können.

Einführung der optischen Hilfsmittel

Das Auflösungsvermögen des Auges wurde erstmals mit dem Lesestein, der bereits im 13. Jahrhundert aus Arabien nach Europa kam, verbessert, hatte aber keinen direkten Einfluß auf die Naturbeobachtung [WIT91]. Die Weiterentwicklung zur Lupe als einlinsiges Mikroskop kann bereits Strukturen im Bereich von wenigen tausendstel Millimetern beobachten, damit wurde z.B. die theoretisch so bedeutsame Brownsche Molekularbewegung entdeckt [FOR98]. Das Lichtmikroskop stellt seit dem 17. Jahrhundert die erste Möglichkeit dar, mikroskopische Strukturen einfach zu beobachten. Obwohl das Auflösungsvermögen der Lichtmikroskopie zunächst rasch verbessert wurde, kam es bei etwa 1000-facher Vergrößerung zum Stillstand.

Auflöselimit für optische Systeme

Ernst Abbé [ABB18] konnte zeigen, daß das prinzipielle Auflösungsvermögen des Lichtmikroskops im wesentlichen durch die Wellenlänge des Lichts gegeben ist. Dabei gilt für die kleinste aufzulösende Struktur:

                                                       Gleichung 32 : Auflösevermögen

wobei der Winkel  den Öffnungswinkel der Objektivlinse und n den Brechungsindex beschreibt. Der Nenner ist bei modernen Lichtmikroskopen etwa eins, in Elektronenmikroskopen ist er, wie sich noch zeigen wird, um Größenordnungen kleiner. Für das menschliche Auge wird Licht mit einer Wellenlänge von ca. 500 nm noch gut wahrgenommen, mithin erreicht man eine Auflösung von etwa 250 nm mit dem klassischen Lichtmikroskop [EIC78].

Eine weitere Vergrößerung des Auflösungsvermögens  ist für lichtoptische Geräte möglich, wenn man die Wellenlänge verkürzt und die Bilder mit einer elektronischen Kamera, die auch kürzere Wellenlängen detektieren kann, aufzeichnet. Technisch sind lichtoptische Apparate durch die Transparenz der Gläser limitiert, die unter günstigen Umständen bei einer Lichtwellenlänge von ca. 100 nm liegt.

Eine weitere Erhöhung des optischen Auflösungsvermögens wurde durch die Nahfeld Raster-Mikroskope erreicht, die ca. 25 nm Auflösung erreichen [POH84], dann aber mit der Einschränkung, nur oberflächennah zu arbeiten und kein kontinuierliches Bild zu liefern.

3.1.2      Elektronenoptisches Limit

Mit der Entwicklung der Elektronenoptik, insbesondere der Elektronenlinse, eröffnete sich die Möglichkeit, mit Teilchen, den Elektronen, ein Mikroskop mit scheinbar beliebig guter Auflösung zu bauen.

Das erste Auflösungslimit setzt aber auch hier die Quantenmechanik bei der Nutzung von Elektronen für die Mikroskopie. Nach de Broglie müssen auch Teilchen als Wellen mit einer Wellenlänge von

              Gleichung 33: Wellenlänge

beschrieben werden. Die Wellenlänge hängt hier, ähnlich wie bei Licht, lLi=hc/E Li von der Energie des Quants ab. Höhere Energien liefern eine kürzere Wellenlänge, ein Grund, warum man für hochauflösende Elektronenmikroskope hohe Beschleunigungsspannungen bis ca. U=1,2 MeV verwendet; alle anderen Elemente in der Gleichung 3.3, h das Plancksche Wirkungsquantum, e die Elementarladung und m0 die Elektronenruhemasse, sind Fundamentalkonstanten und damit technisch nicht veränderbar.

Erreichbare Wellenlänge im Elektronenmikroskop

Setzt man die Beschleunigungsenergiewerte für die Elektronen im Elektronenmikroskop CM30 von Philips mit 300 keV in obige Gleichung ein, so erhält man eine Wellenlänge von 1,9 pm (0,0019nm). Damit könnten jederzeit einzelne Atomsäulen in Kristallen beobachtet werden, deren Abstand in der Größenordnung von 0,1nm liegt.

Daß dies nicht gelingt, liegt an der extrem niedrigen optischen Qualität von Elektronenlinsen, die am ehesten mit dem Boden einer Sektflasche vergleichbar ist. Daher kann nur ein sehr kleiner Öffnungswinkel der Objektivlinse genutzt werden.

Limit durch Linsenfehler

Der Öffnungsfehler konnte durch gutes Design der Elektronenlinse im Lauf der jahrzehntelangen Entwicklung erheblich verbessert werden und liegt bei dem hier betrachteten Philips CM30 mit Ultratwinlinse mit Cs=0,63mm bereits an den Grenzen dessen, was mit konventioneller Technik möglich ist. Eine weitere Verkleinerung[3] erfordert einen schmaleren Spalt im Polschuh, der jedoch den Platz für das Objekt mit Halter vorgibt. Der Objekthalter muß in eine oder mehrere Achsen mögliche Objektbewegung und Kippung gewährleisten, die durch einen zu schmalen Spalt unzulässig einschränkt würde.

Der Einsatz von supraleitenden Linsen könnte diese Grenze vermutlich etwas hinausschieben, erfordert aber einen enormen technischen Aufwand für die Kühlung mit flüssigem Helium (4°Kelvin) [HAR92]. Supraleitende Linsen auf Basis von HTSC (high temperature super conductor) sind zur Zeit noch nicht verfügbar.

Fehlerkorrektur bei Elektronen­linsen

Prinzipiell hat der sphärische Bildfehler in rotationssymmetrischen Linsen mit statischen elektromagnetischen Feldern und ohne Ladungsträger im Strahlengang immer das gleiche Vorzeichen und ist mithin nicht korrigierbar [SHZ36]. Der Beweis für dieses Theorem benutzt nur die Maxwellgleichungen und Cauchy Randbedingungen an der Linse, es gehen keine näheren Informationen über die genaue Linsenform in die Herleitung ein. Somit ist eine einfache Behebung des Öffnungsfehlers mit einer Korrekturlinse, die einen gegengerichteten Fehler hat, wie sie in jedem Fotoobjektiv realisiert ist, nicht möglich.

Neueste Experimente mit Multipollinsen, wegen der Verletzung der Rotationssymmetrie nicht im Widerspruch zum Scherzertheorem, erlauben eine Korrektur dieser Fehler  [ROS98], sind jedoch verbunden mit einem erheblichen technischen Aufwand, was die Justierung und Stabilisierung der Linsensysteme betrifft.

3.1.3      Stand der Technik

Praktisch bedeutsame Abstände

Leistungsfähige moderne konventionelle TEMs besitzen ein Auflösungsvermögen von etwa 0,2 nm und liegen damit im Bereich der atomaren Abstände. Eine beliebte Diskussion entsteht gerne über die Frage, was ein atomarer Abstand ist und welche räumliche Auflösung überhaupt von praktischer Bedeutung ist. Der Abstand von Goldatomen, genauer von Atomsäulen in [110] Richtung beträgt ca. 0,2 nm, der Abstand von Siliziumatomen in [004] Richtung 0,136nm, durch geeignete Wahl der Kristallrichtung werden auch Werte in der Nähe der magischen 0,1 nm Abstände, im alten Maßsystem 1 Ångström, erreicht; diesen Wert erreicht zur Zeit nur das 1,2 MeV-TEM von Jeol, wie es etwa am Max-Planck-Institut für Metallforschung in Stuttgart aufgebaut ist [PHI94].

Die kontinuierliche Weiterentwicklung der Technik im Mikroskop schiebt die Grenze der Auflösung immer weiter nach unten. Zur Zeit erscheint es sehr schwierig, eine Steigerung des Auflösungsvermögens deutlich jenseits von 0,1 nm im TEM zu erreichen [JON93]. Die Erfahrung in den Naturwissenschaften hat aber gezeigt, daß durch neue Methoden oft unerwartete Verbesserungen erreicht werden können, die dann auch völlig neue Entdeckungen ermöglichen.

3.2          Bildentstehung im Elektronenmikroskop

Um die Fragestellung dieser Arbeit weiter zu verdeulichen, ist es notwendig, einen kurzen Einblick in den Bildentstehungsprozess in einem Transmissions-Elektronenmikroskop zu geben.

Elektronentransparenz in Festkörper

Die zu untersuchenden Objekte müssen per Definition für Elektronen der verwendeten Energie transparent sein. Da die Absorption der Elektronen durch die Materialeigenschaften festgelegt ist, erreicht man Transparenz nur bei geeignet dünnen Objekten. Bei Elektronenenergien im Bereich von 100-300 keV, wie sie in den weiteren Untersuchungen eine Rolle spielen, können daher nur Proben mit Objektdicken von einigen 10nm untersucht werden. Diese geringen Materialstärken sind für die Präparation ein großes Problem, man findet sie meist an Probenrändern, Kanten und bei extrem dünnen Folien, insbesondere in der Nähe von Löchern.

Die einlaufenden Elektronen wechselwirken während der Objektdurchquerung auf unterschiedlichste Weise. Alle Wechselwirkungsprozesse lassen sich aber in zwei Klassen einteilen: die elastische und die inelastische Streuung. Besonders für die Elektronenholographie spielt diese Unterscheidung eine wesentliche Rolle und soll daher kurz betrachtet werden.

3.2.1      Die elastische Streuung der Elektronen

Einfaches Modell der Rutherfordstreuung

In der Literatur findet man widersprüchliche Betrachtungsweisen bei der Wechselwirkung des Elektrons mit dem Objekt. Dies liegt zum Teil daran, daß versucht wird, die Situation anschaulich zu betrachten, oder daß Modelle verwendet werden, die speziell in der Situation des Elektronenmikroskops untauglich sind, da sie wesentliche Aspekte der Quantenmechanik auslassen. Es soll hier zunächst das Modell der Rutherfordstreuung dargestellt werden, wie es bei Reimer [REI89] zu finden ist.


Bei der elastischen Streuung von Elektronen am Atomkern kommt es bei klassischer Betrachtung oder bei quantenmechanischer Betrachtung und Beobachtung des gestreuten Elektrons, zu einem Energieaustausch zwischen Elektron und Kern. Es gilt der Satz der Impulserhaltung vor und nach dem Stoß, dabei beschreibt das gestrichene System die Situation nach dem Stoß, der Elektronenimpuls vor dem Stoß ist , der Kern befindet sich vor dem Stoß in Ruhe.

                   Gleichung 34: Impuls

Die auftretenden Verhältnisse sind in der Abbildung links dargestellt. Für die Energie gilt der Energieerhaltungssatz mit

              Gleichung 35: Energie

Unter der Annahme, daß die Kernmasse wesentlich größer als die Elektronenmasse ist, findet man für den Energieverlust des Elektrons in Abhängigkeit des Elektronenstreuwinkels  und der Kernruhemasse

                       Gleichung 36: Energieverlust

Dies führt beispielsweise bei einer Elektronenenergie von 100keV und einem Streu­winkel von 0.5° zu einem Energieverlust von 0.1meV an einem Kupferkern.

Wenn diese Beschreibung die Situation im Elektronenmikroskop richtig wiedergeben würde, könnte kein stehendes Interferenzmuster beobachtet werden, da der Energieverlust das Muster mit einer Frequenz von

                    Gleichung 37: Frequenz

durch das Bild laufen lassen würde, mithin die Aufzeichnung nur weniger als  dauern dürfte.

Probleme mit dem einfachen Model

Das Modell hat zwei Schwächen:

1.       Der Energieübertrag wird nur zu einem Atomkern betrachtet

2.       Es wird angenommen, daß der Beobachter registriert, welchen Weg das Elektron zurückgelegt hat

Der Einwand 1 ist berechtigt und lehnt sich an die Situation im Mössbauerexperiment an, wo der Impuls an den gesamten Kristall übertragen wird und nicht nur an einzelne Atomkerne. Im Elektronenmikroskop können aber Strukturen auftreten, die nur aus sehr wenigen Atomen, in Einzelfällen nur aus einem einzelnen Atom, bestehen und damit nicht stark an das restliche Material koppeln. In diesen Fällen ist zumindest die Rechnung formal richtig und die eingesetzte Masse des Streuzentrums ist korrekt.

Der Einwand 2 trifft das grundsätzliche Problem, das bei der Veranschaulichung von quantenmechanischen Prozessen besteht. Die wellenoptische Betrachtung der Vorgänge im Elektronenmikroskop erfordert die Berücksichtigung der Quantenmechanik, andernfalls wäre eine wellenoptische Betrachtung von Teilchenbewegungen nicht sinnvoll. Bei der elastischen Streuung wird keine Energie zwischen Elektron und Probe ausgetauscht, sondern nur die Phasenlage der Elektronenwelle aufgrund der Potentialverhältnisse in der Probe verändert, solange das gestreute Elektron nicht explizit beobachtet wird. Dieser Prozess betrifft jene Elektronen, die zur Aufzeichnung des Hologramms dienen und ist für die weitere Analyse der Bildwelle wesentlich.

Die elastische Streuung verändert nur die Phasenlage

3.2.2      Die Phasenverschiebung des Elektrons

Für den einfachen Fall dünner Objekte kann die Phasenverschiebung der Elektronenwelle auf dem Weg durch den Festkörper berechnet werden. Bewegt sich eine Elektronenwelle der Wellenlänge l0 durch ein Medium mit dem inneren Potential F, so ändert sich die Wellenlänge zu

                        Gleichung 38

Dabei deutet der * die relativistische Korrektur an, die aufgrund der hohen Elektronenenergie notwendig ist. Die Phasenverschiebung der Welle findet man durch Integra­tion längs des Weges, auf dem sich das Elektron bewegt. Die Bewegung im Mikroskop erfolgt nach Konvention entlang der z-Achse, mithin führt die Integration auf

            

            =   Gleichung 39 : Phase

Das innere Potential F liegt in der Größenordnung einiger Volt, die Beschleunigungsspannung jedoch bei einigen 100 keV, daher kann der innere Term nach Potenzen des Potentials F entwickelt werden. Man bricht nach dem ersten Glied ab, dies führt auf

Gleichung 310

Die Beobachtung der Phasenverschiebung im konventionell betriebenen Mikroskop ist durch Defokusieren für bestimmte Raumfrequenzen möglich. Der Fokus mit der größten übertragenen Bandbreite für die Phaseninformation ist der sogenannte Scherzerfokus. Dabei ist zu beachten, daß die absolute Phase nicht aufgezeichnet wird, sondern die relative Phase modulogemessen wird.

Neben der Phasenverschiebung erfährt die Elektronenwelle eine Dämpfung der Amplitude, was sich phänomenologisch mit einem Absorbtionsterm beschreiben läßt. Bei Beschränkung auf dünne amorphe Objekte, bei kristallinen wird die Situation durch dynamische Streuprozesse erheblich komplizierter, läßt sich die Objekttransparenz q wie folgt formulieren:

    Gleichung 311

Der reelle Teil  kann abgespalten werden und führt auf die gewohnte Darstellung, die in dieser Arbeit immer für die Beschreibung der Objekte angesetzt wird

        Gleichung 312

Nach Cowley kann man für schwache Objekte als von erster und  als von zweiter Ordnung klein betrachten, nach [SUM95]S.9.

3.2.3      Die inelastische Streuung der Elektronen

Neben der elastischen Streuung, die ohne direkten Energieübertrag abläuft, kann es zu einer Wechselwirkung mit Impuls- und Energieaustausch zwischen Elektronen und Probe kommen. Die Elektronen können bei der Transmission Energie mit dem Kristallgitter austauschen. Dies liegt etwa bei der Anregung von Phononen im Festkörper vor. Danach haben die Elektronen eine veränderte Energie und auch eine andere Wellenlänge.

Inelastische Elektronen beeinflussen das Interferenzmuster nicht direkt

Damit ist die Schwebung des Interferenzmusters in der Hologrammebene vom Energieaustausch abhängig, wie in Kapitel 3.4.1 gezeigt wird, und kann daher nicht direkt aufgezeichnet werden. Bei der Aufzeichnung überlagern sich die "Interferenzmuster" der einzelnen Elektronen zu einem Hintergrund, der für die Holographie verloren ist und zu einer unerwünschten Reduktion des Bildkontrastes V beiträgt. Unabhängig davon besteht aber noch eine gewisse “Restkohärenz” [HAR97], die jedoch viel zu gering ist, um ein auswertbares hochfrequentes Interferenzmuster zu erzeugen.

eV
stören bereits die Aufzeichnung

Wie empfindlich die Elektronen auf Energieverschiebungen reagieren, haben Möllenstedt und Lichte [MOE78] gezeigt. Sie konnten nachweisen, daß bereits ein Energieübertrag von eV zu einer Drift des Interferenzmusters mit einer Periode pro Sekunde in der Holographie führt; damit ist das Hologramm bei einer Sekunde Aufzeichnungszeit völlig ohne Streifenkontrast für diese Elektronen.

3.3          Der Abbildungsprozess

Das Objekt wird von der Objektivlinse in die erste Bildebene abgebildet. Die Fehler dieser ersten Elektronenlinse entscheiden über die Abbildungsqualität, da alle nachfolgenden Linsen einen wesentlich kleineren Aperturwinkel und damit kleineren Bildfehler haben.

Der ideale Abbildungsprozess würde Phase und Amplitude unabhängig von der Raumfrequenz in die Bildebene übertragen. Dies gelingt aber nur, wenn der optische Weg vom Objektpunkt zum Bildpunkt nicht vom Aperturwinkel abhängig ist. Rotationssymmetrische Elektronenlinsen zeigen jedoch, wie bereits erwähnt, immer einen sphärischen Bildfehler.

Die Bildfehler lassen sich am besten im Fourierraum beschreiben. Dort entsprechen alle Bildfehler einer Phasenplatte, die auf das ideale fouriertransformierte komplexe Bild aufmultipliziert ist. Da in der hinteren Brennebene einer Linse die Fourierkomponenten des Bildes auftreten, wird auch häufig von einer Analyse in der hinteren Brennebene gesprochen. Die Phasenplatte wird durch die Wellenaberrationbeschrieben,  die von der Raumfrequenz  abhängig ist. Für die Betrachtung der rotationssymmetrischen Bildfehler genügt eine Darstellung der Übertragungsfunktion in Abhängigkeit vom Betrag der Raumfrequenz

 .

Eine Reihenentwicklung der Übertragungsfunktion in den Raumfrequenzen führt auf die Form

Dabei spielen die Koeffizienten  und die zentrale Rolle. Der Koeffizient  ist proportional zu dem in der Literatur als Defokus bezeichneten Koeffizienten, weil er von der Lage des Fokus abhängt. Der Koeffizient , in der Literatur als  bezeichnet, beschreibt den sphärischen Linsenfehler. Die anderen Koeffizienten sind entweder nahezu Null[4] oder verursachen eine Verschiebung des Bildes, was im weiteren unwesentlich ist.

Somit erhält man die vereinfachte Form

für die Aberrationen der Elektronenlinse.

Die sphärische Aberration  wird durch das Linsensystem fest vorgegeben und kann vom Experimentator nicht weiter manipuliert werden, der Defokus Dz ist jedoch frei wählbar und daher ein Freiheitsgrad, mit dem die Aufzeichnung des elektronenoptischen Bildes erheblich beeinflußt werden kann.

3.3.1      Einfluß der Bildfehler auf das aufgezeichnete Bild

Obwohl als Fehler bezeichnet, wäre eine hochauflösende Elektronenmikroskopie ohne Bildfehler heute schwer vorstellbar, weil sie, neben der holographischen Vorgehensweise, der einzige Zugang zur Elektronenphase der Objektwelle sind. Und die Elektronenphase enthält gerade bei höchstauflösenden Aufnahmen die meiste Information.

Transparenz des Objekts

Die komplexe Objektwelle hinter dem zu untersuchenden Objekt resultiert aus der Modulation der eingestrahlten ebenen Elektronenwelle durch die komplexe Objekttransparenz . Die Objektwelle

 

wird für die folgende Betrachtung mittels der Fouriertransformation

in den Fourierraum transformiert, im Mikroskop beobachtet man dieses komplexe Spektrum in der hinteren Brennebene einer idealen Objektivlinse.

Das Objektspektrum wird durch das aberrationsbehaftete Linsensystem in das Bildspektrum  propagiert, dabei verschieben die Aberrationen die Phase des Bildspektrums in Abhängigkeit der Raumfrequenz . Diese Verschiebung wird durch die Wave-Transfer-Funktion WTF()=exp() beschrieben. Im Fall der isoplanatischen Näherung, es werden ortsunabhängige Bildfehler betrachtet, führt dies auf das komplexe Bildspektrum

.

Die Vergrößerung des Bildes durch die Objektivlinse und die anschließende Weitervergrößerung durch zusätzliche Projektivlinsen wird formal in der Rechnung nicht berücksichtigt, da es sich nur um eine lineare Koordinatentransformation handelt. Es wird immer mit den Koordinaten in der Objektebene gearbeitet.

Die resultierende räumliche Verteilung der Amplitude und Phase nach der Abbildung findet sich durch Ausmultiplikation der komplexen Gleichung und Rücktransformation in den Ortsraum. Bei Beschränkung auf schwache Amplituden- und Phasenmodulation durch das Objekt kann die Objektwelle zu



linearisiert werden, damit wird eine einfachere Betrachtung der Übertragungsverhältnisse möglich. Für die Betrachtung beschränkt man sich auf eine Raumfrequenz , was o.B.d.A. aufgrund der Linearität der Abbildungsprozesse möglich ist. Die Amplitude der Objektwelle hinter dem schwachen Amplitudenobjekt beschreibt man vereinfacht mit

analog die Phase der Objektwelle

und sind Konstanten,  sind Phasenterme zur Beschreibung der Lage der Cosinusfunktionen. Alle anderen Objektfunktionen lassen sich durch lineare Überlagerung der Cosinusfunktionen beschreiben.

Die Bildwelle  kann jetzt durch den Einfluß der  WTF auf die Objektwelle  berechnet werden

Die Auswirkungen der WTF auf die Bildeigenschaften werden klarer, wenn man die Wellenaberration  in den symmetrischen (S) und antisymmetrischen (A) Teil auftrennt.

Damit kann die Bildwelle in die aussagekräftige Form

gebracht werden. Darin sieht man, daß die symmetrischen Aberrationen  eine Umverteilung von Amplituden- und Phaseninformation bewirken, denn Sinus und Cosinus sind zueinander orthogonal. Der Cosinusterm mit den symmetrischen Termen wird als Amplitudenkontrastübertragungsfunktion (ACTF) bezeichnet, da er die direkte Amplitudeder Objektwelle in die Bildebene überträgt.

Der Sinusterm wird Phasenkontrasttransferfunktion (PKTF) genannt, da er Phaseninformation bei nichtverschwindendem Argument in registrierbare Amplitudeninformation  verwandelt. Die tatsächlich aufgezeichnete Amplitude ist somit die lineare Überlagerung der beiden Teile

.

In der konventionellen Elektronenmikroskopie (TEM) versucht man die PKTF so zu wählen, daß die Objektphase über einen möglichst weiten Frequenzbereich in die Amplitude übertragen wird, da die atomaren Objekte einen deutlichen Phasenkontrast zeigen. Dies gelingt beim Scherzerfokus  mit dem breitesten noch direkt interpretierbaren Frequenzband. Elektronenmikroskopische Aufnahmen, die im Scherzerfokus aufgezeichnet wurden, zeigen daher im wesentlichen die Phaseninformation der Objektwelle. Mit zwei Einschränkungen: Sehr kleine Raumfrequenzen, d.h. großflächige phasenschiebende Strukturen sind nicht sichtbar und hochfrequente Information, das sind sehr kleine Strukturen, kann nicht interpretiert werden, da diese im stark oszillierenden Bereich der PKTF liegen.

3.4          Holographie

Die Elektronenholographie [EH1] beruht auf dem allgemeinen Prinzip der Holographie[5], der vollständigen Aufzeichnung einer Wellenfront und deren Rekonstruktion. Die Holographie kann mit allen Wellen arbeiten, die hinreichend kohärent zur Verfügung stehen. Zur Zeit ist dies in der Lichtoptik mit Laser und in der Elektronenoptik mit Feldemissionsquellen für Elektronenwellen gegeben; dabei werden Elektronen in ihrer quantenmechanischen Wellennatur betrachtet.

3.4.1      Allgemeines Prinzip

Wellen breiten sich nach dem Huygenschen Prinzip aus, das besagt, daß die Wellenausbreitung mit dem Modell der Kugelwelle beschrieben werden kann. Kennt man eine Welle auf einer Oberfläche bezüglich Amplitude und Phase vollständig, so kann man ihre weitere Entwicklung  für jeden anderen Punkt im Raum berechnen, vorausgesetzt, die optische Dichte im gesamten Raum ist bekannt. Die Ausbreitung der Welle kann dabei mit dem Fresnelpropagator beschrieben werden

In der Elektronenoptik, die mit Elektronenwellen arbeitet, hat man daher die Chance, die Bildfehler, die nicht durch einfache elektronenoptische Maßnahmen korrigiert werden können (Siehe Kapitel 3.5), durch Rückrechnen der Wellenausbreitung zu korrigieren. Dazu ist allerdings die Kenntnis der Elektronenwelle auf einer Oberfläche notwendig.

Die Welle muß in Teilgebieten bekannt sein

Alle physikalischen Detektoren können jedoch nur das Betragsquadrat  der Schrödingerwelle aufzeichnen. Um aber die Welle für eine weitere Auswertung mit wellenoptischen Methoden zugänglich zu machen, muß neben der Amplitude  der Teilchenwelle  auch deren Phase  bekannt sein. Die Lösung dieses Problems ist nur möglich, wenn die Welle für einen bestimmten Bereich der zu untersuchenden Fläche a priori bekannt ist oder gleich Null gesetzt werden kann. Auf diesem Prinzip beruhen alle Verfahren der Holographie.

Ebene Referenzwelle als eine Lösung

Eine mögliche Realisierung ist die Verwendung einer ebenen Referenzwelle

,

bei der die Annahme konstanter Phase in einer Ebene realisiert ist. Diese ebene Welle wird nun mit dem unbekannten Bereich der Wellenfläche zur Interferenz gebracht, d.h. beide Teilwellen überlagern sich in der Detektorebene, und die zu registrierende Intensitätsverteilung ist dann das Betragsquadrat aus der Summe

.

Aus diesem aufgezeichneten Intensitätsmuster muß danach in der Rekonstruktionsrechnung die komplexe Bildwelle zurückgewonnen werden.

Die aufgezeichnete Intensität in der Detektorebene kann somit für eine Objektwelle der Form

bestimmt werden:

unter Berücksichtigung der Tatsache, daß die Elektronenwelle in der Bildebene z=0 aufgezeichnet wird, der Annahme, daß die Amplitudenmodulation im Objekt nur gering ist, die Bildfehler nicht direkt eingehen und der Konvergenzwinkel zwischen den beiden Elektronenteilstrahlen zu einer Interferenzstreifenfrequenz  führt, erhält man die für die Holographie so wichtige Intensitätsgleichung, auf die innerhalb der Arbeit häufig zurückgegriffen wird

Hologrammgleichung

Gleichung 313 Hologramm

V  beschreibt den Streifenkontrast, der einerseits von quantenmechanisch zu beschreibenden Größen wie der Quellkohärenz aber auch von klassischen Größen wie der mecha­ni­schen Bewegung während der Aufzeichnung abhängt. Der Kontrast kann zudem über die Bildebene aufgrund von Absorbtionseffekten variieren, all diese Komplikationen sollen hier außer acht gelassen werden. 

 

3.5          Rekonstruktion der komplexen Welle

Elektronenholographie hat das Ziel, Amplitude und Phase der komplexen Bildwelle aus dem Hologramm, in dem nur Intensitätsinformation aufgezeichnet ist, zu rekonstruieren.

3.5.1      Optische Rekonstruktion

Die Aufzeichnung und Rekonstruktion von Hologrammen gelang zuerst in der Lichtoptik [GAB48]. Lichtoptische Verfahren zur Rekonstruktion von Elektronenhologrammen auf der optischen Bank waren daher auch die ersten Verfahren, um Elektronenhologramme zu rekonstruieren [WAH75].

Will man die Objektwelle rekonstruieren, so ist es erforderlich, das Hologramm mit einer ebenen Welle zu beleuchten. Dabei spielt die Wellenlänge und die Natur der Welle keine Rolle, daher kann für die Rekonstruktion der Elektronenhologramme sichtbares Licht verwendet werden. Die Beleuchtung muß jedoch monochromatisch sein, da jede Wellenlänge von dem Hologramm unterschiedlich abgebeugt wird. Aus praktischen Gründen wird dies ein Laser mit fester Wellenlänge und kohärenter Strahlung sein.

Vollständige Information im abgebeugten Strahl

Durchstrahlt man das Hologramm, so entstehen drei wesentliche Teilstrahlen, der Nullstrahl läuft geschwächt geradeaus, unter dem Beugungswinkel  erscheint jeweils ein abgebeugter Strahl, der die vollständige Bildinformation enthält. Abgebeugte Strahlen höherer Ordnung kommen zusätzlich aufgrund der Nichtlinearität der Photoplatte zustande, diese höheren Ordnungen können ausgeblendet werden, was allerdings zu einer Verfälschung der rekonstruierten Amplitude führt.

Jeder abgebeugte Strahl ist optisch zum Objektstrahl in der Bildebene des Mikroskops äquivalent und kann daher mit allen lichtoptischen Methoden “nachbearbeitet” werden.

Zernike Phasenplatte

Insbesondere ist es von Interesse, die Phasenverteilung der Bildwelle zu kennen, die mit einem Zernike Phasenplättchen sichtbar gemacht werden kann. Weiterhin besteht die Möglichkeit, sphärische Bildfehler und Defokussierung mit entsprechenden optischen Linsen auszugleichen.

Obwohl diese Methode der Bildrekonstruktion und -bearbeitung sehr vielversprechend erscheint, ist die praktische Realisierung keineswegs einfach. Insbesondere die Korrektur der Nichtlinearität der Photoplatte und die der Bildfehler gelingt nur sehr schlecht, da praktisch für jedes Bild eine eigene Kor­rek­turoptik notwendig ist. Daher wird dieses Verfahren zugunsten numerischer Methoden der Bildbearbeitung heute nicht mehr weiter­­verfolgt.

3.5.2      Numerische Rekonstruktion von Standardhologrammen

Das ursprüngliche Verfahren der Seitenbandrekonstruktion wurde mit dem Aufkommen leistungsfähiger Computer direkt in der digitalen Bildverarbeitung übernommen. Dazu wird das Hologramm entweder mit einem Film aufgezeichnet und mit einem Scanner digitalisiert [VÖL91] oder direkt mit einer CCD Kamera innerhalb des Mikroskops auf ein digitales Speichermedium aufgezeichnet.

Digitale Fouriertransformation mit FFT

Das digital vorliegende Hologramm wird fouriertransformiert, was mit dem Verfahren der FFT sehr schnell geht [RAU91, RAU94 und LEH94b]. Die Fouriertransformierte setzt sich dabei wieder aus den beiden Seitenbändern und der Autokorrelation zusammen. Eines der Seitenbänder wird ausgeschnitten und zentriert. Damit hat man die komplexe Fouriertransformierte der Bildwelle, die nach einer Rücktransformation die komplexe Bildwelle darstellt [LEH95]. Dieses Verfahren nutzt theoretisch die gesamte verfügbare Information des Hologramms, weil die Fouriertransformation ein vollständiges Orthogonalsystem nutzt.

Damit erscheint die Rückgewinnung der Information aus dem Hologramm vollständig gelöst, außer in technischen Teilbereichen, die sich mit der optimalen Zentrierung der Seitenbänder befassen [LEH97 S.51] und in der Verbesserung der Maskierung des Seitenbandes oder der besseren Darstellung der Resultate liegen [ADE92, RUQ92].

Neben den Verfahren, die Bildwelle durch Seitenbandabtrennung im Fourierraum wiederzugewinnen, ist es auch möglich, die Bildwelle direkt im Ortsraum zu rekonstruieren, wie Lehmann [LEH94] erstmals gezeigt hat.

3.5.3      Probleme bei der Seitenbandrekonstruktion

Obwohl das Verfahren der Seitenbandrekonstruktion mathematisch einfach erscheint, ergeben sich in der Praxis der Hologrammrekonstruktion erhebliche Probleme. Diese sollen hier kurz geschildert werden, damit verständlich wird, warum weitere Untersuchungen alternativer Verfahren der Bildrekonstruktion sinnvoll sind. Detaillierte Beschreibungen der jeweiligen Probleme finden sich in der angegebenen Literatur.

Mindestabstand des Seitenbands von der Autokorrelation

Will man die Hologramminformation durch Seitenbandabtrennung wiedergewinnen, muß die Trägerfrequenz des Hologramms mehr als dreimal so groß sein wie die kleinste aufzulösende Struktur im Bild. Diese Forderung leitet sich aus der Bedingung ab, daß bei der Seitenbandrekonstruktion das Seitenband im Fourierraum nicht mit der Autokorrelation überlappen darf.

Ungewöhnliche Anforderungen an die CCD-Aufzeichnung

Für das Abtasten des Hologramms mit einer CCD Kamera muß das Shannonsche Abtasttheorem berücksichtigt werden. Dieses besagt, daß für das eindeutige Aufzeichnen eines bei bandbegrenzten Signals mindestens die doppelte Frequenz () für das abtastende System verwendet werden muß. Die Kombination aus beiden Forderungen, hohe Streifenfrequenz im Hologramm, hohe Abtastfrequenz für die Streifen, führt zu extrem hohen Anforderungen an die CCD Kamera und den Aufzeichnungsprozess. Zur Zeit wird dazu eine Kamera mit 2048*2048 Pixel eingesetzt, was bei slow scan CCD Kameras mit großen Einzelpixel (27mm*27mm) bereits eine Chipfläche von ca. 6cm*6cm bedeutet und daher erhebliche technische Anforderungen an den Herstellungsprozess stellt.

Kanalkapazität des Hologramms

Für Hologramme kann die aus der Nachrichtentechnik bekannte Kanalkapazität für die Berechnung der auswertbaren Information genutzt werden. Für die eindeutige Detektion von Signalen ist ein minimaler Signal-Rausch-Abstand notwendig, mit  als Signalleistung und  als Rauschleistung. Nach Shannon [z.B. WOS76] ist die Kanalkapazität  in Abhängigkeit der Bandbreite

Die gesamte Informationsmenge M entlang einer Strecke S im Hologramm berechnet sich somit zu

Ziel aller Rekonstruktionsverfahren ist es, diese Information möglichst vollständig zu nutzen. Für eine erfolgreiche Aufzeichnung der Information muß die obere Grenzfrequenz und der Signal-Rausch-Abstand groß sein.

In der praktischen Aufzeichnung von Hologrammen führt der geringe Kontrast der Hologrammstreifen zu einer Verschlechterung des Signal-Rausch-Abstands. Der Kontrast wird dabei durch zwei unabhängige Prozesse vermindert.

Die Strahlquelle ist nicht völlig kohärent, da die einzelnen Elektronen weder völlig identische Energie noch den gleichen Ursprungsort haben. Diese Probleme können durch Wahl einer geeigneten Elektronenquelle verringert werden. Die ideale Quelle würde aus einem einzelnen Atom bestehen, das alle Elektronen aus dem selben Energieband ohne thermische Zusatzenergie aussendet. Dieser idealen Quelle kommt man technisch immer näher, es wurden bereits Quellen mit atomarer Spitze und Feldemission hergestellt.

Der zweite Faktor für die Verschlechterung des Streifenkontrasts liegt in der technischen Unvollkommenheit der Mikroskope. Die Elektronenquelle liegt während der Aufzeichnung nicht immer exakt auf der selben Spannung, die Ströme durch die Elektronenlinsen können etwas variieren, die Spannung am Biprisma unterliegt Schwankungen. Zudem kommen Störungen von außen, eingestrahlte elektromagnetische Felder unterschiedlicher Frequenz und nicht zuletzt mechanische Erschütterungen, akustische Einstrahlung und thermische Ausdehnung verändern im Lauf der Aufzeichnung die Wege der Elektronen und führen zu einer Kontrastverschlechterung. Bei sorgfältiger Planung der Laborumgebung können diese Probleme heute beherrscht werden. 

Zur Zeit liegen die besten Werte bei 5% Kontrast für 0.03nm Hologrammstreifenabstand.

Problem der Glasfaserankopplung

Die technische Realisierung der Aufzeichnung mit einer CCD erfordert die Umwandlung der Primärelektronen[6] in Photonen, da sich eine direkte Beleuchtung wegen der Zerstörung des CCD Chips durch hochenergetische Elektronen verbietet. Die Umwandlung der Elektronen in sichtbares Licht erfolgt in einem Szintilationskristall, der aus Gründen einer optimalen Lichtausbeute [RAU94] über ein Glasfaserbündel die CCD beleuchtet.

Bei der Realisierung im CM30 Elektronenmikroskop in Tübingen ist das Glasfaserbündel ca. 10 cm lang. Es hat sich gezeigt, daß die Glasfasern nicht völlig parallel vom Szintilationskristall zum CCD Chip laufen und damit ein zusätzlicher Fehler durch die lokale Verschiebung der Pixel entsteht. Dieser Fehler muß durch geeignete Referenzmuster korrigiert werden.

Problemspezifische Lösung durch Ortsraumrechnung möglich

Die vorgestellten Verfahren der Auswertung mit neuronalen Netzen und insbesondere die analytischen Lösungen im Ortsraum ermöglichen auf fast natürliche Weise eine Berücksichtigung dieses speziellen Fehlers. Dazu werden die tatsächlichen Positionen der Pixel, auf der Bildebene im Szintilationskristall durch Referenzmuster bestimmt. Die lokale Fehlpositionierung jedes Pixels wird abgespeichert und bei der analytischen Rechnung in die Auswertegleichung einbezogen. Diese benötigt von vornherein eine explizite Angabe über die tatsächliche Position des Pixels, da die Position in der Phasentermberechnung auftaucht, siehe Kapitel 6.3.

Wahl der Blendenfunktion für die Seitenbandmethode

Das Seitenband muß - wie oben beschrieben - aus der komplexen Fouriertransformierten des Hologramms abgetrennt werden. Dazu stehen im Prinzip zwei Blendentypen zur Verfügung. Eine reine Kreisblende, die im Bereich des Seitenbands auf 1 gesetzt wird und den restlichen Bereich unterdrückt - also auf 0 gesetzt ist - oder "weiche" Blenden, die durch eine geeignete üblicherweise rotationssymmetrische Funktion beschrieben werden.

Das Problem der reinen Kreisblende liegt in der Erzeugung von Artefakten, die dadurch entstehen, daß die Blende das Spektrum am Rand des Kreises abrupt von 1 auf 0 setzt. Wird das Spektrum anschließend in den Ortsraum transformiert, erscheinen Muster der fehlenden Signale als Negativbild, da die hohen Raumfrequenzen fehlen, erscheinen entsprechende hochfrequente Muster.

Abbildung 31: Seitenbandzentriertes Powerspektrum eines fouriertransformierten Elektronen­hologramms. Für die Auswertung der Hologramme wurde bisher nur der eingekreiste Bereich des Seitenbandes genutzt.

Eine Verbesserung stellen Funktionsblenden dar, wie z.B. das Hanning-Window, das durch eine rotationssymmetrische Cosinusquadratfunktion beschrieben wird. Damit können die Muster im Ortsraum wirksam unterdrückt werden.

Filterfunktionen nehmen immer Information aus den Daten

Der offensichtliche Nachteil ist jedoch, daß hohe Raumfrequenzen, die bereits aufgrund der Dämpfung im hochfrequenten Bereich nur noch schwach vom Mikroskop übertragen werden, durch die stark abfallende Blendenfunktion weiter unterdrückt werden und somit kaum mehr einen Beitrag zur rekonstruierten Bildwelle beitragen. Aber gerade diese hochfrequenten Anteile im Bild sind es, derentwegen der ganze Aufwand der Holographie gemacht wird: Die Ortsauflösung des Mikroskops soll verbessert werden!

Übersprechen der Streaks aus der Autokorrelation

Abbildung 32: Die vier Probleme bei der Seitenbandmethode. Es wird nur die Seitenbandinformation genutzt, sehr hohe Anforderungen an die Raumfrequenz, Streaks stören die Rekonstruktion, das Ausschneiden des Seitenbands erzeugt Artefakte.

Die Aufzeichnung des Hologramms geschieht mit einer CCD Kamera, die aus einer endlichen Zahl äquidistanter Pixel besteht. Wird ein Objekt mit einer solchen Kamera aufgezeichnet und einer diskreten Fouriertransformation unterzogen, so wird mit der Annahme der periodischen Fortsetzung gerechnet. Dies führt aber in all den Fällen, in denen die Objektraumfrequenz kein ganzzahliges Vielfaches der Pixelfrequenz ist, und das ist der Normalfall, zu sogenannten Streaks sowohl in der Autokorrelation als auch im Seitenband.

Es ist experimentell nahezu unmöglich, die Frequenz der Hologrammstreifen an die Abtastfrequenz der Kamera anzupassen. Dafür müßte die Streifenfrequenz bei der Aufnahme mit mehr als einem Promille Genauigkeit bekannt sein, was sie aber auch nach Aufzeichnung des Hologramms selten sind, weil die Objektstruktur die Frequenz verändert.

Durch geeignete komplexe Multiplikation des Hologramms ist zwar eine Zentrierung des Seitenbands mit Subpixelgenauigkeit möglich, womit die Streaks im Seitenband minimiert werden, im allgemeinen hat man damit die Streaks der Autokorrelation verstärkt. Die Streaks der Autokorrelation kreuzen aber das auszuschneidende Seitenband und erzeugen nicht weiter zu beseitigende Artefakte in der rekonstruierten Bildwelle.

Informationsverlust durch Verwerfen der Autokorrelationsinformation

Unter idealen Bedingungen ist das Seitenbandverfahren bei der Rückgewinnung der Information fehlerfrei. Das ist aber nur dann richtig, wenn die Intensitäten der Pixel nicht mit einer Unsicherheit behaftet wären, somit ohne thermisches oder Schrotrauschen aufgezeichnet würden.

Aufzeichnung mit ungünstiger Teilchenzahl

Die Realität der Elektronenholographie ist jedoch eine andere. Im Gegensatz zur Licht­optik hat man es mit Quanten hoher Energie zu tun. Ein Vergleich: Ein typisches Photon hat eine Energie von einigen eV, ein Elektron in der hochauflösenden Elektronenmikroskopie in der Größenordnung von einigen 100keV. Dies allein ist schon ein Hinweis, daß Schrotrauschen ein ernstzunehmendes Problem bei der Bildaufzeichnung darstellt, da die Zahl der beleuchtenden Partikel, bei gleicher pro Pixel deponierter Energie, um das Verhältnis der Partikelenergien absinkt.

Es zeigt sich dann auch, daß bei der Aufzeichnung eines Hologramms pro Pixel nur einige hundert Elektronen zur Verfügung stehen. Die Nutzung wesentlich längerer Belichtungszeiten als einige Sekunden verbietet sich wegen nicht realisierbarer Stabilitätsforderungen besonders wegen der Objektdrift. Zu hohe Bestrahlungsdosen sind außerdem schlecht registrierbar, da die CCD Speicherzellen in die Sättigung gehen. Weiterhin können diese Dosen zu Veränderungen im Objekt, mithin zu dessen Zerstörung führen.

Die Beleuchtungs­intensität pro Fläche ist ca. 108 mal größer als normales Sonnenlicht[7]

 Geht man von ca. n=100 Elektronen pro Pixel aus, so liegt das Rauschen bei  Elektronen, was einem Fehler von 10% entspricht. Damit liegt der Wunsch nahe, die Information in der Autokorrelation, in der 95% der Bildintensität gespeichert ist, zu nutzen. Dies verbietet sich aber bei allen Verfahren, die auf der Fouriertransformation beruhen, weil die Fouriertransformation eine lineare Transformation ist, in der Autokorrelation aber der quadratische Term  gespeichert ist.

3.6          Phase-Shift Hologramme

Einen völlig anderen Weg für die Rekonstruktion der Bildwelle nutzt das Phase-Shift Verfahren. Dabei wird nicht nur ein Hologramm aufgezeichnet, sondern eine ganze Serie, die das Objekt unter identischen Bedingungen zeigt, jedoch mit unterschiedlicher Lage des Referenzstrahls entsteht. Dies hat zur Folge, daß in der Bildebene an gleichen Stellen auch jedesmal eine andere Intensität gemessen wird. Ist die Verschiebung des Referenzstrahls bekannt, so kann auf die ursprüngliche komplexe Bildwelle zurückgeschlossen werden.

Das Ziel der Phase-Shift Holographie ist die direkte Bestimmung der Phasenlage der Bildwelle in jedem Punkt des Hologramms. Die Phase-Shift Holographie ist in der optischen Holographie lange bekannt [DÖR82] und wird für Materialuntersuchungen und akustische Messungen eingesetzt, bei denen eine geringfügige Verschiebung von Objekten in Richtung der Beleuchtung erkannt werden soll, was jeweils eine deutliche Verschiebung der Wellenphase im Hologramm zur Folge hat.

Phasenverschiebung: , ,

Die Funktionsweise der Phase-Shift Holographie beruht auf der Verschiebung der Phasenlage des Referenzstrahls in Bezug auf die Bildwelle. In der Lichtoptik werden dazu drei einzelne Hologramme mit einer Phasenverschiebung der Referenzwelle von ,  und  aufgezeichnet. Dies ist einerseits für eine einfache analytische Berechnung der Bildphase vorteilhaft, außerdem ist es aber auch die Phasenverschiebung mit der maximalen Empfindlichkeit in der Bildphase. Es liegt daher nahe, dieses Verfahren ebenso für die Elektronenholographie zu nutzen, weil auch hier die exakte Bestimmung der Bildphase gewünscht wird.

3.6.1      Technische Realisierung der Phasenverschiebung

In der Lichtoptik wird die Phasenverschiebung durch Bewegung des Referenzspiegels mittels eines Piezostellelements erreicht. Dabei liegen die Stellwege im Bereich der Wellenlänge des Lichts, das für die Aufzeichnung der Hologramme verwendet wird,  mithin ca. 500/3 nm zwischen den einzelnen Aufnahmen. In der Elektronen­holographie stellt die Verschiebung der Phase des Referenzstrahls das größte technische Problem dar.

Es gibt kein gutes Verfahren für die Phasenverschiebung im TEM

Es stehen mehrere Methoden zur Verschiebung der Phasen des Referenzstrahls für die Elektronenholographie zur Verfügung, die jedoch alle bezüglich der Genauigkeit bei der Phasenverschiebung und der Reproduzierbarkeit ihre Probleme haben.

Shift mit Piezostellelement

Das einfachste Prinzip ist eine Bewegung des Biprismahalters mit einem Piezostell­element. Dazu wird in den Arm des Biprismahalters ein Piezostellelement eingeklebt. Durch Anlegen einer entsprechenden Steuerspannung an das Piezoelement wird das Biprisma um mehrere Nanometer verschoben. Dabei zeigt sich allerdings, daß einerseits die Hysterese des Stellelements zu Problemen führen kann [HEI93], aber insbesonders thermische Instabilitäten des Halters zu einer zusätzlichen Verschiebung führen, die keine exakte Verschiebung des Halters um die gewünschten Phasenwinkel erlauben. Daher ist bei diesem Verfahren die tatsächliche Phasenverschiebung des Halters im Nachhinein aus den Einzelhologrammen zu bestimmen, was auch gut gelingt.

Elektronische Shift

Eine Alternative zur mechanischen Verschiebung des Biprismas ist eine elektronische Verschiebung der Bildphase durch unterschiedlich hohe Biprismaspannungen bei der Aufzeichnung der Einzelhologramme. Dazu wird nach dem Aufzeichnen eines Hologramms die Biprismafadenspannung um einen kleinen Wert gegenüber der absoluten Fadenspannung erhöht und ein weiteres Hologramm der Serie aufgenommen. Für die Auswertung ist ein Set von mindestens drei Hologrammen mit geringfügig unterschiedlichen Raumfequenzen notwendig.

Für jeden Ort im Bild, außerhalb des zentralen Bereichs, der direkt hinter dem Biprismafaden liegt, liegen danach mehrere Messwerte bei unterschiedlicher Phasenlage der Hologrammstreifen vor. Damit kann die ursprüngliche Phasenlage der Bildwelle lokal berechnet werden.  Es gibt jedoch immer Bereiche entlang von Hologrammstreifen, an denen keine Berechnung der Bildphase möglich ist, weil alle Phasenlagen den gleichen Wert oder nur geringfügig unterschiedliche Werte haben [HEI93].

Thermische Shift

Neben der aktiven Verschiebung ist es möglich, durch reines Warten die Drift der Probe relativ zum Biprismahalter für ausreichende Phasenverschiebung zu nutzen. Dieses Vorgehen ergibt eine geringfügige Kontrastreduktion, die aber selbst unter ungünstigen Umständen immerhin bei 82% gegenüber idealen Verstellverfahren liegt [HEI93].

3.6.2      Mathematische Problemanalyse

Die Intensität im Phase-Shift-Hologramm bestimmt sich aus der gleichen Intensitätsgleichung wie in Standardhologrammen, es kommt jedoch ein zusätzlicher Phasenterm hinzu, der für jedes Teilhologramm unterschiedlich ist. Damit errechnet sich die Intensität des Teilhologramms nach folgendem Ausdruck:

Dabei beschreibt  die Intensität des Elektronenstrahls am Ort  im Hologramm j.  ist die komplexe Bildwelle, und  die zusätzliche Phasen­verschiebung, die für jedes Phase-Shift Hologramm hinzukommt.

3.6.3      Analytisches Auswerteverfahren

Bei der Auswertung der Hologramme sucht man für jeden Bildpunkt die ursprüngliche komplexe Bildwelle. Dies läßt sich analytisch durch geeignete trigonometrische Umformungen erreichen, eine klassische Lösung, die z.B. von [DÖR82] angegeben wird, lautet:

                  Gleichung 314: Amplitude Phase-Shift

               Gleichung 315: Phase Phase-Shift

Die einzelnen Terme sind dabei wie folgt definiert:

Gleichung 316: Terme Phase-Shift-Auswertung

Damit läßt sich ein Satz Phase-Shift-Hologramme unter der Annahme idealer Aufzeichnungsbedingungen, insbesondere Aufzeichnung ohne Rauschen, optimal rekonstruieren.

Da dies aber in der Realität selten gegeben ist, wurde untersucht, ob der Einsatz von neuro­nalen Netzen eine Verbesserung in der Rekonstruktion der komplexen Bildwelle bringt.

4                  Fourier-Elektronenmikroskop

In diesem Abschnitt soll ein völlig neues Konzept für ein Elektronenmikroskop beschrieben werden, das sich aus der Technik der Elektronenholographie herleitet, aber einen völlig anderen Ansatz der Bildaufzeichnung verfolgt. Die technische Realisierung eines Mikroskops des hier zu beschreibenden Typs konnte nicht mehr im Rahmen der Promotion erfolgen, obgleich das Patent [HEI97] erteilt ist und erste Untersuchungen stattfinden [MER96].

Der Name spricht den Raum der Datenaufzeichnung an

Der Name Fourier-Elektronenmikroskop leitet sich aus dem im wesentlichem im Fourierraum ablaufenden Frequenzaufzeichnungsprozess ab, der erst in einer späteren  Stufe der numerischen Verarbeitung zu Bildern im Ortsraum führt. Analog wird etwa der Begriff der Fourierspektroskopie für Meßverfahren verwendet, die Spektren auch erst nach einer Fouriertransformation sichtbar machen.

4.1          Hintergrund des Verfahrens

Die Aufzeichnung von Objekteigenschaften und die daraus resultierenden Bilder werden bisher im wesentlichen durch zwei Verfahren bestimmt.

n    Abbildung durch eine Optik

n    Abscannen mit einer Punktprobe und Rekonstruktion des Bildes im Rechner

Im Prinzip beruhen alle abbildenden optischen Verfahren auf Linsen. Mikroskope und Teleskope sind zumeist eine Zusammenschaltung mehrerer Linsen, um zusätzliche Vergrößerung oder die Korrektur von optischen Fehlern zu erreichen. Der Unterschied zwischen elektronenoptischen und lichtoptischen Linsen liegt nur in den unterschiedlichen Wellen, die damit verarbeitet werden. Das zentrale Bauelement, die Linse, ist dabei eine Anordnung, die durch Ausnutzung unterschiedlicher optischer Dichten zwei Flächen, die Objekt und die Bildebene, aufeinander abbildet. Dabei hat jeder Punkt in der Bildebene idealerweise den gleichen optischen Abstand von seinem Objektpunkt, unabhängig auf welchem Weg die Objektwelle die Linse durchquert hat.

Es ist als glückliche Fügung der Natur anzusehen, daß alle rotationssymmetrischen Systeme mit quadratischer Eigenschaftsänderung, etwa optischer Dichte oder Lage, diese idealen Abbildungsbedingungen erfüllen und somit den relativ einfachen Aufbau von abbildenden Systemen ohne weiterer Datenverarbeitung ermöglichen.

Wie bereits im einführenden Kapitel beschrieben, leiden abbildende Verfahren in der Elektronenmikroskopie unter den Bildfehlern, die bei Elektronenlinsen unvermeidlich sind. Alle Versuche, diese Bildfehler zu vermeiden, haben den Nachteil, daß sie neben dem primären Abbildungsprozess ein noch komplexeres Korrekturverfahren anwenden.

Bildgebende Verfahren mit einen Sensor

Die Alternative sind rasternde Verfahren, wie das Raster Elektronenmikroskop (REM[8]), RTEM und auch alle SXM. Diese haben durch den Einsatz von Rechnern und guten Senso­ren erheblich an Bedeutung gewonnen. Bei rasternden Verfahren wird das zu unter­­suchende Objekt mit einer feinen Sonde abgetastet. Die bei der Wechselwirkung zwischen Sonde und Objekt auftretenden Signale werden zusammen mit den Ortskoordinaten gespeichert. Gibt man die Signalintensität in Abhängigkeit des Ortes als Helligkeit auf einen Monitor, so erkennt man ein Bild des Objekts. 

Im RTEM wird ein feiner Elektronenstrahl auf die Probe gelenkt und der hindurchgetretene Strahl analysiert. Neben der Intensität lassen sich Größen wie Energieverlust der Elektronen oder emittierte Röntgenstrahlung ortsaufgelöst aufzeichnen. Bei den elektronenoptisch orientierten Verfahren bleibt aber die Auflösung durch die Sondengröße beschränkt. Die Sondengröße wird aber in erster Näherung durch die PSF der Linse, mithin durch die Bildfehler der Elektronenlinse begrenzt. Diese Problematik besteht in ähnlicher Weise bei den Spitzenabtastverfahren SXM durch die Spitzenform.

Bei den Abtastverfahren mit Sonden ist nicht die reine Sondengröße maßgebend, sondern die Steilheit der Flanke. Hat man eine Sonde mit einer scharfen Kante, so kann durch entsprechende Entfaltung des Signals die Struktur höher aufgelöst werden, als die reine Sondengröße erwarten läßt. Mithin ist die höchste Raumfrequenz in der Sondenform der limitierende Faktor.

4.2          Meßprinzip

Ähnlich wie bei den rasternden Verfahren wird auch in der Fouriermikroskopie das Objekt nicht parallel durch eine Optik abgebildet, sondern Schritt für Schritt abgetastet. Das Abtasten des Objekts erfolgt allerdings nicht mit einer annähernd punktförmigen Sonde, sondern mit einer geschickt gewählten Folge von Beleuchtungsmustern. Damit die Objektinformation vollständig und ökonomisch erfaßt wird, müssen die Beleuchtungsmuster zueinander orthogonal sein. Es ist eine unendliche Mannigfaltigkeit an Mustern denkbar, die diese Bedingung erfüllen. In der Praxis war das bisher die Menge an unterschiedlich positionierten Sondenpunkten (REM).

Eine relativ einfach zu erzeugende Menge ist die Menge aller zweidimensionalen perio­dischen Muster (Fouriermuster). Beleuchtet man das Objekt mit einem solchen Muster und mißt das globale Signal der Wechselwirkung, so erhält man für dieses Muster den Fourierkoeffi­­zienten, der für die spätere Rekonstruktion im Ortsraum notwendig ist. Genaugenommen muß natürlich auch noch mit dem dazugehörigen um 90° phasenverschobenen Muster gemessen werden, andernfalls kann kein komplexer Fourierkoeffizient bestimmt werden.

Die Beleuchtung des Objekts wiederholt man mit allen, zur vollständigen Aufzeichnung des Spektrums notwendigen Mustern und mit den jeweils um 90° phasenverschobenen. Die dabei ermittelten globalen Signale der Wechselwirkung werden gespeichert und anschließend durch eine Rücktransformation in den Ortsraum als Bild des Objekts sichtbar.

Damit das aufgezeichnete Signal einen ausreichenden Rauschabstand hat, ist ein entsprechend hoher Beleuchtungsstrom notwendig. Die experimentellen Daten zeigen, daß sich mit einer Interferenzbeleuchtung wesentlich höhere Beleuchtungsstromdichten, Abbildung 4-1, erreichen lassen [MER96].

Abbildung 41: Erreichbarer Beleuchtungsstrom im Gesichtsfeld in Abhängigkeit der Auflösung eines STEM und eines FEM. Die Situation ist für einen Goldkristall als Strahlteiler und ein Gesichtsfeld von 100x100 Pixel dargestellt.  Als Mass für die Auflösung der Interferenzmusterbeleuchtung wurde die Raumfrequenz des jeweiligen Musters gewählt, was eine konservative Annahme ist. Die Aufnahmeparameter sind: Richtstrahlwert 2*TA/m²Sr, Cc=Cs=2.7mm, U=100kV, Dz=40nm, entnommen [MER96].

Die Auflösung wird direkt durch die Streifenbreite bestimmt

Bei der technischen Realisierung wird das Objekt mit einem Elektronen-Interferenzmuster beleuchtet, das bereits heute mit einer Streifenfrequenz im Bereich von 1/0,05nm erzeugt werden kann [ORC97 S.29]. Die daraus resultierende Auflösung liegt dann ebenfalls in diesem Bereich. Damit werden also sofort alle typischen Atomabstände, wie sie in gewöhnlichen Substanzen auftreten, unterschritten. Kleinere Abstände können praktisch nur unter exotischen Drücken auftreten oder virtuell, wie bei Kristallreflexen höherer Ordnung.

Beschreibung der Signale

Wird ein Objekt  beleuchtet und die globale Intensität der Wechselwirkung zwischen Objekt und Beleuchtung  gemessen, so ergibt sich das Signal S immer aus

.

Dabei beschreibt w die Wechselwirkung zwischen Objekt und Beleuchtung bezüglich der zu messenden Größe S. Dies kann etwa die Emission von Röntgenquanten oder ein Energieverlustprozess im Material sein.

Damit mit einem globalen Detektor eine ortsaufgelöste Beobachtung realisiert werden kann, muß daher die Beleuchtung mit einem System von orthogonalen Beleuchtungsmustern  erfolgen. Für das Skalarprodukt der Beleuchtungsmuster  gilt hier

,

mit als Kroneckersymbol. In der Praxis läßt sich dies allerdings nur in Näherung realisieren. Für Gaußverteilte Beleuchtungsintensitäten

,

mit einer Halbwertsbreite s, wie sie im REM verwendet werden, ist diese Näherung gerechtfertigt, weil das Skalarprodukt exponentiell mit dem Abstand zweier Gaußglocken abfällt. Die Auflösung solcher Systeme ist im wesentlichen durch die Breite  bestimmt. Dieses System von genäherten orthogonalen Funktionen ist aber nicht das einzig denkbare System.

Ein weiteres Basissystem sind die Winkelfunktionen

Beleuchtung mit Fourierkomponenten

wie sie für die Fourierzerlegung verwendet werden. Beleuchtet man ein Objekt nacheinander mit den Fourierkomponenten und zeichnet die gemessene Signalintensität in Abhängigkeit der Ortsfrequenz auf, so erhält man nach einer Fourierrücktransformation das reelle Bild. Die beiden Hauptprobleme bei diesen Verfahren liegen darin, daß es keine negative Beleuchtungsintensität gibt, wie es für die Fourierbeleuchtung aber gefordert wird, und außerdem die Erzeugung von ortsfrequenzmodulierter Beleuchtung nicht trivial ist.

Ortsfrequenzmodulierte Beleuchtung läßt sich aber besonders in der Elektronenoptik gut mit einem Biprisma erzeugen, wie in der Elektronenholographie gezeigt wird und im Abschnitt 3.4.1 beschrieben wurde.

Negative Beleuchtung durch mathematischen Trick

Das Problem der negativen Beleuchtung kann durch einen kleinen mathematischen Trick ebenfalls gelöst werden. Dazu betrachtet man die Intensität, die für eine Wechselwirkung zwischen Objekt und Beleuchtung eine Rolle spielt. Wenn die Beleuchtung mit einem Interferenzmuster erfolgt, gilt für die quantenmechanische Wellenfunktion des Elektrons

.

Dabei sind  und  die Wellenvektoren der Teilwellen im Strahlteiler, mit den Vektorkomponenten  und . Die zweite Teilwelle wird in der Elektronenholographie als Referenzwelle bezeichnet. Die z-Achse sei die Hauptachse der Beleuchtung. Für die Intensität der Beleuchtung am Ort in der Objektebene erhält man

und nach Auswertung der Terme in der Ebene erhält man die reelle Intensität

mit .

Diese Intensität ist also immer positiv. Definiert man aber die scheinbare Beleuchtung  aus der Intensität mit

,

so hat man die gewünschte Beleuchtung mit negativen Anteilen, wie sie für die Fourierkomponentenbeleuchtung notwendig ist.

4.3          Technischer Aufbau

Für die praktische Realisierung eines FEM muß versucht werden, mit möglichst wenigen Elementen die Generation der Fourierkomponenten zu realisieren. Für eine rein eindimensionale Abtastung des Objekts kann dies direkt mit einem Biprisma realisiert werden. Dazu muß ein Möllenstedtsches Elektronenbiprisma oberhalb des Objekts angebracht werden, wie es in Abbildung 4‑2 veranschaulicht ist.

Abbildung 42: Schema des Fourier-Elektronenmikroskops entnommen, Patentschrift [HEI97]. Die Feldemissionselektronenquelle (1) erzeugt einen vom Wehneltzylinder (2) geformten kohärenten Elektronenstrahl. Dieser wird, ggf. nach Passieren weiterer elektronenoptischer Elemente, von den Möllenstedtschen Elektronenbiprismen (3) und (4) aufgespalten und nach Passieren weiterer elektronenoptischer Elemente (5) auf dem Objekt (9) zur Interferenz (7,8) gebracht. Mehrere Detektoren (6, 10, 15) zeichnen das globale Wechselwirkungssignal auf und leiten die Intensität zeitaufgelöst an einen Rechner (13) weiter. Dieser berechnet unter Berücksichtigung der Biprismaspannungen (11, 12) das ortsaufgelöste Bild (14)[HEI97].

Atomare Auflösung erfordert weiterhin eine Elektronenlinse

Das Interferenzmuster hinter dem Biprisma muß, um Streifenabstände in atomaren Abständen zu erhalten, mit einer Elektronenlinse auf das zu untersuchende Objekt verkleinert abgebildet werden. Die Streifenfrequenz kann bei dieser Anordnung über die Fadenspannung des Biprismas oder über den Linsenstrom der Elektronenlinse eingestellt werden. Für die Messung der Wechselwirkung zwischen Elektronen können verschiedene global arbeitende Detektorsysteme eingesetzt werden, wie sie im Abschnitt Kontrastentstehung näher beschrieben werden.

4.3.1      Anmerkung zur verwendeten Optik

Es erscheint zuerst nicht besonders nützlich, eine Anordnung zu wählen, die wieder mit Linsen und damit scheinbar wieder mit den Fehlern von Elektronenlinsen kämpfen muß. Dies ist aber erstaunlicherweise nicht so, da zwei günstige Umstände das Einschleichen von Bildfehlern unterbinden.

1.       In einer Arbeit von F. Lenz [LEN65] wird gezeigt, daß der Öffnungsfehler einer Elektronenlinse nicht mit dem Interferenzstreifenmuster eines Biprismas gemessen werden kann. Was zunächst als unwesentliche Eigenschaft der Interferenzstreifen erscheint, führt bei einer Anordnung mit abbildenden Elementen hinter dem Biprisma dazu, daß die Bildfehler keine Störung des Interferenzmusters erzeugen.

2.       Sehr günstig für die weitere Realisierung wirkt sich auch die Tatsache aus, daß das Biprisma ein elektronenoptisches Element ist, das praktisch keine eigenen Bildfehler hat [KAS92]. Dies steht nicht im Widerspruch zum Scherzertheorem, weil einerseits ein Biprisma bezüglich der optischen Achse nicht rotationssymmetrisch ist, zudem stellt das Biprisma eine Ladung im Strahlengang dar, beides Voraussetzungen des Theorems.


 


Abbildung 43: Technische Realisierung eines FEM, entnommen [MER96]. Im oberen Bereich wird der Strahl geteilt, darauf folgt die Optik, die das Interferenzmuster dreht und in der Frequenz moduliert, unten liegt das Objekt, das mit dem Interferenzmuster beleuchtet wird. Für die Aufzeichnung von 2-dimensionalen Bildern ist es notwendig, daß das Streifenmuster nicht nur in einer Richtung seine Streifenfrequenz ändert. Dies kann durch zwei Verfahren realisiert werden, durch den Einsatz eines zweiten Biprismas oder durch Drehen der Streifenrichtung. Beide Verfahren werden im nächsten Abschnitt näher behandelt, außerdem wird die Problematik der Phasenlage des Interferenzmusters beleuchtet.

4.4          Abtastvorgang

Die Objektbeleuchtung mit Interferenzstreifen im Ortsraum entspricht angenähert der Abtastung mit einer Punktsonde im Fourierraum. Während der Objektuntersuchung soll diese Punktsonde den Fourierraum vollständig abtasten, um die Wechselwirkung zwischen Elektronen und Objekt bei jeder Raumfrequenz vollständig zu erfassen.

Dieser Abtastprozess erfordert eine entsprechende praktische Realisierung von Interferenzmustern im Elektronenmikroskop.

4.4.1      Scannen mit zwei Biprismen

In direkter Analogie zur Abtastung eines Objekts mit dem REM kann der Fourierraum zeilenweise abgetastet werden. Dazu ist es notwendig, daß zwei zueinander orthogonal angeordnete Biprismen oberhalb der Probe im Strahlengang montiert sind. Das erste Biprisma wird mit einer Sägezahnspannung

der Frequenz  versorgt, das dazu orthogonale Biprisma mit einer um die Zeilenzahl Z reduzierten Spannung  mit der Frequenz . Wird das aufgezeichnete Signal mit den jeweiligen Spannungen und den damit direkt über die Biprisma­gleichung [MÖL56] verknüpften Raumfrequenzen aufgezeichnet, so erhält man das Wechselwirkungsbild im Fourierraum. Dies kann aber noch nicht direkt in den Ortsraum zurücktransformiert werden, da die Phasenlage der Interferenzstreifen noch nicht berücksichtigt wurde, die aber für die Erzeugung eines komplexen Fouriermusters zwingend notwendig ist.

Vorteile des Verfahrens:

·       Einfache Steuerung der Spannung

·       Lineares Durchmustern des Fourierraums

Nachteile des Verfahrens

·       Feinmechanische Montage der Biprismen schwierig

·       Unterschiedliche Ebenen der Biprismen

4.4.2      Scannen mit einem Biprisma und Steuerung des Linsenstroms

Eine alternative Möglichkeit zur Durchmusterung des Fourierraums besteht in einem Scannmuster, wie es vom Radarschirm im Ortsraum bekannt ist. Für jede Richtung durchläuft das Biprisma alle zu untersuchenden Raumfrequenzen, die unterschiedlichen Richtungen werden durch Drehen des Interferenzmusters erzeugt. Es gibt dabei verschiedene Möglichkeiten, dies zu erreichen:

·       Das Biprisma wird direkt gedreht, was mit entsprechenden Biprismahaltern bereits technisch realisiert, aber schlecht zu justieren ist, da die Drehachse mit dem Zentrum des Fourierraums zusammenfallen muß.

·       Drehen des Objekts, mit der gleichen Problematik, allerdings etwas einfacher, weil keine elektrische Zuleitung berücksichtigt werden muß.

·       Drehen des Interferenzmusters durch Anlegen von unterschiedlichen Linsenströmen im Bereich der Kondensoroptik.

Obwohl alle beschriebenen Verfahren technisch realisierbar wären, erscheint nur das letzte praktikabel. Erste Versuche für ein solches Vorgehen wurden bereits von Mertens [MER96] beschrieben. Der große Vorteil dabei ist, daß die elektronische Linsenstromkontrolle weit entwickelt ist.

4.5          Kontrastentstehung

Die Kontrastentstehung im FEM kann auf den gleichen physikalischen  Prinzipien beruhen wie im Rasterelektronenmikroskop REM. Der entscheidende Punkt für die Kontrastentstehung ist der verwendete Detektor.

Es ist einerseits möglich, mit Elektronendetektoren für Primär- oder Sekundärelektronen oder mit Strahlungsdetektoren für Röntgenquanten zu arbeiten, weiterhin können auch Signale aus dem Probevolumen aufgezeichnet werden, z.B. Phononen.

4.5.1      Kontrastentstehung mit Elektronendetektoren 

Für die Aufzeichnung der Elektronenstrahlintensität hinter der Probe können konventionelle Elektronendetektoren ohne Ortsauflösung verwendet werden. Für eine empfindliche und schnelle Registrierung eignet sich ein Photomultiplier mit vorgeschaltetem Detektorkristall oder Kunstoffszintilator. Dieser zeichnet die globale Intensität des Elektronenstrahls in Abhängigkeit der Raumfrequenzen des Beleuchtungsmusters auf. Der Kontrastentstehungsprozess ist dabei völlig analog zum TEM.

4.5.2      Kontrastentstehung mit Röntgendetektoren

Treffen Elektronen mit ausreichend hoher Energie auf Atome, so können sie Elektronen aus tieferen Elektronenbahnen anregen. Beim anschließenden Rekombinationsprozess werden charakteristische Röntgenstrahlen frei, die mit geeigneten, global arbeitenden Röntgendetektoren aufgezeichnet werden können. Da die Energie der Röntgenstrahlung materialabhängig ist, kann auch ein Materialkontrast aufgezeichnet werden. Die weiteren Eigenschaften sind hier sehr ähnlich zu den Verfahren im REM, bei dem ebenfalls Röntgenstrahlen aufgezeichnet werden.

4.6          Grenzen der Auflösung

Die Auflösung des Fourier-Elektronenmikroskops ist weniger zu hohen Raumfrequenzen hin beschränkt als zu niedrigen!

Die Erzeugung niedriger Raumfrequenzen ist schwierig

Das Problem beim Aufzeichnen niedriger Raumfrequenzen besteht im Erzeugen geeigneter, niederfrequenter Interferenzmuster. Aus der Biprismagleichung folgt, daß kleine Spannungen niedrige Streifenfrequenzen liefern. Dies gilt aber nur so lange, als es überhaupt zu einer Überlagerung der beiden Teilwellen kommt. Bei kleinen Fadenspannungen ist aber der Konvergenzwinkel der beiden Teilstrahlen so gering, daß es nur einen kleinen Bereich sich überlagernder Teilstrahlen gibt.

Die Lösung dieses Problems kann sehr unterschiedlich ausfallen. Einmal ist es möglich, grundsätzlich auf niedrige Raumfrequenzen zu verzichten. Dies ist seit Anbeginn der Elektronenmikroskopie bei der Nutzung der Elektronenphase der Fall, der Scherzerfokus liefert keinen großflächigen Phasenkontrast, da die niedrigen Raumfrequenzen nicht übertragen werden.

Eine Lösung des Problems könnte aber darin bestehen, daß der niederfrequente Bereich mit einer konventionellen Elektronensonde abgetastet wird und im Rechner die beiden Raumfrequenzbereiche zusammengefügt werden.

Eine weitere, allerdings technisch sehr anspruchsvolle Alternative, stellt die Verwendung mehrerer Biprismen zur Strahlführung dar. Wie Hasselbach [HAS88] gezeigt hat, ist es möglich, mit mehreren hintereinandergeschalteten Biprismen zu arbeiten und dabei kohärente Streifen zu beobachten.

5                  Neuronale Netze

Dieses Kapitel soll zuerst einen kurzen Überblick über Geschichte und Funktion von neuronalen Netzen geben. Insbesondere werden die in der Arbeit eingesetzten Netztypen in ihrer Funktionsweise beschrieben und ihre Verwendbarkeit für Fragestellungen der Physik diskutiert.

5.1          Historische Anmerkungen

Obwohl historisch die Untersuchung des Denkens und des Gehirns bis an die Grenze der Geschichtsschreibung zurück reicht, gab es bis zur Mitte des 20. Jahrhunderts keine akzeptable Erklärung für die Lernfähigkeit von biologischen Systemen. Eine erste plausible Regel und damit eine einfache Erklärung für das Lernen unter der Randbedingung, daß es keinen expliziten Lehrer gibt, der direkt in die Struktur des Gehirns eingreifen würde, fand D. Hebb 1949 [HEB49]. Die nach ihm benannte Hebb-Regel besagt, daß zwei Neuronen ihre Verbindung verstärken, wenn zwischen ihren Eingangssignalen Koinzidenzen auftreten. Aktuelle Forschungsergebnisse [FRE97] geben erstmals konkrete Anhaltspunkte, daß tatsächlich ein chemische Prozess der Verstärkung von Nervenverbindungen zugrunde liegt.

Das Verstehen einfacher Lernregeln erklärt noch nicht das Denken!

Die Hebb-Regel erklärt, isoliert betrachtet, nur das Lernen in einfachen Systemen mit wenigen Neuronen. Die Verarbeitung der Daten im Gehirn ist im Gegensatz zu den betrachteten statischen neuronalen Netzen ein dynamischer Prozess, was bisher nur in wenigen Arbeiten berücksichtigt wurde [JOH94]. Um extrem komplexe Vorgänge wie das Denken zu beschreiben oder gar zu simulieren, sind erheblich weitergehende Betrachtungen erforderlich. Die zugrundeliegenden Prozesse sind bis heute nur ansatzweise verstanden [HOF95].

In den 50er Jahren erlebt die Untersuchung von technisch realisierten Netzen aufgrund ihrer Faszination eine erste große Blüte. Zu dieser Zeit versuchte man die Hebb-Regel mit Analogelektronik abzubilden, etwa durch Ablagerungsprozesse von Silber an Naßelektroden. Diese Ansätze litten jedoch alle unter dem Problem der geringen Zuverlässigkeit und mangelnder Komplexität der Systeme.

Lineare Netze lösen keine echten Probleme

Das Ende der Forschungsarbeiten kam 1969 mit einer grundlegenden mathematischen Arbeit von Minsky [MIN69], die zeigt, daß eine große Klasse von Problemen mit linearen neuronalen Netzen nicht gelöst werden kann. Selbst eine einfache XOR Logik kann mit linearen Netzen nicht realisiert werden. Dieses niederschmetternde Ergebnis führte, neben den raschen Erfolgen bei der Entwicklung von Digitalrechnern, zu einer nahezu vollständigen Auflösung dieses Forschungsbereichs [ZEL94 S.29].

Mitte der 80er Jahre kam es zu einer Renaissance der technischen neuronalen Netze. Einerseits aufgrund der mathematischen Weiterentwicklung zu nichtlinearen Netzen, und der Entdeckung eines sehr effizienten Trainingsalgorithmus, dem Backpropagation Algorithmus durch Rumelhart, Hinton und Williams [RUM86].

Nichtlineare Netze lösen fast alle Probleme

Weiterhin wurde bewiesen, daß ein neuronales Netz mit mindestens einer verdeckten Ebene und nichtlinearen Transferfunktionen nahezu alle Funktionen annähern kann, ähnlich einer Polynomentwicklung [HOR91]. Daraufhin setzte eine intensive Beschäftigung mit neuronalen Netzen ein, die im wesentlichen von Physikern wie Hopfield und Kohonen - neben vielen anderen - geprägt wurde.

Dabei wurden neue theoretische Beschreibungsformen der Netze, die aus dem Bereich der Spingläser und der Thermodynamik entliehen waren, erfolgreich angewendet [HOP82].

Der Megatrend liegt im digitalem Verarbeiten von analoger Information

Andererseits hat sich die Digitaltechnik derart weit entwickelt, daß es Sinn hat, mit ihr “analoge” Anwendungen zu realisieren. Ein Trend, der von der digitalen Bildverarbeitung, die das Fotolabor ablöst, bis zur Simulation des nichtlinearen Verhaltens von neuronalen Netzen reicht. So wird das nichtlineare Verhalten der Neuronen digital durch Transferfunktionen nachgebildet, Aufsummieren und Modulieren erfolgen ebenfalls rein numerisch. Viele Versuche, analoge Bauelemente für die technische Realisierung einzusetzen [ZEL94], sind immer durch die rapid wachsende Leistungsfähigkeit der Digital­elektronik in der Entwicklung stecken geblieben.

Für die technische Anwendung von neuronalen Netzen wurden rasch Fragestellungen der Datenverarbeitung erkannt, bei denen die klassische Datenverarbeitung  nur mit großem Aufwand zu Ergebnissen kommt. Dies betrifft besonders die Analyse von verrauschten, hochdimensionalen (redundanten) und schwer interpretierbaren Meßdaten, wie sie in der Bild- und Sprachverarbeitung auftreten, aber auch bei komplexen Systemen wie Aktienkursen oder menschlichem Verhalten.

Lernen aus Beispielen

Für neuronale Netze genügt es meistens, einen repräsentativen Satz von Eingabedaten zu erheben, diese gegebenenfalls gewünschten Ausgabedaten zuzuordnen und damit die geeignete Klasse von neuronalen Netze zu trainieren. Es ist dabei nicht notwendig, den inneren Zusammenhang zwischen Eingabe und Ausgabedaten zu kennen[9]. Ein hinreichend gutes Ergebnis wird allerdings nur dann erzielt, wenn ein umfangreicher Trainingsdatensatz zur Verfügung steht. Diese Anforderung stellt in vielen praktischen Beispielen ein nicht zu unterschätzendes Problem dar.

5.2          Funktionsweise des Trainings

Anhand eines minimalistischen neuronalen Netzes soll die Grundidee von künstlichem Lernen und damit die Arbeitsweise von neuronalen Netzen aufgedeckt werden, insbesondere soll damit klargestellt werden, daß keinerlei Zauberei, sondern reine Mathematik das Verhalten von neuronalen Netzen bestimmt.

1.   Trainingsdaten: Eine empirische Untersuchung liefert folgende Wertepaare, deren zugrundeliegender Zusammenhang unbekannt ist:

Datensatz

Eingabewerte (x)

Ausgabewerte (y)

1

3

9

2

1

4

3

4

11

Derartige frei gewählte Zahlenpaare spielen bei der Untersuchung der Arbeitsweise von ANNs und bei der Beurteilung der Leistungsfähigkeit von Netzklassen in der Informatik eine erhebliche Rolle, vergl. J. Göppert [GOE96].

2.   Auswertung der Daten mit einem einfachem Netz, bestehend aus einem Input-Neuron, einer Verknüpfung und einem Output-Neuron:

Mathematisch läßt sich die Arbeitsweise durch folgenden Zusammenhang beschreiben:

Dieser funktionale Zusammenhang kann als einfachstes neuronales Netz mit einem Eingang und einem Ausgang, ohne verdeckter Ebene und fehlender nichtlinearer Übertragungsfunkion, betrachtet werden.

 

3.   Bestimmung von a durch ein iteratives Lernverfahren. Obwohl natürlich in diesem Beispiel eine einfache lineare Regressionsrechnung schneller und exakter zum Ziel führen würde, soll zur Veranschaulichung des Lernverfahrens bei neuronalen Netzen ein schrittweises Training durchgeführt werden.

 

Schritt

Aktion

Beispiel

1.

a zufällig initialisieren

2.

Wertepaar {1:(3,9)} auswählen, gemessenen Eingabewert einsetzen

3.

Abweichung errechnen

4.

a geringfügig ändern

5.

Gehe zum 2.Schritt bis Auswertefehler nicht mehr viel kleiner wird

 

 

a wird nach genügend vielen Schritten zu einen Wert nahe 3 konvergieren, womit für die Trainingsdaten eine geeignete Näherung gefunden ist.

 

4.   Nach dem Training kann das Netz zur Auswertung von unbekannten Meßdaten x verwendet werden, indem für jedes x ein dazugehöriges y vom Netz errechnet wird.

 

Das obige Beispiel mit seinen vier Schritten ist für alle neuronalen Netze typisch. In der Praxis werden aber  wesentlich mehr Trainingsdaten vorliegen, die dann auch hoch­dimensional sein können. Der funktionale Zusammenhang wird durch eine wesentlich komplexere Netzfunktion approximiert, die insbesondere nichtlineare Terme enthält.

5.2.1      Was ist ein Netz

Ein Netz besteht aus Knoten und Kanten. Jeder Knoten ist mit mindestens zwei benachbarten Knoten durch eine Kante verbunden. Die Topologie eines Netzes ist unabhängig von seiner Anordnung im Raum. Die Dimension d eines Netzes ist über die Anzahl n der Knoten definiert, die mit wachsendem topologischen Abstand a zum Ausgangsknoten gefunden werden.  

Neben der topologischen Dimension ist jedes Netz in einen geometrischen Raum eingebettet, dessen Dimension in keiner Weise von der topologischen Dimension des Netzes abhängt. So kann ein zweidimensionales Netz im dreidimensionalen Raum liegen, aber auch mühelos in einem eindimensionalen Rohr aufbewahrt werden.

Die Dimension eines neuronalen Netzes spielt nur für die Klasse der selbstorganisierenden Karten (in der Literatur auch als SOM self organizing maps bezeichnet oder nach ihrem finnischen Entdecker Teuvo Kohonen auch als Kohonen-Karten bekannt) eine entscheidende Rolle [RIT91]. Für feedforward-Netze hat die topologische Dimension der Netze eine völlig andere Bedeutung und spielt für die Beschreibung keine Rolle.

5.2.2      Eingabe- und Ausgabedatenraum

Werden mehrere Meßgrößen gleichzeitig aufgezeichnet, können diese zu einen Datenvektor zusammengefaßt werden. Dieser Vektor liegt im Eingabedatenraum, dessen Dimensionen durch die Anzahl der Elemente im Vektor definiert ist.

Beispiel:

Wetterdaten Temperatur T, Luftdruck p und Luftfeuchtigkeit h können zum Wettervektor

w=(T,p,h)

zusammengefaßt werden, der zugehörige Eingabedatenraum ist also dreidimensional. Analog zum Eingabedatenraum kann ein Ausgabedatenraum definiert werden, der ebenfalls durch einen Vektor beschrieben werden kann.

Im obigen Beispiel kann dies die Niederschlagswahrscheinlichkeit R und die Windgeschwindigkeit v sein. Was in diesem Beispiel durch einen zweidimensionalen Vektor (R,v) beschrieben werden kann. Die typische Problemstellung besteht aus der Aufgabe, zu jedem Eingabevektor einen eindeutigen Ausgabevektor zu ermitteln, daß dies nicht immer erfolgreich sein muß, verdeutlicht das obige Beispiel aus der Meteorologie wohl sehr anschaulich.

5.3          Netzklassen

Alle neuronalen Netze haben in ihrer Struktur die gemeinsame Eigenschaft vieler elementarer Elemente, den Neuronen, und der Verknüpfung dieser Elemente durch mathematische Funktionen. Während eines Trainingsprozesses können sich sowohl die Anzahl der Elemente als auch deren  Verknüpfungen ändern.

Im Lauf der Entwicklung von technischen neuronalen Netzen (zumeist als Artificial Neural Net, ANN, in der Literatur bezeichnet) haben sich viele unterschiedliche Netz­topologien und Funktionsweisen etabliert. Obwohl sich die Entwicklung zunächst an biologischen Modellen orientierte, haben sich im Lauf der Zeit die ANN stark abweichend von ihren biologischen Vorbildern entwickelt.

Der Unterschied zwischen Gehirn und ANN ist ein quantitativer

Der quantitative Hauptunterschied liegt in der Anzahl der Neuronen, das menschliche Gehirn besteht aus ca. 20*109 Neuronen, ein typisches ANN hat selten wesentlich mehr als 1.000 Neuronen. Während in der Biologie ein Neuron mit ca. 10.000 weiteren Neuronen verknüpft ist, findet man in ANNs selten mehr als 100 Verbindungen, meist deutlich weniger. Der Arbeitstakt in der Biologie liegt unter einem Kiloherz, moderne Hardwareimplementierungen können einige hundert Megaherz Taktrate erreichen.

Neben diesen rein quantitativen Unterschieden, unterscheiden sich die ANN meist durch biologisch völlig unplausible Lernalgorithmen, die aus Gründen der Effizienz entwickelt wurden.

Ein typischer Vertreter eines ANN, das sich am biologischen Vorbild orientiert, sind die Feature Maps [KOH84], die aus Beobachtungen der Funktionsweise der Sehrinde (Teil des Gehirns) abgeleitet wurden.

Ein physikalisch interessantes Modell stellen die Hopfield-Netze [HOP82] dar, die analog zu physikalischen Spinsystemen beschrieben werden können. Ihr Verhalten unter verschiedenen Randbedingungen kann thermodynamisch gut beschrieben werden.

Kaum noch mit biologischen Systemen vergleichbar, aber von großer praktischer Bedeutung sind die feedforward-Netze, die mit sehr effizienten Trainingsmethoden (Backpropagation und Weiterentwicklungen) geschult werden. Dabei sind die fertig trainierten Netze in der Auswertung von Meßdaten sehr schnell und effizient.

Daneben sind weitere Formen für Spezialanwendungen entwickelt worden, um spezielle Fragestellungen zu untersuchen, teilweise auch Hybridformen unterschiedlicher Netzklassen [ZEL94].

5.3.1      Kohonenkarten

Feature Maps, die nach ihrem finnischen Erfinder Teuvo Kohonen auch Kohonenkarten genannt werden, sind Netze, die in einem höherdimensionalen geometrischen Raum eine Funktion geeignet abtasten. Jeden Abtastpunkt, der durch einen Netzknoten realisiert ist, nennt man Neuron. Dabei kann jedes Neuron noch zusätzliche Informationen über Eigenschaften (Feature) an diesem Ort (map) tragen. Kohonenkarten eignen sich sehr gut zur Klassifikation und Visualisierung von Signalen [KAN94], deren Ursprung in biologischen Systemen liegt.

 Aufbau

Die technische Realisierung einer Kohonenkarte wird durch Vektorarrays realisiert. Die Dimension der Vektoren entspricht der Dimension des Eingabedatenraums. Die Dimension des Arrays sollte der Dimension des Ausgaberaumes entsprechen. Ist dies nicht gewährleistet, wird ein zu niederdimensionales Netz versuchen, durch passende Faltung den Eingaberaum entsprechend abzutasten, liegt die Dimensionalität zu hoch, kollabieren überschüssige Dimensionen. Beides ist unerwünscht, da es die Leistungsfähigkeit des Netzes mindert. Das Array repräsentiert das Netz, jedes Element (Vektor) ist ein Knoten des Netzes. Die Kanten werden nicht explizit dargestellt, können aber nach Bedarf berechnet werden.

Aus experimentellen Beobachtungen wird von Kohonen vorgeschlagen, das Array (des Netzes) nicht quadratisch zu wählen, weil viele praktische Probleme eine Ausrichtung in einer Richtung zeigen, d.h. die erste Hauptachse ist länger als die zweite und folgende.

Trainingsmethode

Während des Trainings sollen die Knoten im Netz in Gebieten großer Eingabedatendichte angeordnet werden. Im Normalfall sind diese Gebiete nicht explizit bekannt und sollen durch unüberwachtes Lernen dem Netz vermittelt werden. Unüberwachtes Lernen bedeutet, daß keine Information über den vorhandenen Fehler bei der Plazierung der Neuronen direkt in den Algorithmus eingeht, wie dies etwa bei dem Verfahren Backpropagation geschieht. Unüberwachtes Lernen ist auch das biologisch plausibelste Modell zum Training von Netzen

Dazu durchläuft man folgenden Algorithmus

1.    Auffinden des Neurons W (Winner), der dem Eingabewert am ähnlichsten ist

  

Gleichung 51:Winnersuche

2.    Anpassung aller Neuronen, die sich in einer Umgebung von W befinden nach der Gleichung

Gleichung 52: Anpassung

Der Faktor  hängt vom Abstand des Knotens k zum Gewinner Knoten W ab. Typischerweise wird eine gaußglockenförmige Abhängigkeit gewählt. Der Faktor  beschreibt das zeitliche Abklingen des Lerneinflusses, zumeist wird ein exponentieller Abfall gewählt.

Abbildung 51: Training von Kohonenkarten. Es wird das dem Lernwert nächstliegende Neuron (5) als Winner (s) ausgewählt und zusammen mit den benachbarten Neuronen in Richtung Eingangswert verändert. Neuronen, die außerhalb des vorgegebenen Nachbarschaftsradius liegen, werden nicht verändert. Während des Trainings wird die Änderung, die ein Trainingswert erzeugt, immer geringer, das Netz wird altersstarrsinnig, hoffentlich ist es dann bereits konvergiert. (Darstellung angeregt durch [ZEL94])

Neben der effizienten Plazierung der Neuronen im Eingabedatenraum erfolgt zugleich ein Training der Ausgabewerte, die jedem Neuron zugeordnet sind. Dazu ist es allerdings zwingend erforderlich, daß der richtige Ausgabewert am Ort des Eingabetrainingsvektors bekannt ist.

Bei der Initialisierung des Netzes werden auch die Ausgabewerte der Neuronen mit zufällig gewählten Werten initialisiert. Mit jedem neuen Trainingswert, der dem Netz gezeigt wird, werden nach der gleichen Regel, nach der die Position der Neuronen den Positionen der Trainingsvektoren angepaßt werden, auch die Ausgabewerte verändert.

Das Neuron, das dem Eingabewert am nächsten liegt, das Winnerneuron, verändert seinen Ausgabewert am stärksten in Richtung des Ausgabewertes des Trainingsvektors. Die Neuronen, die topologisch auf dem Netz in der Umgebung des Winners liegen, verändern ihren Ausgabewert in Abhängigkeit vom topologischen Abstand zum Winnerneuron. Für die charakteristische Abstandsfunktion kann wieder die Gaußglocke gewählt werden, es zeigt sich aber, daß jede andere mit dem Radius fallende Funktion fast genauso gut für diese Aufgabe geeignet ist.

In der Praxis wird häufig eine Stufenfunktion verwendet, die alle Neuronen bis zu einem charakteristischen Abstand vom Winner in gleicher Weise wie den Winner verändert, alle außerhalb des charakteristischen Abstands aber völlig unverändert läßt. Der Vorteil von diesen einfachen Abstandsfunktionen ist ein erheblicher Zeitgewinn für die einzelnen Berechnungen und damit die Möglichkeit, in gleicher Zeit wesentlich mehr Trainings­zyklen durchzuführen, die im Mittel bei genügend verfügbaren Trainingsvektoren wieder zu einer Gaußverteilung bei der Trainingsumgebung führen.

Datenauswertung

Nach dem Abschluß des Trainings kann das neuronale Netz zum Auswerten von unbekannten Daten genutzt werden. Dabei unterscheidet man häufig zwischen Testdaten und realen Meßdaten. Mit den Testdatensätzen kann die Trainingsqualität überprüft werden, da für diese der korrekte Ausgabewert bereits vorab bekannt ist.

Der Auswerteprozess erfolgt sehr ähnlich zum Trainingsprozess, für einen bestimmten Eingabewert wird das nächstgelegene Neuron im Netz gesucht und der mit diesem Neuron gespeicherte Ausgabewert als Resultat zur Verfügung gestellt.

Interpolation zwischen den Neuronen ist schwierig

Neben dieser einfachen Auswertung kann auch eine Interpolation des Ausgabewertes unter Zuhilfenahme von benachbarten Neuronen erfolgen. Die diesbezüglichen Möglichkeiten wurden von Göppert [GOE96] ausführlich untersucht, aber während dieser Arbeit noch nicht eingesetzt. Eine Alternative, wie sie von Ritter [RIT91] angegeben wird, ist das Abspeichern der Gradienten an den neuronalen Stützpunkten, hierbei liegt das Problem im Training der Jakobimatrix. Es wurde versucht, den von Ritter vorgeschlagenen Algorithmus zu implementieren, die Präzision der Resultate konnte damit aber nicht signifikant erhöht werden [HEI93].

5.3.2      Feedforward-Netze mit Backpropagation

Eine grundlegende Alternative zu den Kohonenkarten stellt die Klasse der feedforward-Netze dar. Feedforward-Netze (FFN) haben mit Kohonenkarten nur die Eigenschaft gemeinsam, daß sie aus einzelnen Elementen, den Neuronen, bestehen, der funktionale Zusammenhang zwischen Eingabe und Ausgabe leitet sich von einem völlig anderen Prinzip ab.

Schichtweises Ab­­arbeiten der Daten

Die Grundidee der FFNs ist eine Verarbeitung der Signale über mehrere Schichten hinweg, in Analogie zu den Prozessen im Gehirn. Die erste Verarbeitungsschicht besteht dabei aus den Rezeptoren oder im Sprachgebrauch der ANNs aus der Eingabeschicht. An diese Schicht schließen sich eine oder mehrere verborgene Schichten, sogenannte Hidden Layers, diese sind über unterschiedlich starke Verbindungen mit den vorhergehenden Schichten vollständig verknüpft. Die terminierende Schicht wird als Output Layer bezeichnet und übernimmt die Aufgabe, das Ergebnis der Auswertung bereitzustellen.

Dieser anschaulichen Beschreibung liegt ein einfacher mathematischer Algorithmus zugrunde, der den Auswertevorgang beschreibt.

Mathematische Formulierung des feedforward-Netzes

Der Eingabewert ist ein Vektor , bestehend aus n Elementen, den einzelnen Eingabegrößen , in der Bildverarbeitung etwa die Intensität in einzelnen Bildpunkten, die in einem Auswerteschritt einbezogen werden. Die Eingabewerte werden direkt von der Eingabeschicht übernommen, womit sich der Aktivierungszustand zum Zeitpunkt t der Eingabe für die einzelnen Neuronen ergibt. Dieser wird mit der Gewichtsmatrix   mit n Zeilen und m Spalten, eine für jedes Neuron in der ersten verdeckten Schicht, multipliziert und beschreibt damit den Aktivierungszustand der Neuronen in der ersten verdeckten Ebene.

Die Ausgabe  der Zelle j bestimmt sich aus der Aktivierung und einer nichtlinearen Ausgabefunktion aus



dabei stellt eine Funktion dar, die sowohl nach unten als auch nach oben beschränkt ist. Aus praktischen Gründen (leichte Differenzierbarkeit, keine Unstetigkeiten, einfach numerisch zu berechnen) wählt man häufig die arctan Funktion, .

Dieses Ausgabesignal wird anschließend auf gleiche Weise, d.h. Multiplikation mit einer Übertragungsmatrix  an die nächste Neuronenschicht weitergegeben. Die Anzahl der verdeckten Schichten als auch die Zahl der Neuronen in den einzelnen Schichten sind freie Parameter und können theoretisch beliebig gewählt werden.

Das Aktivitätssignal der letzten Schicht beschreibt zugleich den Ausgabewert des neuronalen Netzes, in der Bildverarbeitung wird dies später z.B. die komplexe Bildwelle sein. 

Die mathematischen Freiheitsgrade  eines solchen Netzes, die für die Flexibilität und Trainierbarkeit von entscheidender Bedeutung sind, berechnen sich aus der Anzahl der Matrixelemente in den k Übergangsmatrizen .

Aufbau

Die zentrale Frage beim Realisieren einer Anwendung für feedforward-Netze ist das Design des Netzes. Dabei stehen dem Anwender folgende Freiheitsgrade zur Verfügung:

·     Anzahl der Eingabeneuronen (=Dimension des Eingabevektors)

·     Anzahl der verdeckten Ebenen

·     Elemente in jeder verdeckten Ebene

·     Art der nichtlinearen Übertragungsfunktion

Es gibt keine allgemeine Designregel

In der Literatur gibt es keine einfachen mathematisch fundierten Regeln, die optimale  Kombination aufzustellen, vielmehr bedient man sich teilweise eigener Optimierungsprogramme, um ein günstiges Design zu finden.

Einige brauchbare Anhaltspunkte für das Design können aber trotzdem angegeben werden.

Þ  Theoretisch genügt eine verdeckte Schicht, um alle gutartigen[10] Fragestellungen mit dem Netz zu berechnen.

Þ  Je komplexer der Zusammenhang ist, um so mehr verdeckte Schichten und Neuronen sind nützlich.

Þ  Bei mehr als drei verdeckten Schichten wird das Training langwierig und instabil.

Þ  Die Anzahl der Freiheitsgrade des Netzes darf die Zahl der Trainingsvektoren nicht überschreiten.

Trainingsmethode

Das feedforward-Netz beschreibt zunächst nur einen mathematischen Approximations­algorithmus, vergleichbar der Polynomentwicklung. Der entscheidende Unterschied für diesen Algorithmus ist die Tatsache, daß man ein Verfahren angeben kann, das aus bekannten Stützpunkten im Datenraum brauchbare Matrixelemente in einem iterativen Prozess generiert. Da der Prozess iterativ ist, spricht man auch von einem Lernverfahren.

Gewichte durch Backpropagation bestimmen

Der einfachste Algorithmus ist das Backpropagation, das von Rumelhart [RUM86a] erstmals angegeben wurde[11]. Es ist ein Gradientenabstiegsverfahren, das die Fehler, die das neuronale Netz bei der Auswertung von Trainingsvektoren macht, durch Vergleich mit den bekannten Ausgabewerten der Trainingsdaten ermittelt und diese für eine geringfügige Änderung der Gewichte in Richtung korrekter Ausgabewert verwendet. Eine Herleitung des Verfahrens findet man etwa in [ZEL94].

Der Trainingsprozess besteht aus mehreren ineinander verschachtelten Programm­schleifen. Bei dem hier vorgestellten Ablauf liegt der Lernvorgang in der inneren Schleife, man spricht dabei von Onlinetraining:

Schleife

Durchläufe

Aufgabe

Äußerste Schleife,

Trainingszyklen

K

·       Wiederholungen der Präsentation des gesamten Trainingsdatensatzes

·       ggf. Kontrollmessung mit Testdatensatz

·       Überprüfung auf Trainingsabbruch.

Mittlere Schleife

 

M

·       Unterschiedliche Trainingsmuster anlegen

Innere Schleife:

N

·       Berechnung des Ausgabewertes durch Berechnung aller Übergangsmatrizen

·       Berechnung der Fehler und Veränderung aller Gewichte

Die Qualität wird durch Testdaten bestimmt

Die Anzahl der Trainingszyklen richtet sich nach der gewünschten Präzision der Ausgabewerte. Für einen festen Trainingsdatensatz kann bei ausreichender Anzahl von Freiheitsgraden im Netz fast jede beliebige Genauigkeit erzielt werden. Darum wird die Qualität des Netzes am Ende eines Trainingszyklus mit einem nicht für das Training verwendeten Datensatz getestet, die Auswertegenauigkeit dieses Datensatzes ist für die tatsächliche Qualität des Netzes maßgebend.

Beginnt der Auswertefehler bei dieser Kontrollmessung anzusteigen, liegt ein übertrainiertes Netz vor und das Training wird beendet. Für die Datenauswertung verwendet man später das Netz mit dem geringsten Auswertefehler bei der Kontrollmessung.

Trainingsaufwand

Der Aufwand dieses Algorithmus läßt sich etwa wie folgt abschätzen:

Die Anzahl der Trainingsvektoren m sollte größer als die Zahl der Freiheitsgradesein. Für ein gut konvergierendes Training im Standard Backpropagation benötigt man mehr Trainingszyklen k als Trainingsvektoren vorhanden sind.

Damit ist der Aufwand für das Training von der Ordnung O().

Kleine Lernschritte führen zuverlässiger zum Ziel

Der Vorteil des Verfahrens liegt in seiner Zuverlässigkeit, wenn kleine Lernschritte verwendet werden, zudem ist es erstaunlich, daß das Verfahren auch in extrem hochdimensionalen Räumen konvergiert, wenn auch nicht nachweislich zum optimalen Wert. Die Raumdimension entspricht immerhin der Anzahl freier Parameter im Training, somit den Freiheitsgraden des Netzes.

Ein Problem des Verfahrens ist sein enormer Rechenaufwand bei kleinen Iterationsschritten, so wurde für die Auswertung der Hologramme ein Netz mit mehreren hundert Freiheitsgraden benötigt, was einen Rechenaufwand von O(1.000.000) bis zu O(1.000.000.000) verursacht. 

Neben dem einfachen Gradientenabstieg werden in der Literatur auch Verfahren zur Beschleunigung des Algorithmus angegeben, die versuchen, aus den Gradienten bereits auf die Lage des Minimums zu schließen (z.B. Quickprop [Fahl89] nach [ZEL94]), diese Verfahren beschleunigen das Training in günstigen Fällen um Größenordnungen, neigen aber bei ungünstiger Topologie des Trainingsraums zu Schwingungen oder frühzeitigem Verharren in einem ungünstigen Nebenminimum.

Neben der Optimierung der Trainingsalgorithmen bietet das Training eine Parallelisierung der inneren Schleife, was von Spezialprozessoren, z.B. den MA16 Prozessor von Siemens [ZEL94], bereits genutzt wird.

Datenauswertung

Liegt ein fertig trainiertes Netz vor, d.h. sind alle Übergangsmatrizen ausreichend genau bestimmt, so kann das Netz zur Auswertung von unbekannten Meßdaten herangezogen werden. Der Auswerteprozess besteht darin, die vorbereiteten Daten an das Netz anzulegen, die Berechnung mit den festen Matrizen durchzuführen und den Ausgabewert der Berechnung abzuspeichern.

Für die Auswertung eines Hologramms mit 1.000.000 Pixel bedeutet dies 1.000.000-faches Durchlaufen des Auswertevorgangs mit dem neuronalen Netz. Diese Durchläufe bestehen im wesentlichen aus mehreren Matrixmultiplikationen und Modifikation der resultierenden Vektoren durch nichtlineare Funktionen. Dieser Prozess ist analog zum Trainingsprozess parallelisierbar, auf konventionellen Rechnern benötigt er nur wenige Minuten.  

 


6                  Auswertung von Hologrammen

Der erste Einsatz eines neuronalen Netzes im Bereich der Elektronenholographie erfolgte zur Auswertung von Phase-Shift Hologrammen, daher wird diese Methode zuerst beschrieben. Aus dem ersten erfolgreichen Einsatz von neuronalen Netzen und einem tieferen Verständnis der Zusammenhänge bei Bildauswertung im Ortsraum entwickelte sich die Idee, auch Standardhologramme mit neuronalen Netzen auszuwerten. Dieser Ansatz war besonders fruchtbar, weil einerseits die bisherige Auswertequalität gesteigert werden konnte, andererseits darauf aufbauend ein neues Verfahren zur Auswertung von Hologrammen entwickelt werden konnte.

6.1.1      Auswertung mit Kohonen-Karten

Die Auswertung der Phase-Shift Hologramme erfolgt mit einer Kohonenkarte als neuronalem Netz. Die Kohonenkarte eignet sich für den vorliegenden niederdimensionalen Eingabedatenraum, da mit einer relativ kleinen Zahl an Knoten (Neuronen) der Meßbereich mit ausreichender Genauigkeit abgedeckt werden kann.

Wertebereich darf keine Unstetigkeit enthalten

Die Auswertung hat die Bestimmung von Amplitude und Phase zum Ziel, dies ist jedoch für das Training des Netzes nicht geeignet, da die Phase an der Stelle  auf Null springt, mithin unstetig ist. Trainiert man das Netz an einer Unstetigkeitsstelle, erhält man Fehler bis zu 50%, was für eine Auswertung inakzeptabel ist. Daher werden nicht Amplitude und Phase als Ausgabegröße trainiert, sondern Real- und Imaginärteil. Eine einfache Koordinatentransformation führt auf die für das menschliche Auge leichter zu interpretierenden Größen Amplitude und Phase. Für die numerische Nachbearbeitung der Bilder ist die komplexe Bildwelle in der kartesischen Darstellung von vornherein immer günstiger.

Daten zur Kohonenkarte

Für die Auswertung wurde eine quadratische, zweidimensionale Kohonenkarte mit einer Kantenlänge von 25 Knoten verwendet. Jeder Knoten bestand aus zwei Vektoren, dem Eingabevektor mit drei Elementen: den drei Intensitäten in den verschiedenen Hologrammen für jeden Bildort und dem Ausgabevektor mit zwei Elementen: Real- und Imaginärteil der komplexen Bildwelle.

In einer zweiten Phase wurde in jedem Knoten auch noch die Jakobimatrix trainiert, damit eine genaue Interpolation zwischen den Stützstellen möglich ist. Die Matrix besteht aus jeweils drei Spalten und zwei Zeilen, da der Eingangsdatenraum dreidimensional und der Ausgaberaum zweidimensional ist.

Training der Kohonenkarte

Trainingsbereich umfaßt den gesamten möglichen Wertebereich

Für das Training der Karte wurden 1000 Beispielvektoren nach der Intensitätsgleichung (Gleichung 3‑13 Hologramm) berechnet, dazu wurden die Werte für die Amplitude im Bereich von A aus [0... 1,2] und  aus [0... 2] gewählt. Der Amplitudenbereich oberhalb von 1 soll es ermöglichen, daß das Netz auch im Randbereich eine gute Genauigkeit liefert, da Kohonenkarten und neuronale Netze allgemein im Randbereich des Trainingsgebiets schlechte Ergebnisse liefern, die Amplitude im Hologramm jedoch bis knapp über eins ansteigen kann. Werte geringfügig über eins treten durch Fokusierungseffekte in Kristallsäulen auf.

Training mit leichtem Rauschen

Zu den berechneten Intensitäten wurde noch ein Prozent Rauschen aufmultipliziert, damit die Trainingsdaten nicht völlig perfekt sind. Dies führt erfahrungsgemäß zu einer sichereren Konvergenz im Training.

Abbildung 61: Trainierte Kohonenkarte im Eingabedatenraum. Die Auswertung erfolgt, indem im Netz der Knoten mit dem kleinstem Abstand zum Meßwert gesucht wird. Der an diesem Knoten abgespeicherte komplexe Wert für die Bildwelle wird ausgegeben und weiterverarbeitet.

Auswertung von Daten mit der Kohonenkarte

Mit dem ausgelernten neuronalen Netz wurden Testmuster und reale Phase-Shift Hologramme ausgewertet. Die Analyse der Testpattern hat dabei gezeigt, daß die Auswertegenauigkeit der einer klassischen Auswertung überlegen ist. Dies liegt an der Eigenschaft, daß Meßwerte, die nicht fehlerfrei sind, von der analytischen Lösung nicht problem­­angepaßt interpretiert werden. Die Auswertung mit der Kohonenkarte nutzt hingegen immer das Neuron, das dem Meßwerttripel am ähnlichsten ist (kleinste euklidsche Distanz) und liefert somit das nahezu optimale Ergebnis [HEI96e].

6.1.2      Fehlergrenzen

In der Praxis liegen leider erheblich ungünstigere Bedingungen vor, der Kontrast ist schlecht und sowohl thermisches als auch Schrotrauschen behindern die Auswertung erheblich.

Abbildung 62: Links: Mögliche Meßwerte im Eingabedatenraum. Trägt man die normierten Intensitäten der drei Teilhologramme für unterschiedliche Amplituden und Phasenkombinationen in einem dreidimensionalen Raum auf, so liegen alle Meßwerte auf einem Paraboloid. Alle Werte liegen im ersten Oktant, weil alle aufgezeichneten Intensitäten positiv und in der Hologrammgleichung sogar größer eins sind. Rechts: Drehung des Koordinatensystems. Dreht man das Koordinatensystem in die Hauptachse des Paraboloids, so findet man, daß alle Größen, die bei der Aufzeichnung der Bildwelle eine Rolle spielen, sich in der Form des Paraboloids niederschlagen. Der Öffnungsparameter des Paraboloids wird durch den Kontrast der Aufnahmen bestimmt, die Ausrichtung durch das globale Intensitätsverhältnis der Teilbilder, die Form durch die relative Phasenlage der Teilbilder zueinander.

Dies wird durch folgende Betrachtung klar:

Trägt man die ideale Intensität in den drei Teilhologrammen für jeden einzelnen Bildpunkt im dreidimensionalen Eingangsdatenraum (EDR) auf, so befinden sich alle Punkte auf einem Paraboloid, dessen Hauptachse auf der Raumdiagonalen im ersten Oktant liegt (Abbildung 6‑2 links). Nach einer Hauptachsentransformation, in die I3 Achse, sieht man die gewohnte Darstellung eines nach oben geöffneten Paraboloids. Die Öffnung dieses Paraboloids wird durch den Streifenkontrast parametrisiert. In einem Zylinderkoordinatensystem, das an der Hauptachse ausgerichtet ist, beschreibt der Abstand von der z-Achse die Amplitude  und der Winkel die Phase der Bildwelle (Abbildung 6‑2 rechts).

Liegt ein verrauschter Bildpunkt vor, weicht die gemessene Intensität  von der idealen Intensität ohne Rauschen um den Abstand  ab. Unter der Annahme, daß das Rauschen statistisch im Mittel einen Abstand von  hat, liegen die gemessenen Werte alle auf einer Fehlerkugel. Der Einfluß dieses Meßfehlers auf die Auswertegenauigkeit bezüglich Bildphase und -amplitude hängt somit entscheidend von der Form des Paraboloids und der Position des Meßwerts auf dem Paraboloid ab.

Ist der Kontrast ideal , eine in der Realität unerfüllbare Situation, ist das Paraboloid weit geöffnet (Abbildung 6‑3, links), und die Bestimmung der Phase sehr genau. Verengt sich das Paraboloid aber aufgrund unzulänglichen Kontrasts (Abbildung 6‑3 links), ist eine zuverlässige Bestimmung der Phase behindert. Dabei wird die Genauigkeit noch zusätzlich vom Achsabstand auf dem Paraboloid bestimmt, der wiederum durch die Amplitude festgelegt wird.

Abbildung 63:Einfluß von Kontrast und Phasenverschiebung der Teilbilder auf die Bereiche möglicher Datentripel. Schlechter Kontrast verkleinert das Paraboloid, auf dem mögliche Datentripel liegen, womit insbesondere die Genauigkeit bei der Bestimmung der Phase leidet. Im Grenzfall V=0 kann nur die Amplitude bestimmt werden, die Aufzeichnung entspricht dann einer konventionellen elektronenmikroskopischen Aufnahme. Ungünstig gewählte Phasenverschiebungen zwischen den Hologrammen verschlechtern die Phasenauflösung, im Extremfall läßt sich die Phase auch hier nicht aus den Phase-Shift Hologrammen gewinnen.

Die Präzision der Amplitudenmessung hängt von der Steigung der Parabel im Bereich der Amplitude ab und kann aus der partiellen Ableitung ermittelt werden.

Für die Praxis bedeutet dies, daß der Kontrast in den Hologrammen der entscheidende Faktor bei der präzisen Bestimmung der Bildwelle aus den Hologrammen ist.

Schlechte Phasenbestimmung durch ungünstige Phasenverschiebung

Weiterhin beeinflußt die Phasenverschiebung  der einzelnen Hologramme die genaue Form des Paraboloids. Ist der Phase-Shift ideal,  schneidet das Paraboloid alle Ebenen senkrecht zur z-Achse auf Kreisen. Liegen andere Phasenverschiebungen vor, sind die Schnittlinien immer Ellipsen (Abbildung 6‑3 rechts), dort wird die Fehlerbestimmung zusätzlich von der Phase der Bildwelle abhängig.

Auswertegenauigkeit

Die Auswertegenauigkeit der Kohonenkarte wurde anhand eines Testhologramms ermittelt. Dazu wurden typische Kombinationen von Phasen und Amplitudentransparenz eines Objekts erzeugt und anhand der Daten synthetische Phase-Shift Hologramme, basierend auf der Hologrammgleichung errechnet. Die errechneten Hologramme wurden noch mit zusätzlichem Schrotrauschen und thermischem Rauschen verändert, um eine realistische Bilderzeugung nachzubilden. Diese Hologramme waren dann der Input für die Kohonenkarte zur Bestimmung der komplexen Bildwelle.

Neben der Auswertung mit der Kohonenkarte fand zum Vergleich eine analytische Bestimmung der komplexen Bildwelle statt. Die ermittelten Fehler in der Auswertung mit den unterschiedlichen Verfahren sind in der Abbildung 6‑4 wiedergegeben. Im Bereich kleiner Amplituden in der Bildwelle ist das analytische Verfahren überlegen, bei zunehmender Amplitude wird die Bestimmung der Phase, insbesonders die Berechnung der Amplitude, sehr schlecht. Die Kohonenkarte hat durch ihr Auswerteverfahren, Auffinden des ähnlichsten Neurons zum Meßwerttripel, den Vorteil die Information in den drei Hologrammen besser auszunutzen [HEI96e].

Auswertefehler ist mit neuronalem Netz geringer als bisher

Abbildung 64: Fehler bei der Rekonstruktion. Der Fehler für die Auswertung eines simulierten Phase-Shift Hologramms in Abhängigkeit der Intensität der Bildwelle. Es zeigt sich, daß insbesondere bei großer Amplitude die Kohonenkarte wesentlich genauere Resultate liefert. Dies läßt sich durch ein analytisches Modell erklären [HEI96e].

Auswertebeispiel

 

Abbildung 65: Rekonstruktion mit einer Kohonenkarte. Links: Amplitude aus dem Phase-Shift Hologramm eines MgO Kristalls rekonstruiert. Rechts: Phase der Bildwelle. Die verbleibenden Streifen in der Rekonstruktion deuten auf leicht unterschiedliche Raumfrequenzen in den einzelnen Hologrammen hin, die zu abweichende Phasenverschiebung in der Auswertung gegenüber der tatsächlichen im Experiment vorhandenen Situationführen .

Für eine konkrete Aufnahme eines MgO Kristalls wurde für den praktischen Test des Auswerteverfahrens eine Kohonenkarte trainiert. Dazu wurden Trainingswerte mit den gleichen Werten für die Phasenverschiebung der einzelnen Teilhologramme zueinander berechnet. Die so trainierte Kohonenkarte wurde anschließend für die Auswertung der einzelnen Bildpunkte im Phase-Shift Hologramm eingesetzt, die resultierenden Werte für die Bildwelle. Für die Visualisierung des Ergebnisses wurden Phase und Amplitude der Bildwelle aus Real- und Imaginärteil errechnet.

6.1.3      Optimales Verfahren

Die Kohonenkarte liefert bessere Resultate, weil sie das Neuron mit dem kleinsten Abstand zum Meßwerttripel sucht. Da alle Neuronen angenähert auf der Fläche der möglichen Meßwerte liegen, mithin nur den physikalisch realisierten Unterraum abdecken, stellt sich die Frage: Kann man die Auswertung auch durch eine orthogonale Projektion in den Unterraum durchführen?

Dies ist in der Tat durch einen iterativen Prozess möglich. Beschreibt man den Unterraum der physikalisch fehlerfreien Meßwerte nach einer Hauptachsentransformation als eine durch (u,v) parametrisierte Fläche, findet man für die kartesische Darstellung:

Ein Meßwerttripel  aus den Phase-Shift Hologrammen hat einen Punkt  auf der Fläche, der ihm am nächsten liegt.

Dieser Punkt stellt auch die physikalisch wahrscheinlichste Situation bei der Messung dar, wenn die Annahme der kleinsten Fehlerquadrate für den wahren Wert gilt. Der Punkt  kann unter allgemeinen Bedingungen nur numerisch gefunden werden.

6.2          Standard Hologramme

Die Auswertung von Phase-Shift Hologrammen war ein erster Versuch, neuronale Netze zur Rekonstruktion einzusetzen. Für die praktische Anwendung in der Mikroskopie spielen Phase-Shift Hologramme aber nur eine untergeordnete Rolle, da die Aufzeichnung von Einzelhologrammen wesentlich stabiler als die Aufzeichnung von drei oder mehr Hologrammen erfolgen kann. Der entscheidende Vorteil von Phase-Shift Hologrammen ist die höhere auswertbare Pixelzahl. Dank der Berechnung der komplexen Bildwelle für jedes Pixel der CCD entspricht die Zahl der Pixel aud der CCD. Sie kann aber nicht für die Höchstauflösung genutzt werden, da eine Einseitenbandaufzeichnung (siehe Abbildung 6‑6) vorliegt und somit höhere Reflexe nicht übertragen werden [LIC96d].

Abbildung 66: Problem der Einseitenbandabbildung. Für eine rekonstruierbare holographische Aufzeichnung muß die Elektronenwelle des Objekts das Biprisma vollständig auf einer Seite passieren, die Referenzwelle muß auf der anderen Seite das Biprisma durchqueren. Damit eine bestimmte Raumfrequenz im Objekt aufgezeichnet wird, müssen dazu beide Seitenbänder der Bildwelle, R, -R, diese Bedingung erfüllen. In obiger Zeichnung ist dies für R<-Rmax im Bereich vb nicht erfüllt, daher wird die Raumfrequenz Rmax nicht richtig holographisch aufgezeichnet. Bei der Phase-Shift-Holographie realisiert man durch geringe Ablenkwinkel des Biprismas niedrige Streifenfrequenzen, wodurch das Problem der Einseitenbandabbildung leicht auftritt.

Es ist daher sinnvoll, nach Wegen zu suchen, die Fähigkeiten der neuronalen Netze auf dem Gebiet der Rauschverminderung auf den Bereich der Standardhologramme auszudehnen. Dazu wurde ein Verfahren zur Rekonstruktion der Off-Axis-Elektronen-Hologramme im Ortsraum mit neuronalen Netzen entwickelt.

6.2.1      Betrachtung als Phase-Shift-Hologramme

Die Basis für die Rekonstruktion im Ortsraum beruht auf der Tatsache, daß ein Hologramm mit einer höheren Streifenfrequenz abgetastet wird als die höchste im Bild auftretende Raumfrequenz des Objekts. Damit kodieren benachbarte Bildpunkte den gleichen Bereich der komplexe Bildwelle, sind jedoch mit einer anderen Phasenlage der Referenzwelle moduliert. Liegt aber in einem Gebiet um den auszuwertenden Bildpunkt die gleiche Bildwelle vor, so können die einzelnen Pixel in der Umgebung als Elemente phasen­verschobener Bilder betrachtet werden.

Räumliche Korrelation in der Bild- und Objektwelle

Für eine genaue Betrachtung der Fragestellung, wieweit benachbarte Pixel die gleiche Bildwelle codieren, ist die räumliche Korrelation der komplexen Bildwelle maßgebend. Eine genaue Betrachtung [MEY97] führt auf die Correlation Spread Funktion CSF(r),die bis auf eine Normierungskonstante mit der Autokorrelation der Point Spread Funktion PSF übereinstimmt.

Abbildung 67: Vergleich von PSF und CSF.

Die CSF hängt somit direkt mit dem Enveloppenfaktor im Frequenzraum zusammen. Eine breite Enveloppe und somit eine sehr kohärente Bestrahlung des Objekts führt zu einer kleinen PSF und damit auf eine kleine CSF. Dies bedeutet, daß nur wenige Pixel mit der gleichen Bildwelle bestrahlt werden und für die Auswertung zur Verfügung stehen. Diese Forderungen sind völlig analog zu den Betrachtungen, wieviel Pixel zum Abtasten der Hologrammstreifen notwendig sind und wie hoch die Streifenfrequenz sein muß, um bestimmte Objektstrukturen aufzulösen.

Bestimmung der optimalen Interferenzstreifen

Die Aufzeichnung der Hologramme mit einer CCD Kamera stellt eine Mittelung der Intensität über die Pixelflächen dar [VÖL91, RAU94]. Diese Mittelung führt zu einer Minderung des Bild- und Streifenkontrast, wobei der Streifenkontrast auf Null abfällt, wenn die Streifenfrequenz in erster Näherung der Pixelfrequenz  entspricht. Bei genauer Betrachtung hängt der Kontrast bei vorgegebenen  sowohl vom Betrag der Streifenfrequenz  als auch von der Richtung relativ zu den abtastenden Pixel auf der CCD Kamera ab. Als günstigen Kompromiß wählt man eine Streifenrichtung, die um etwa 45° zur Zeilenrichtung der CCD Kamera verschoben ist und eine Abtastrate von 4 Pixel pro Interferenzstreifen [LEH97b].

6.2.2      Rekonstruktion im Ortsraum mit dem Simplex-Algorithmus

Bei der Auswertung von Phase-Shift Hologrammen war es möglich, für drei Intensitäten eine komplexe Bildwelle zu finden, die mit maximaler Wahrscheinlichkeit der tatsäch­lichen Bildwelle am Aufzeichnungsort entsprach. Dazu wurden mit dem Simplex-Algorithmus das Minimum des Auswertefehlers gesucht.

Nach den vorangegangenen Betrachtungen erschien dies auch ein geeigneter Weg für die Auswertung von Standardhologrammen zu sein, jedoch mit dem Unterschied, daß nicht nur drei Intensitätswerte zur Verfügung standen, sondern alle in einem zum „Superpixel“ zusammengefaßten Bereich. Der Superpixelbereich hat aus praktischen, es gibt ein eindeutiges Zentrum, und aus physikalischen Gründen, die Größe entspricht genähert der Ausdehnung der CSF, eine Kantenlänge von 7 Pixel, mithin umfaßt ein Superpixel 49 Intensitätswerte. Die zu minimierende Funktion im Bereich des Superpixels lautet

.

Wobei die Bezeichnung mess die aufgezeichneten Intensitäten und calc die berechnete Intensität bei vorgegebenen Amplituden und Phasen beschreibt

Es zeigte sich aber bei der numerischen Auswertung, daß der Algorithmus zu starken Schwingungen neigt und in vielen Bildpunkten in einem Nebenminimum hängen blieb.

Dies lag einerseits daran, daß innerhalb eines Superpixels signifikante Abweichungen von der Annahme konstanter Bildwelle auftreten, zum anderen ist die Minimumsuche in einem 49-dimensionalen Raum erheblich schwieriger als in einem dreidimensionalen wie er für die Phase-Shift-Holographie durchsucht werden mußte.

Geht man einen Schritt weiter und optimiert nicht nur auf die reine Bildwelle, sondern auf eine Polynomentwicklung der Bildwelle im gesuchten Bereich, wie im nächsten Abschnitt gezeigt, ist es zwar wieder möglich, ein geeignetes Minimum zu finden, aber die Rechenzeit und Konvergenz wird derartig schlecht, daß die Auswertung von einer Million Pixel nicht durchführbar ist.

6.2.3      Auswertung mit feedforward-Netzen

Abbildung 68: Schema der Auswertung mit einem feedforward-Netz. Aus dem Hologramm (links) wird ein kleiner Bereich, “Superpixel” (7*7 Pixel), in das trainierte Netz (mitte) eingelesen, das Netz liefert als Resultat Real- und Imaginärteil der Bildwelle. Dieses Ergebnis läßt sich nach einer einfachen Konversion als Amplitude und Phasenbild darstellen. Sind die Bildfehler bekannt, kann aus der komplexen Bildwelle auch die komplexe Objektwelle wiedergefunden werden (ganz rechts). In der Ausschnittsvergrößerung erkennt man bei dieser Siliziumprobe eine Auflösung der Dunbbells, Abstand 0,136nm.

Die Auswertung der Elektronenhologramme mit feedforward-Netzen hat den gleichen Ablauf wie bei der Auswertung von Phase-Shift Hologrammen mit einer Kohonenkarte. Zuerst werden geeignete Trainings- und Testpattern mit den dazugehörigen Ergebnisdaten erzeugt und abgespeichert. Anschließend werden die verschiedenen Netzarchitekturen mit den vorhandenen Datensätzen trainiert und auf ihre Eignung getestet. Sind geeignete Netze austrainiert, können reale Elektronenhologramme für die Netze aufbereitet und rekonstruiert werden. Abschließend werden die Resultate eingehend mit anderen Verfahren verglichen.

Generation von Trainingsdaten

Die Resultate von Neuronalen Netzen sind immer nur so gut wie die Trainingsdaten. Das Netz sollte immer aus einem kleinem Gebiet mit der Kantenlänge  um das auszuwertende Pixel  Hologrammintensitäten einlesen und daraus auf die komplexe Bildwelle im Pixel schließen. Die Intensitätsdaten für die einzelnen Pixel in der Umgebung vonwurden daher zuerst nach Gleichung 3‑13 Hologramm berechnet. Es zeigte sich aber, daß dies eine zu starke Vereinfachung der Situation darstellt.

In realen Hologrammen ändert sich die komplexe Bildwelle mit dem Ort, andernfalls wäre die Aufzeichnung auch völlig wertlos (ebene Bildwelle). Darum wurde die komplexe Bildwelle in der Ebene entwickelt und nach dem quadratischen Term abgebrochen, da bereits der quadratische Term bei kleinen Umgebungen, ca. 7*7 Pixel unbedeutend ist. Da sowohl der Realteil wie auch der Imaginärteil unabhängig voneinander entwickelt wurden, treten folgende Koeffizienten auf:

Abbildung 69:Die 12 unabhängigen Koeffizienten für die Simulation der Bildwelle im Superpixel.

Für die Berechnung der Simulationsdaten wurden jeweils eine feste Richtung der Hologrammstreifen  festgelegt, die mit der Streifenrichtung des später auszuwertenden Hologramms übereinstimmte.

Damit die neuronalen Netze mit dem Problem der verrauschten Daten vertraut werden, sind alle Bildintensitäten mit zwei zusätzlichen Rauschtermen überlagert, das thermische Rauschen der CCD-Kamera wurde mit einem additiven Term simuliert. Das poissonverteile Schrotrauschen wurde durch Multiplikation der Einzelintensitäten mit einem zufälligen Wert in der Umgebung von eins, dessen Varianz von der Gesamtintensität I abhängig war, nachgebildet.

Aus jedem statistischen Satz an Entwicklungsparametern wurden die Intensitäten im Superpixel errechnet und mit der komplexen Bildwelle für das zentrale Pixel in einen Vektor in einem “pattern definition file” für das Simulationsprogramm SNNS abgespeichert.

 

Schleife

Aufgabe

Durchläufe

Training/

Testdaten

·       Datensatz erzeugen

r+1

Superpixel

·       Statistische Entwicklungsparameter erzeugen

·       Abspeichern des Superpixel zusammen mit

N

Intensität

·       Intensitätsgleichung mit Entwicklungsparametern auswerten

·       Rauschterme anfügen

Die Erzeugung der Trainingsdaten erfordert eine sorgfältige Auswahl der zugrundeliegenden Simulationsgleichungen. Der Aufwand für die Generation der Daten kann aber nahezu vernachlässigt werden, da b eine kleine Zahl ist und n mit einigen tausend Werten den Eingangsdatenraum ausreichend dicht abtastet, wie die Erfahrung gezeigt hat.

Die Anzahl der Trainingsdatensätze ist ungleich eins, da für das Training Datensätze mit unterschiedlich stark verrauschten Daten sinnvoll sind, wie im nächsten Abschnitt gezeigt wird. Der Buchstabe r zählt die Zahl dieser Datensätze, es kamen normalerweise vier Datensätze zum Einsatz.

Training des Netzes

Für das Training der Parameter des Backpropagationnetzes wurde der Stuttgarter neuronale Netze Simulator SNNS verwendet, der durch seine relativ einfach zu bedienende Oberfläche und der kostenlosen Portierbarkeit auf unterschiedliche Unixsysteme für die Aufgabe am geeignetsten erschien.

Der Trainingsprozess wurde gegenüber dem Standardprozess, wie er im Kapitel 5.3.2 beschrieben wurde, insofern erweitert, daß das Training mit schrittweise immer besseren, sprich weniger verrauschten Daten, erfolgte. Der Sinn dieser Abfolge war, daß einerseits verrauschte Meßdaten korrekt ausgewertet werden, andererseits auch gute Daten optimal interpretiert werden. Es zeigte sich bei der Analyse, daß dies gerade mit der hier angeführten Reihenfolge gelingt.

Wählt man den umgekehrten Weg, nämlich zuerst das Netz mit perfekten Daten zu trainieren, um dann sukzessive schlechtere Daten für das Training einzuspielen, beobachtet man nach der ersten Trainingsphase perfektes Auswerten von guten aber Fehlinterpretation von schlechten Daten. Sieht das Netz dann nur noch verrauschte im weiteren Training, so verlernt es die Fähigkeit, gute Daten optimal zu interpretieren.

·    Fazit: Zuerst grob schleifen und dann fein polieren!

Welche Informationen nutzt das trainierte Netz

Für die weitere Analyse der Hologramme war es außerordentlich fruchtbar, die Arbeitsweise des neuronalen Netzes zu verstehen. Es stellt sich die Frage, welche Informationen innerhalb des Superpixels für die Bestimmung der Amplitudeninformation genutzt werden , insbesondere im Gegensatz zur klassischen Seitenbandsauswertung, bei der nur der lineare Term in der Intensitätsgleichung für die Bestimmung der Amplitude herangezogen wird.

Dazu wurde untersucht, welchen Einfluß die Information im Zentralband und Seitenband auf die Bestimmung der Amplitude durch das Netz hat. Dafür wurden die beiden Amplitudenterme  getrennt variiert. Dies ist zwar unphysikalisch, beleuchtet aber die Arbeitsweise des Netzes. Die Ausgangsgleichung für die Intensitätsberechnung ist

Diese wurde auf zwei Wegen modifiziert, einmal um den Einfluß der Autokorrelation, gekennzeichnet durch ak, zu verstehen

 

und den Einfluß des Seitenbands, gekennzeichnt duch sb, zu bestimmen

.

Trägt man die Empfindlichkeit des Netzes für die beiden Amplitudenänderungen in Abhängigkeit der Amplitude auf, so sieht man in Abbildung 6-10[MEY97], daß mit wachsender Amplitude immer mehr Information aus dem Zentralband genutzt wird und der Einfluß des Seitenbandes schwindet. Der Grund liegt im Verhältnis Signal zu Rauschen, das durch den quadratischen Term bei großen Amplituden wesentlich mehr Intensität und damit Information im Zentralband erzeugt.

Eine genaue Analyse dieses Phänomens [MEY97] zeigt jedoch, daß das Netz nicht lernt, die Information optimal aus dem Zentralband zu nutzen, was besonders bei einer Amplitude in der Größenordnung um eins sinnvoll wäre.

Abbildung 610: Einfluß der Zentralband- Acb und der Seitenbandinformation Asb auf die zu ermittelnde Amplitude Arec. In der oberen Grafik ist die Empfindlichkeit der Auswertung der Amplitude in Abhängigkeit der Amplitude dargestellt. Dabei sieht man, daß bei kleinen Amplituden die meiste Information im Seitenband liegt, bei größeren Amplituden wechselt die Situation vollständig zum Zentralband. In der unteren Darstellung sieht man die vom neuronalen Netz herangezogene Information. Dazu wurde das ans Netz angelegte Signal variiert und der Einfluß auf die Ausgabe dargestellt. Das Netz zeigt in der Tendenz ein optimales Verhalten, allerdings berücksichtigt es erst bei größeren Amplituden die Zentralbandinformation in erwarteter Weise. Möglicherweise liegt das darin, daß das Netz neben der Amplitude auch die Phase bestimmen muß, die nur im Seitenband vorliegt. Das Netz kann hier die Informationskanäle nicht optimal trennen.

Auswertung von Testhologrammen

Zur visuellen Überprüfung der Leistungsfähigkeit der Netze wurde ein Testhologramm entwickelt, das auf einem komplexen Testobjekt[12] beruht. Das Testobjekt ist in Abbildung 6-12 dargestellt. Es besteht Bestand aus mehreren Bereichen, die unterschiedliche Einflüsse bei der Auswertung erkennbar machen sollten. Die abrupten Übergänge dienen zum Veranschaulichen von Übersprecheffekten, sind aber physikalisch nicht plausibel.

  

Abbildung 611: Testobjekte, links Amplitude, rechts Phase, zur Analyse der Auswerteverfahren im Ortsraum. Der Objekthintergrund hat eine Amplitude von 1, die Strukturen im einzelnen: Eine aprupte Verschiebung der Phase um in einem quadratischen Bereich links oben sowie einer aprupten Änderung der Amplitude von 1 auf 0,5 (darunter). Unten links ein Gitter aus 25 „Atomsäulen“ deren Phase im Kern um 0,5 rad verschoben ist. Rechts daneben befindet sich unten eine sinusförmige Phasenstruktur mit von links nach rechts ansteigender Frequenz und von unten nach oben absinkender Modulations­stärke. Darüber eine Phasenstruktur mit konstanter Modulation, der eine dazu senkrechte Amplitudenstruktur überlagert ist, beide mit ansteigender Frequenz. Der rechte Streifen, in der Amplitude sichtbar, stellt einen Nulldurchgang von Re=1 bis Re=-1 in der komplexen Ebene dar und kann empfindlich Auswertestörungen sichtbar machen. Das Bild hat eine Kantenlänge von 256 Pixel.

Die Grundfläche besitzt einen konstanten Wert von 1 ohne komplexe Beimischung. Am rechtem Rand fällt dieser Wert linear auf -1 ab, wobei das Verhalten in der Nähe des Nulldurchgangs für die Analyse von Interesse ist. Links befindet sich ein Quadrat als reines Phasenobjekt und eines als reines Amplitudenobjekt. Darunter sind mehrere regelmäßig angeordnete schwache Phasenobjekte, mit einer Phasenverschiebung im Kern von 0,5 rad.

Anhand dieser Teststruktur wurden Hologramme mit der Hologrammgleichung unter Berücksichtigung von thermischem und  Schrotrauschen berechnet. Dabei wurde die gleiche Streifenfrequenz im Verhältnis zur Pixelauflösung wie im anschließend ausgewerteten, realen Hologram von Silizium gewählt (Objektbezogen 0,05nm Streifenbreite, 3,9Pixel pro Streifen). Aus diesen simulierten Hologrammen wurde dann mit unterschiedlichen Auswerteverfahren die kom­plexe Objektwelle und daraus wiederum Phase und Amplitude des Originalobjekts ermittelt.

Als erstes wurde die Auswertung mit der klassischen Seitenbandmethode durchgeführt, um einerseits die Hologrammsimulation zu testen und die typischen Artefakte dieser Methode zu ermitteln. Das Resultat, in Abbildung 6‑12 wiedergegeben, zeigt die bekannten Artefakte bei der Seitenbandmethode, wenn mit einer Lochblende (Durchmesser 56 Pixel) ausgeschnitten wird.

Die Störungen am Bildrand entstehen im wesentlichen durch die scharfe Kante der Lochblende, die hohen Raumfrequenzen entspricht. Die Modulation über die gesamte Fläche stammt von den Streaks aus der Autokorrelation, die durch das inkommensurable Verhältnis von Interferenzstreifenbreite und Pixelbreite entstehen. Es ist zwar möglich, einen Teil dieser Erscheinungen durch eine andere Fensterfunktion, z.B. Hanning-Window, zu mildern, diese Methoden arbeiten aber alle damit, daß Teile der höheren Raumfrequenzen unterdrückt werden und damit für die Objektanalyse verloren sind.

Bei der klassischen Auswertung findet man das harte Amplitudenobjekt von vier hellen Flecken umgeben, die an Stellen, an denen die Hologrammstreifen den Objektrand kreuzen auftreten. Im Amplitudenbild ist der Saum des Phasenobjekts zu erkennen, der durch Übersprechen entsteht. Die Auflösung ist ca. 10 Pixel, damit sind die ersten drei Streifen sowohl des oberen Amplituden- als auch des oberen Phasenobjekts zu erkennen. Im unteren Phasenobjekt erkennt man scheinbar höhere Raumfrequenzen, dies ist aber nur durch Artefakte zu erklären. Die schwachen Phasenobjekte gehen völlig in den Störsignalen unter.

Bei der Auswertung mit dem neuronalen Netz erscheint das rekonstruierte Bild wesentlich ruhiger. Scheinbar lassen sich wesentlich höhere Raumfrequenzen rekonstruieren, dies ist zumindest für das Amplitudenbild richtig, da das Zentralband mitausgewertet wird. Für die Phasen erkennt man aber das gleiche Limit für 10 Pixel breite Muster. Bemerkenswert ist, daß man die schwachen Phasenobjekte links unten jetzt erkennen kann, da nahezu keine Artefakte das Phasenbild stören. Aufgrund der geringen Artefakte am rechten Rand ist der Nulldurchgang der komplexen Welle eindeutig zu erkennen, der Bereich unsicherer Phasenlage, 0 oder 1 rad, umfaßt nur 4 Pixelreihen.

Abbildung 612: Auswertung des Testobjekts mit der Seitenbandmethode, links Amplitude, rechts Phase. Bei der einfachen Abtrennung des Seitenbands mit einer Lochblende findet man nach Rücktransformation in den Ortsraum die Amplitude und Phase mit vielen Artefakten. Dies läßt sich nur zum Teil und zumeist auf Kosten der Auflösung oder Rauschempfindlichkeit bei der Seitenbandmethode reduzieren.

 

Abbildung 613: Auswertung des Testobjekts mit dem neuronalen Netz, links Amplitude, rechts Phase. Das Objekt wurde bis zum Bildrand, bis auf einen Rand von drei Pixel Breite, ohne Artefakte rekonstruiert. Amplituden und Phasensignal sind sauber getrennt, homogene Flächen sind nahezu homogen wiedergegeben.

Auswertung von hochauflösenden Hologrammen

Neben der Auswertung von Testhologrammen muß ein neues Verfahren seine Leistungsfähigkeit auch bei realen Objekten unter Beweis stellen. Dies gilt bei allen Bild­ver­arbeitungs­verfahren, da das menschliche Auge sehr empfindlich auf inkonsistente Bildverarbeitung und Artefakte reagiert. Für die Analyse wurde ein Hologramm von einer Siliziumprobe in [110] Richtung verwendet, das mit dem Philips Elektronenmikroskop CM30-Tübingen von Orchowski mit einer 1024*1024 CCD Kamera aufgezeichnet wurde.

Die Aufnahme ist insofern bemerkenswert, da mit ihr erstmals gezeigt werden konnte, daß das Verfahren der Bildfehlerkorrektur in der Elektronenholographie eine Auflösung jenseits des Scherzerlimits erlaubt [ORC95]. Dazu wurden alle bisher bekannten Möglich­keiten zum Auffinden der Objektwelle ausgeschöpft. Hier soll das Hologramm als Referenz dienen, um die Leistungsfähigkeit der neuronalen Auswertung und auch das Verfahren der optimalen Auswertung zu beurteilen.

Abbildung 614: Elektronenhologramm von kristallinem Silizium in [110] Orientierung [ORC95]. In der Ausschnittsvergrößerung sieht man die Hologrammstreifen und die Pixel der Aufzeichnung deutlich. Die atomare Struktur kann hingegen nur erahnt werden, die genaue Position der Atomsäulen wird erst nach Rekonstruktion des Hologramms und der Bildfehlerkorrektur sichtbar.

Für die Auswertung wurden immer ein Superpixel, bestehend aus 7*7 Pixeln, aus dem Hologramm herausgegriffen und in das neuronale Netz eingespeist, die resultierenden Werte der komplexen Bildwelle anschließend als Amplitude und Phase dargestellt. Dies wurde für alle Bildpunkte im Hologramm wiederholt, bis die Auswertung abgeschlossen war. Um das resultierende Bild nicht unnötig aufzublähen, wurde es auf 512*512 Bildpunkte reduziert. Eine höhere Auswertedichte bei vorgegebenem Streifenabstand ist nicht sinnvoll.

  

Abbildung 615: Rekonstruktion von Amplitude und Phase des hochauflösenden Elektronenhologramms einer Siliziumprobe mit einem neuronalen Netz. Die Ausschnittsvergrößerungen zeigen die sehr hohe Ortsauflösung der Rekonstruktion. Das Phasensignal ist modulo  dargestellt, an der Sprungstelle von 0 nach  liegt der Übergang von Schwarz nach Weiß. 

Die berechnete Bildwelle ist bis zum Rand (bis auf drei Pixel) vollständig und ohne offensichtliche großflächige Artefakte wiederhergestellt. In der Detailansicht wird deutlich, daß die Bildwelle sehr gleichförmig rekonstruiert wurde, was auf ein Unterdrücken des Rauschsignals hinweist.

Zur weiteren Beurteilung der Bildwelle wurde diese mit den bereits aus früheren Rekonstruktionsversuchen bekannten Bildfehlern im Fourierraum in die Objektwelle zurückgerechnet. Die resultierende Objektwelle zeigt die aus Bildsimulationsrechnungen bekannte Silizium-dumbbell-Struktur, wie sie bei Si Kristallen in [110] Orientierung bei atomarer Auflösung zu erwarten ist.

 

Abbildung 616: Objektwelle, rekonstruiert aus der neuronal berechneten Bildwelle. Bemerkenswert ist die Trennung der nur 136 pm entfernten Siliziumsäulen in der Amplitudendarstellung. Die Störungen im Randbereich sind ein Ergebnis der Bildverwaschungsfunktion, wie im Kapitel 3.3 erläutert. Es sei darauf hingewiesen, daß für das Erreichen dieser Abbildungsqualität keinerlei „Rauschfilterung“ durchgeführt wurde, wie sie für ein vergleichbares Ergebnis mit demselben Hologramm bei [ORC97, Seite85] angewendet wurde.

Analyse der Auswertung

Zum Verständnis der Arbeitsweise des neuronalen Netzes wurde die rekonstruierte Bildwelle in den Fourierraum transformiert. Damit wird klar sichtbar, welche Information im Fourierraum vom neuronalen Netz zur Bestimmung der Bildwelle verwendet wurde. Dies ist von besonderem Interesse, weil hier ein direkter Vergleich mit der konventionellen Rekonstruktion möglich ist.

Es zeigt sich in Abbildung 6‑17, daß das neuronale Netz alle Reflexe im Seitenband für die Auswertung heranzieht und die Information aus dem Zentralband fast vollständig in das Seitenband verschiebt. Die Streaks aus dem Zentralband sind bei der Auswertung praktisch vollständig unterdrückt worden.

Abbildung 617: Die Abbildung zeigt einen Teil des Fourierraums der rekonstruierten Bildwelle. Die Information aus dem Zentralband wurde in das Seitenband verschoben, einige Reflexe aus dem Zentralband sind noch sichtbar, aber sie sind so schwach, daß ihre Streaks das Seitenband nicht mehr stören. Auch die Reflexe des komplex konjungierten Seitenbands sind ca. um den Faktor 100 gedämpft und haben damit für die rekonstruierte Bildwelle keine Bedeutung.

6.3          Optimale Rekonstruktion

Die Bildwelle wird von einem neuronalen Netz insofern besser rekonstruiert, als mit der klassischen Seitenbandrekonstruktion, weil einerseits Information aus dem Zentralband genutzt wird, andererseits einige Artefakte, die auf die zweifache numerische Fouriertransformation zurückzuführen sind, entfallen. Neuronale Netze stellen aber selten die mathematisch optimale Lösung eines Problems dar, sondern nur eine gute Näherung. In diesem Abschnitt soll gezeigt werden, wie eine analytische Auswertung des Hologramms im Ortsraum unter Berücksichtigung der Zentralbandinformation möglich ist.

6.3.1      Minimieren des Auswertefehlers

Für die in einem Superpixel gemessenen Intensitäten muß es eine komplexe Bildwelle geben, die mit maximaler Wahrscheinlichkeit die gemessenen Intensitäten im Superpixel beschreibt. Diese Annahme ist gerechtfertigt, wenn die Fehler der Intensitäten unabhängige normalverteilte Zufallsgrößen sind. Die Normalverteilung kann bei der Aufzeichnung der Elektronenstrahlintensitäten mit etwa 300 Elektronen pro Pixel in guter Näherung angesetzt werden. Die Unabhängigkeit ist leider nicht vollständig gewährleistet, da der Aufzeichnungsprozess zu Übersprechen der Intensitätssignale aufgrund der Streubirne und der Reflektion im Szintillator zwischen den Pixeln führt [RAU94 S.32], [MEY98].

Die Bestimmung der wahrscheinlichsten Bildwelle erfolgt durch Minimieren des Unterschieds zwischen gemessenen Intensitätswerten und errechneten Intensitätswerten einer hypothetischen Bildwelle im Bereich des Superpixels, die noch zu ermitteln ist. Dabei werden die Fehler in den einzelnen Pixen unterschiedlich gewichtet, damit der Änderung der Bildwelle über die Fläche Rechnung getragen werden kann. Damit arbeitet man mit folgender formalen Fehlersumme

in die die mathematischen Größen eingetragen werden. Die gemessenen Intensitäten für die einzelnen Pixel i im Superpixel seien . Die simulierten Intensitäten  in den einzelnen Pixeln des Superpixels werden unter der Annahme konstanter Amplitude und Phase innerhalb des Superpixels aus der Hologrammgleichung gewonnen:

Damit ergibt sich die zu minimierende Funktion E aus den Abweichungsquadraten:

Die Größen  sind die statistischen Gewichte für die einzelnen Pixel, diese werden im weiteren nicht gleich gewählt, weil zum einem der abfallende Einfluß von entfernten Pixeln berücksichtigt werden soll, andererseits

Abbildung 618: Die statistischen Gewichte für die Auswertung der Hologramme. Im Zentralbereich werden die Intensitätswerte stärker berücksichtigt als im Randbereich des Superpixeln. Für die analytische Lösung des Auswerteproblems werden die Gewichte nochmals geringfügig (ca. 1%) verändert, damit alle Randbedingungen erfüllt werden können.

führt gerade die geschickte Wahl dieser Gewichte zur analytischen Lösbarkeit des Optimierungsproblems. Der Vektor  beschreibt die Position des i-ten Pixel relativ zur Mitte des Superpixel. Die Phase  ist wie bei der Rekonstruktion mit dem neuronalen Netz die Phase der Bildwelle relativ zur Referenzwelle.

6.3.2      Fehlerfunktion E analytisch minimieren

Die Fehlerfunktion E soll durch Variation der Parameter Amplitude und Phase minimiert werden, was zunächst nur numerisch möglich ist. Dies ist aber praktisch unbefriedigend, da bei der Auswertung von Hologrammen das Minimum für jeden Bildpunkt gefunden werden muß, was einen erheblichen Rechenaufwand erfordert. Daher ist es von Interesse, eine analytische Lösung zu finden [MEY97].

Abbildung 619: Methode der kleinsten Fehlerquadrate. Im quadratischem Auswertebereich wird eine Bildwelle gesucht, die zu den gemessenen Intensitäten eine möglichst ähnliche Intensitätsverteilung im Hologramm liefert. Die Phase und Amplitude dieser ähnlichsten Bildwelle wird in das Auswerteergebnis übernommen. Dabei kann die Amplitude aus dem linearen Seitenband, aus der Autokorrelation oder aus beiden Anteilen genutzt werden.

 

Analytische Berechnung der wahrscheinlichsten Bildwelle

Die gemessenen Intensitäten in den Pixeln können nicht exakt durch eine simulierte Bildwelle wiedergegeben werden, weil den gemessenen Intensitäten ein zufälliges Rauschen überlagert ist. Es ist jedoch möglich, diejenige Bildwelle zu finden, die die größte Wahrscheinlichkeit besitzt, Ursache der gemessenen Intensitätsverteilung zu sein. Unter der Annahme einfacher statistischer Verhältnisse, die im wesentlichen im Experiment realisiert sind, findet man die ursprüngliche Bildwelle als jene, die den kleinsten quadratischen Fehler über alle herangezogenen Intensitäten im Superpixel ergibt. Diesen Fehler E berechnet man als Summe aus den Fehlerquadraten.

Die Gewichtsfaktoren  dienen dazu, im Superpixel die gemessenen Intensitäten in Abhängigkeit ihrer Position unterschiedlich zu behandeln. So werden Randpixel geringer gewichtet als Zentralpixel, da diese durch eine Veränderung der Bildwelle über die Fläche des Superpixels bereits leicht verfälschte Werte haben können.

Weiterhin ermöglicht die richtige Wahl der Gewichte eine analytische Lösung der Amplitude A und Phase  im Superpixel. Die Fehlerfunktion lautet bei Verwendung der einfachen Hologrammgleichung für die berechneten Intensitäten:

Da die Gleichung nicht direkt nach den gesuchten Größen Amplitude und Phase aufgelöst werden kann, muß sie näher betrachtet werden. Durch Trigonometrische Umformung läßt sich der Cosinusterm auftrennen

Und mit den Substitutionen

vereinfacht sich (Gl.1) zu

Durch Ausmultiplikation des quadratischen Terms erhält man

Die Funktion E(A,u,v) ist bezüglich u und v ein Polynom zweiten Grades. Mithin sind bei festem A alle Kurven von E Kegelschnitte in der (u,v)-Ebene . Unter der Nebenbedingung  und positiver Amplitude schneiden die Ellipsen den Einheitskreis zweimal. Damit kein gemischter Term für u,v in Gleichung 2  auftritt, werden die Bedingungen

und

gefordert: die Ellipsen werden zu Kreisen und es kann nur noch ein Minimum auftreten. Eine weitere Vereinfachung findet sich, wenn der Ortsvektor von der Phase unabhängig wird, dies erreicht man mit

und

Diese vier Bedingungen können erfüllt werden, da sie nicht von der Intensität abhängen, sondern nur durch eine geeignete Wahl der Gewichte realisiert werden können.

Bestimmung der Gewichte

Für die praktische Bestimmung der Gewichte wird ein Gewichtsvektor bestimmt, der die folgenden Bedingungen erfüllen soll:

1.       Innerhalb des Superpixels wird der Zentralbereich stärker gewichtet als der Randbereich.

2.       Die Gewichte sollen zum Rand hin stetig kleiner werden.

3.       Im Bereich der ersten Pixelreihe außerhalb des Superpixels soll die Funktion auf Null abfallen.

4.       Die Gewichte sollen punktsymmetrisch zur Superpixelmitte sein, damit keine unbeabsichtigte Verschiebung des Bildes entsteht.

5.       Die Gewichte sollen die vier Bedingungen für die numerische Lösung erfüllen.

Die Bedingungen 1-4 werden durch eine Cosinus-Funktion mit geeigneten Parametern erfüllt und geben einen Startwert zur Bestimmung des endgültigen Vektors

wobei n die Kantenlänge des Superpixels in Pixel beschreibt. Damit auch die Bedingung 5 erfüllt ist, muß der Gewichtsvektor etwas gedreht werden, damit er orthogonal zu den Vektoren

stehe, was durch Projektion in den zu und orthogonalen Unterraum erreicht wird. Damit hat  eine etwas andere Richtung als . Eine Betrachtung der Abweichung in Abhängigkeit der Kantenlänge n zeigt jedoch, daß bereits bei n=7 und typischer Streifenfrequenz in dem Hologramm die Gewichte um weniger als zehn Prozent von der Cosinus-Form abweichen. Die Symmetriebedingung führt direkt zu einer Erfüllung von Nebenbedingung 1 und 4.

Bestimmung der Phase

Mit den gewählten Gewichten und der Normierung

 vereinfacht sich Gleichung 2 zu

Damit E durch Variation von  minimal wird, muß das Maximum für die eckige Klammer gefunden werden, da A und V positiv sind. Zur Vereinfachung wird definiert

und

Damit erhält die eckige Klammer die einfache Form

Diese Extremalbedingung

kann durch Übergang ins Komplexe gelöst werden:

Der Realteil einer komplexen Zahl wird bei konstantem Betrag maximal, wenn der Exponent null wird, somit gilt

Diese Phase bezieht sich auf die Referenzwelle. Zur Erzeugung gut interpretierbarer Phasenbilder wird die Referenzphase in einem weiteren Rechenschritt normalerweise durch Aufmultiplikation eines Phasenkeils entfernt.

Die Phasenberechnung kann im übrigen auch durch andere Verfahren bestimmt werden[13],

Bestimmung der Amplitude

Nachdem die Phase bestimmt ist, kann das Ergebnis in Gleichung 3 eingesetzt werden.

Das Minimum der Fehlerfunktion findet man hier durch Nullsetzen der ersten Ableitung nach A von Gleichung 4.

Diese kubische Gleichung für A kann mit der Cardanischen Formel gelöst werden [PRE86]. Man findet mit

,

 und

für die Amplitude

.

Damit sind Amplitude und Phase der Bildwelle bestimmt. Für die Auswertung von Hologrammen müssen die entsprechenden Gleichungen für jeden Bildpunkt gelöst werden. Es zeigt sich aber, daß es möglich ist, die meisten Parameter vorab zu berechnen, was zu sehr schnellen Auswertealgorithmen führt [MEY97].

6.3.3      Auswertung mit dem optimalen Verfahren

 

Abbildung 620: Amplitude und Phase mit dem optimalen Auswerteverfahren linear rekonstruiert.

Das Hologramm der Siliziumprobe (Abbildung 6‑14) wurde auch mit dem optimalen Auswerteverfahren rekonstruiert. Hier wird, wie bereits in der Auswertung mit dem neuronalen Netz, das Bild bis in den Randbereich ohne Artefakte rekonstruiert.

Bei dieser Auswertung wird das Signal der Amplitude sowohl aus dem Seitenband als auch aus der Autokorrelation bestimmt, Abbildung 6‑21. Damit wird das Signal rauschärmer, man muß allerdings in Kauf nehmen, daß auch inelastische Elektronen für die Auswertung herangezogen werden. Dies kann bei manchen Aufnahmen unerwünscht sein, durch geringfügige Modifikation [MEY96] des Auswerteverfahrens im Ortsraum kann dies allerdings unterdrückt werden, Abbildung 6‑20.

Die Differenz der beiden Auswerteverfahren kann als Signal der inelastisch gestreuten Elektronen interpretiert werden.

 

Abbildung 621: Links: Amplitude nichtlinear rekonstruiert. Rechts: Differenz zur linearen Rekonstruktion, das Signal der inelastischen Elektronen.

6.4          Vergleich der Verfahren

Off-Axis Elektronenhologramme können mit sehr verschiedenen numerischen Verfahren rekonstruiert werden. Die einzelnen Verfahren haben jeweils unterschiedliche Stärken und Schwächen, die nochmals kurz nebeneinandergestellt werden sollen.

Rekonstruktion im Seitenband

Das klassische Auswerteverfahren durch numerische Seitenbandabtrennung hat den großen Vorteil, daß damit bisher die meiste Erfahrung vorliegt. Zudem liegen die Daten sofort im Fourierraum vor, der für die anschließende Korrekturrechnung immer[14] notwendig ist.

Ein gewisser Nachteil ist die Geschwindigkeit der FFT (Fast Fourier Transformation), da die notwendigen Rechenoperationen geringfügig schneller als die Pixelzahl zunehmen, was bei sehr großen Hologrammen eine Rolle spielt. Dieses Problem wird aber durch den enormen Zuwachs an Rechenleistung in den letzten Jahren kompensiert. Gravierender sind die prinzipiellen Probleme bei der exakten Zentrierung und Extraktion des Seitenbands.

Neuronale Netze

Neuronale Netze bewältigten fast auf Anhieb die Auswertung von Hologrammen mit der gleichen Qualität wie die bisherige Methode. Die Auswertung mit neuronalen Netzen ist, nachdem die Netze einmal aufwendig trainiert wurden, sehr schnell und liefert sofort ein Resultat im Ortsraum, was für eine erste Beurteilung der Aufnahmen am Mikroskop von Interesse sein kann. Die errechnete Bildwelle zeigt nur geringe Artefakte und ist rauschärmer als die einfach rekonstruierte Bildwelle aus dem Seitenband.

Ein gravierender Nachteil ist die Bereitstellung von neuronalen Netzen für verschiedene Aufnahmesituationen (Streifenfrequenz, Streifenrichtung). Außerdem muß für die Korrektur der Bildwelle zusätzlich eine Transformation in den Fourierraum erfolgen. Zuletzt bleibt die Unsicherheit darüber, ob die neuronalen Netze unter ungünstigen Umständen zusätzliche systematische Fehler produzieren. Die Qualität der Auswertung kann nicht streng mathematisch bewiesen werden.

Analytische Rechnung im Ortsraum

Die analytische Bestimmung der Bildwelle stellt die eleganteste Lösung des Auswerteproblems dar, da dieses Verfahren in der Lage ist, die Vorteile, mathematisch exakt zu arbeiten und schnell im Ortsraum Ergebnisse ohne Artefakte zu liefern, zu vereinen.

Für den praktischen Einsatz ist allerdings die Implementierung des Codes in die verschiedenen Bildverarbeitungsprogramme notwendig, eine Aufgabe, die nicht zu unterschätzen ist. Der Vorteil bei der Rauschunterdrückung kann nur erreicht werden, wenn das Zentralband mitgenutzt wird. Damit dies sinnvoll interpretiert werden kann, ist allerdings ein genaues Verständnis des Energieverlusts in der Probe oder eine Energiefilterung notwendig.

 


7                  Bildfehlerkorrektur

Die Elektronenholographie erfaßt die komplexe Bildwelle mit allen Abbildungsfehlern, die von der Elektronenoptik verursacht werden. Die zentrale Aufgabe der Bildfehlerkorrektur ist das Wiederherstellen der Objektaustrittswelle. Dies ist dann möglich, wenn einerseits die komplexe Bildwelle vorliegt und außerdem die Abbildungsfehler numerisch bekannt sind. In den vorangegangenen Kapiteln wurde dargestellt, wie die komplexe Bildwelle möglichst genau aus dem Hologramm rekonstruiert werden kann. Dieses Kapitel widmet sich der numerischen Bestimmung der Abbildungsfehler, deren Eigenschaften im Kapitel 3.2 bereits vorgestellt wurden.

Aus der Literatur sind verschiedene Ansätze für die Bestimmung der Bildfehler bekannt [JON92], [LAN92], [JUT94], [TYP95], [MAL96]. Dabei kann man grob zwischen Methoden unterscheiden, die im Ortsraum die Bildfehler suchen, und solchen, die das Bild im Fourierraum analysieren. Hier soll eine Analysemethode im Fourierraum untersucht werden, die eine Analyse durch neuronale Netze zuläßt.

7.1          Das Prinzip der Diffraktometrie

Die hier betrachteten Bildfehler können immer als eine Phasenverschiebung der Bildwelle in Abhängigkeit der Raumfrequenz beschrieben werden. Untersucht man ein reines Phasenobjekt unter idealen Aufzeichnungsbedingungen, d.h. ohne Abbildungsfehler, tritt keinerlei Kontrast auf, weil nur das Amplitudenquadrat der Bildwelle aufgezeichnet wird und dies unabhängig von der Phase ist.

Betrachtet man ein Amplitudenobjekt bei einer bestimmten Raumfrequenz und liegt eine relative Phasenverschiebung durch Abbildungsfehler relativ zum Nullstrahl vor, so kommt es bei dieser Raumfrequenz zu einer destruktiven Interferenz und damit zu einer Dämpfung der aufgezeichneten Intensität. Betrachtet man das aufgezeichnete Bild im Fourierraum, findet man bei allen Frequenzen, an denen eine Phasenverschiebung vorlag, eine Dämpfung. Frequenzen mit einer Phasenverschiebung modulo  werden völlig ausgelöscht. Es ist somit möglich, aus den dunklen Bereichen auf die Phasenverschiebung zu schließen, wenn im Bild alle Raumfrequenzen gleichförmig vorhanden sind.

Analog ist die Situation bei Phasenobjekten. Diese sind bei einer bestimmten Raumfrequenz nur dann sichtbar, wenn eine Phasenverschiebung auftritt. Die Maxima liegen bei einer Phasenverschiebung modulo , die Minima liegen bei der Phasenverschiebung 0 modulo . In der Praxis verwendet man möglichst reine Phasenobjekte und sucht die Minima.

Alle Methoden der Diffraktometrie suchen nach den Nullstellen im Fourierraum. Das Problem bei diesen Untersuchungen liegt in den unvollständigen Näherungen, insbesondere gibt es keine Objekte, die alle Raumfrequenzen gleichmäßig präsentieren und zugleich reine Phasenobjekte darstellen. Weiterhin fällt die Intensität zu höheren Raumfrequenzen ab, weil es zu verschiedenen Formen der Dämpfung durch inkohärente Beleuchtung kommt.

Abbildung 71: Obere Reihe: Simulierte, schwache Phasenobjekte im Ortsraum. Untere Reihe: die dazugehörigen Diffraktogramme im Fourierraum. Links; ideales Objekt mit weißem Phasenrauschen. Mitte: "rosa" Rauschen. Rechts: gerechnete Situation bei amorphem Ge-Film (entnommen [BAI96]). Für die Bestimmung der Bildfehler wäre das linke Objekt ideal, in der Realität trifft man in günstigen Fällen auf die Situation rechts.

In der Elektronenholographie gewinnt man das Diffraktogramm, indem die Intensität der Autokorrelation im Fourierraum extrahiert wird. Bei den vorliegenden Hologrammen einer 1K Kamera lag jeweils eine Auflösung des Diffraktogramms von 256*256 Pixel vor. Wird mit einer 2K Kamera gearbeitet, erhöht sich die Zahl nutzbarer Pixel in der Autokorrelation auf 512*512 Pixel.

Werden die Diffraktogramme aus normalen Aufnahmen, ohne Hologrammstreifen gewonnen, stehen entsprechend 1024*1024 oder 2048*2048 Pixel für die Datenauswertung zur Verfügung. Dieser Fall spielt hier jedoch keine Rolle, da beabsichtigt ist, die Aufnahmeparameter direkt aus dem aufgezeichneten Hologramm zu gewinnen, da jede Aufzeichnung unter anderen Fokusierungsbedingungen erfolgt und damit bei genauer Betrachtung auch ein anderer sphärischer Bildfehler auftritt [LEH97].

7.2          Datenreduktion in den Diffraktogrammen

Das zentrale Problem bei der Verwendung von neuronalen Netzen für die Analyse der Bildfehler ist die Reduktion der anfallenden Daten auf ein für neuronale Netze handhabbares Maß. Selbst im einfachsten oben beschriebenen Fall müssen N=216= 65536 gemessene Werte berücksichtigt werden. Dies überfordert auf absehbare Zeit alle technisch realisierbaren neuronalen Netze, insbesondere, wenn man bedenkt, daß die Zahl der Trainingsbeispiele die Zahl der Freiheitsgrade in einem Netz deutlich übersteigen soll.

Der Weg aus diesem Dilemma besteht in einer Datenreduktion und damit Extraktion der signifikanten Parameter aus dem Diffraktogramm. Diese Extraktion wurde in zwei Schritten realisiert, Ausnutzung der Rotationssymmetrie der einfachen Bildfehler (Sphärische Aberration und Defokus) und Projektion in ein angepaßtes Koordinatensystem.

7.2.1      Berechnung der Radialabhängigkeit (Circlescan)

Die rotationssymmetrischen Bildfehler zeigen im Diffraktogramm typische Ringstrukturen, aufgebaut aus hellen und dunklen Ringen. Es ist daher naheliegend, die Intensität im Diffraktogramm über den Betrag der Raumfrequenz aufzutragen. Numerisch geschieht dies im Rechner durch Summation über einen Frequenzbereich  und anschließender Normalisierung mit der Anzahl  einbezogener Pixel.

dabei hat die Funktion Q folgende Eigenschaft

.

Nach dieser Auswertung liegen, ausgehend von einem 256*256 Diffraktogramm  127 Intensitätswerte  vor, wenn der Zentralpeak unberücksichtigt bleibt, die Schrittweite Pixel beträgt und keine unvollständigen Kreise berücksichtigt werden.

Die damit gewonnene Intensitätsverteilung ist bereits wesentlich einfacher handhabbar, und wird auch in der Literatur [LAN92] häufig für die Bestimmung der Aufnahmeparameter verwendet. Hier dient sie als Zwischenstufe bei der Datenvorverarbeitung.

7.2.2      Projektion in ein Basissystem

Unter idealen Aufzeichnungsbedingungen:

·       ideales schwaches Phasenobjekt

·       alle Raumfrequenzen gleichförmig vorhanden

·       nur radialsymmetrische Bildfehler

·       kein Signalrauschen

·       keine frequenzabhängige Dämpfung

sollte die radiale Intensitätsverteilung im Diffraktogramm der Funktion

genügen. In der Realität ist diese Funktion durch mehrere Störeinflüsse erheblich verfälscht und kann nicht direkt ausgewertet werden. Damit aber möglichst viel Information erhalten bleibt, wird die gemessene Intensitätsverteilung auf ein Basissystem projiziert.

Dies geschieht durch Bildung des Skalarprodukts Si zwischen der gemessenen Intensität und den Basisfunktionen Gi:

Abbildung 72 Basisfunktionen Gi

und dem diskreten Skalarprodukt:

.

Damit verfügt man über 20 Kennziffern eines Diffraktogramms, die alle notwendigen Informationen für die Auswertung mit einem neuronalen Netz beinhalten.

7.3          Das neuronale Netz zum Auswerten der Datensätze

Die Auswertung der Diffraktogramme mit dem neuronalen Netz hat als Eingangssignal einen Vektor aus 20 Komponenten und soll zwei Ausgabewerte liefern, Defokus und sphärische Aberration. Für ein stetiges Ausgangssignal eignet sich dafür am besten ein feedforward-Netz, wie es in Kapitel 5.3.2 beschrieben wurde.

Die Topologie des verwendeten Netzes war ein vollständig verknüpftes feedforward-Netz mit 20 Eingangsneuronen, 9 Hidden Neuronen in einer Ebene und 2 Ausgangsneuronen. Als Übertragungsfunktion wurde die arctan Funktion gewählt.

7.4          Die Trainingspattern

Die Generation der Trainingspattern erfolgte aus einer Sammlung simulierter Diffraktogramme, die G. Lang [LAN94] im Rahmen anderer Auswerteverfahren für Diffraktogramme errechnet hat. Diese Diffraktogramme berücksichtigen sowohl geringe Amplitudenanteile (bis zu 5%) als auch zusätzliches Rauschen beim Aufzeichnen der Diffraktogramme.

In der Simulation wurden für vorgegebene Defokuswerte und sphärische Aberration Diffraktogramme von amorphen, simulierten und schwachen Phasenobjekten errechnet. Aus den simulierten Diffraktogrammen wurden anschließend nach dem oben angegebenen Verfahren jeweils 20 Elemente eines Eingabevektors durch Skalarproduktbildung errechnet, diese zusammen mit den bekannten Resultaten (Cs, Dz) in ein Trainingspatternfile abgespeichert.

Der Datenbereich der simulierten Defokuswerte lag dabei zwischen Dz=160...180 nm, der Bereich für die sphärische Aberration Cs=1,5...1,6 mm. Dieser eingeschränkte Bereich wurde gewählt, weil bei der Untersuchung im Elektronenmikroskop die Größen normalerweise nur in einem eingeschränkten Intervall auftreten können (Cs) oder aus der Aufnahmesituation teilweise bekannt sind (Dz). Neben den Trainingsdaten wurde ein Testdatensatz generiert, der nicht für das Training eingesetzt wurde und zur unabhängigen Kontrolle der Leistungsfähigkeit des Netzes diente.

7.5          Analyse der Auswertefehler

Nach dem erfolgreichen Training des neuronalen Netzes wurden die Testpattern nach den gleichen Vorverarbeitungsschritten Circlescan und Projektion auf das Basissystem, ausgewertet. Die auftretenden Auswertefehler wurden in Abhängigkeit der Simulationsparameter (Cs, Dz) gespeichert und graphisch wiedergegeben (Abbildung 7‑3). Man sieht, daß der Fehler im zentralen Trainingsbereich, Cs=1,55 mm und Dz=170 nm am kleinsten ist und zu den Randbereichen erhebliche Abweichungen auftreten. Dies ist ein bekanntes Phänomen für neuronale Netze und läßt sich unter dem Satz:

Neuronale Netze interpolieren gut und extrapolieren schlecht!

zusammenfassen.

Abbildung 73 Auswertefehler

Zusammenfassend sieht man, daß es möglich ist, mit neuronalen Netzen Diffraktogramme auszuwerten. Jedoch sind die Fehler bei der Auswertung für eine Verbesserung der Korrektur von elektronenholographisch gewonnenen Aufnahmen noch nicht ausreichend. Dies liegt vor allem daran, daß der enorme Aufwand der konkurrierenden Methode, manuelles Suchen der Aufnahmebedingungen anhand von Testrekonstruktionen [LEH94b] noch akzeptiert wird. Sollte auf Dauer dies aufgrund des enormen Zeitaufwands und der schlechten Reproduzierbarkeit nicht akzeptabel sein und ein automatisiertes Auffinden notwendig werden, müssen die neuronalen Netze allerdings mit alternativen Verfahren zum Bestimmen von Aufnahmeparametern konkurrieren. Hier ist insbesondere der Einsatz von genetischen Algorithmen zum Auffinden geeigneter Extrema (etwa minimaler Amplitudenkontrast) unter Variation der Parameter zu nennen, der bereits heute bessere Ergebnisse liefert [LEH96]. Suchende Verfahren, wie die genetischen Algorithmen benötigen extrem hohe Rechenleistungen, erste Experimente haben wochenlanges Rechnen auf Workstations benötigt. Daß dies heute kein grundlegendes Problem darstellt, liegt daran, daß die Rechnerleistung zur Zeit exponentiell wächst.


8                  Allgemeiner Ansatz bei der Auswertung

Betrachtet man die vorliegenden Analysen mit einem gewissen Abstand, so wiederholt sich die Fragestellung jedesmal, aus einer modulierten Schwingung, wie aus den Intensitäten im Hologramm oder dem Muster eines Diffraktogramms, soll durch Zuhilfenahme eines neuronalen Netzes auf das Vorhandensein von verborgener Information geschlossen werden.

In den bisher bearbeiteten Fällen führte allerdings immer eine mathematisch exakte Analyse zu überzeugenderen Resultaten als der vielversprechende Einsatz von neuronalen Netze. Der Grund liegt in der Kenntnis der zugrundeliegenden mathematisch physikalischen Prozesse. Mit der Erfahrung aus der Analyse von Bekannten wurde das Verfahren auch auf  Probleme aus einem Bereich ausgedehnt, der nicht auf  direkte Weise der mathematischen Beschreibung zugänglich ist, aber in seiner äußeren, meßbaren Erscheinungsweise, der bisher behandelten Signalanalyse sehr ähnlich ist.

Viele menschliche Bewegungen, wie das Gehen, Bewegung der Finger, sind näherungsweise periodisch, die meßbaren Signale, hier Ortskoordinaten, enthalten aber auch Informationen über die zugrundeliegenden Prozesse im Steuersystem, dem biologischen neuronalen Netz und seinem Nervensystem. Daher lag es nahe, die gleichen Methoden, die bei der Auswertung physikalischer Fragestellungen nützlich waren, auch auf medizinische Fragestellungen anzuwenden.


Abbildung 81: Betrachtung zur Datenaufzeichnung und Auswertung. Den Physiker interessiert ein grundlegendes Phänomen, das er durch sein Experiment beobachtet. Die aufgezeichnete Information kann durch analytische Verfahren ausgewertet werden, neuerdings ist aber auch eine Analyse mit neuronalen Netzen möglich. Im Lauf dieser Arbeit hat sich gezeigt, daß häufig auch eine optimale Methode für die Auswertung existiert.


8.1          Messung der Bewegungssignale

Die Bestimmung der Positionen wurde bei allen Messungen ultraschallbasiert durchgeführt, dies hat gegenüber optischen Verfahren den großen Vorteil, daß nur die Daten aufgezeichnet werden, die für eine spätere Auswertung von Interesse sind. Kamerabasierte Systeme zeichnen das gesamte Bild auf und erst nachträglich können relevante Positionen aufgefunden werden, was sehr zeitintensiv ist. Für die vorgestellten Messungen wurde das kommerzielle System der Firma zebris Medizintechnik verwendet.

Kleine Ultraschallsender (ca. 1 ccm groß) werden dazu an den zu untersuchenden Körperstellen aufgeklebt oder mit geeigneten Haltern befestigt. Diese Sender geben mit vorgegebener Frequenz (20-50 Hz) nacheinander kurze Ultraschallimpulse ab, die von drei Mikrofonen im Raum aufgezeichnet werden. Eine exakte Bestimmung der Ankunftszeit im Bereich von wenigen Nanosekunden, ermöglicht die Berechnung der Senderposition in allen drei Raumkoordinaten über einfache trigonometrische Betrachtungen.

Abbildung 82: Ultraschall Ortsbestimmung. Kleine Ultraschallquellen senden, von einer Zentraleinheit gesteuert, periodisch kurze Impulse aus, die von stationären Mikrofonen aufgefangen werden. Aus den Eintreffzeiten und dem Zeitpunkt des Aussendens läßt sich die Position der Schallquelle bestimmen. Die relative Genauigkeit des Verfahrens liegt bei kleinen Meßvolumina unter einen Millimeter.

Eichmessungen zeigen, daß die Genauigkeit der Positionsbestimmung im Bereich von einem Millimeter liegt, die relative Genauigkeit kann in kleinem Volumen sogar um eine Größenordnung besser sein. Die Signale der Messung werden auf elektronische Datenträger archiviert und stehen zur späteren Auswertung zur Verfügung.

8.2          Analyse von Fingerbewegungen

Das Öffnen und Schließen der Finger von der Faust zur flachen Handfläche ist ein scheinbar einfacher Vorgang und jedem vertraut. Bei gesunden Probanden schließt sich die Hand in einer Greifbewegung, d.h. alle Gelenkwinkel werden gleichzeitig gleichmäßig kleiner. Bei pathologischen Fällen beginnen die aussenliegenden Fingergelenke zuerst den Winkel zu verkleinern, und nachfolgend schließen auch die inneren Gelenke. Diese Bewegung entspricht einem Einrollvorgang.

Die medizinisch interessante Fragestellung war nun, ob bei einer Paralysierung des kleinen Fingers die Bewegung des Zeigefingers ebenfalls betroffen ist. Durch einfaches Beobachten bzw. Auswerten der Meßdaten konnten bisher keine signifikanten Unterschiede festgestellt werden, obwohl Modelle für diese Veränderung sprechen.

8.2.1      Aufbau der Messung

Zur Bestimmung der Winkel zwischen den drei Fingergelenken wurden auf dem Handrücken und auf die einzelnen Fingersegmente des Zeigefingers jeweils zwei Ultraschallsender aufgeklebt. Der so präparierte Proband sollte nun zehnmal die Hand vor den Mikrofonen öffnen und schließen.

Abbildung 83: Aufzeichnung der Bewegungsdaten. Die drei Gelenkswinkel werden aus der Lage der Fingersegmente und des Handrückens über die Position der Marker 1 bis 8 berechnet. Dabei geht man von einer Bewegung in einer Ebene aus. Trägt man die Bewegung über einen Zyklus auf, offene Hand, Faust, offene Hand, so erhält man die zeitabhängige Winkelkurve links unten.

Aus den aufgezeichneten Signalen wurden die Gelenkwinkel in der Ebene der Bewegung berechnet, Bewegung außerhalb der Ebene wurde nicht berücksichtigt. Sie ist bei zwei Sendern pro Gelenk nicht zugänglich. Weiterhin wurde von einfachen Scharniergelenken ausgegangen.

8.2.2      Auswertung der Daten

Abbildung 84: Extraktion der signifikanten Information. Damit für das neuronale Netz die Bewegungsmuster leichter vergleichbar sind, wurde jeder Datensatz relativ zu einem Triggerzeitpunkt ausgewertet. Der erste Trigger liegt bei dem erstmaligen Überschreiten des Winkels 20 deg des Gelenks 3, der zweite Trigger wird durch das erstmalige Unterschreiten von 20 deg des Gelenks 3 gefunden. In der Umgebung dieses Zeitpunkts werden jeweils 15 Winkelwerte pro Gelenk für die spätere Auswertung durch das neuronale Netz herausgefiltert. Ein Datensatz besteht somit aus 90 Elementen, wie  unten rechts angedeutet.

Jeder Bewegungszyklus wurde getrennt ausgewertet. Damit die Bewegungsmuster vergleichbar werden, wurde das Überschreiten des zwanzig Grad Beugungswinkels im Fingergrundgelenk als Triggerzeitpunkt verwendet. Die davorliegenden und danachliegenden jeweils sieben Winkelwerte (0,6 Sekunden) wurden als Datenvektor zusammengefaßt (15 Elemente).

Dieser Basisdatensatz wurde für alle drei Gelenkwinkel sowohl für die schließende als auch öffnende Bewegung erfaßt. Mithin charakterisieren diese 90 Winkelwerte einen vollständigen Bewegungszyklus (siehe Abbildung). Mit den zur Verfügung stehenden Meßdaten (insgesamt 145 Muster) wurde eine Kohonenkarte trainiert.

Das verwendete SOM-Netz (Self Organizing Map) bestand aus 10 mal 10 Knoten. Für das Training wurde das von Kohonen zur Verfügung gestellte Trainingsprogramm eingesetzt [KOH92]. Die resultierenden Vektoren an den Netzknoten wurden anschließend mit den Bewegungsmustern von gesunden und erkrankten Probanden verglichen. Dazu wurde für jeden Knoten notiert, ob es ein Bewegungsmuster eines Gesunden gibt, das am besten damit übereinstimmt oder ein Bewegungsmuster eines Erkrankten. Einige Knoten hatten keine direkte Übereinstimmung mit einem Testmuster, auf einige trafen sowohl gesunde wie auch pathologische Muster zu.

Abbildung 85:SOM der Bewegungsmuster des Zeigefingers. Bei der Zuordnung der Bewegungsmuster des Kontrolldatensatzes lagen alle eindeutigen Fälle von Ulnar Nerver Palsy (P), bis auf einen Vektor, innerhalb der markierten Bereiche. Wie bei medizinischen Daten nicht anders zu erwarten, gab es einige Vektoren im Netz, denen sowohl gesunde als auch krankhafte Bewegungsmuster zugeordnet wurden(x). Eindeutig gesunde sind mit (H) und nichtbelegte Vektoren mit (0) markiert.

Trägt man das SOM-Netz mit seinen Übereinstimmungen auf, so findet man eine Region, die für die Erkrankung typisch ist und von "Zweifelsfällen" umgeben wird (siehe Abbildung).

Damit scheint eindeutig eine Veränderung der Bewegungsmuster bei Ulnar-Nerve-Palsy gegeben zu sein. [HAH96]


8.3          Untersuchungsmethode für Gleichgewichtsstörungen

Eine der komplexesten und daher technisch immer noch nicht zufriedenstellend abgebildeten Leistungen des Menschen ist der aufrechte Gang und die damit verbundene Aufgabe, nicht umzufallen. Dabei wirkt eine Kette von Sensoren und Aktoren auf perfekte Weise zusammen. Allerdings kann es zum Ausfall einzelner Elemente kommen, was sich direkt auf die Fähigkeit, das Gleichgewicht zu halten auswirkt.

Ein Standardtest für die Untersuchung solcher Störungen ist der Tretversuch [CLA81]. Dabei soll der Proband mit geschlossenen Augen auf der Stelle treten und das dabei auftretende Bewegungsmuster wird beobachtet. Ursprünglich “sah” der erfahrene Arzt die entsprechende Störung und gab seine Diagnose ab. Inzwischen kann das Bewegungsmuster mit geeigneten Markern sowohl räumlich als auch zeitlich aufgezeichnet werden und steht damit einer numerischen Analyse zur Verfügung [ZEB92].

Die Aufgabe für das neuronale Netz besteht also darin, das was der Arzt “sieht”, automatisch zu erkennen und zu klassifizieren.

8.3.1      Der Stehversuch

Der Stehversuch nach Underberg verlangt vom Probanden, daß sich dieser eine Minute still mit ausgestreckten Armen und geschlossenen Augen hinstellt. Der Arzt beobachtet dabei die auftretenden Schwankungen und stützt ihn notfalls ab.

Im Rahmen dieser Arbeit wurden probeweise solche Stehversuchsdaten ausgewertet, die Aussagekraft der Ergebnisse war jedoch gegenüber dem Tretversuch gering und wird hier nicht tiefer betrachtet.

8.3.2      Der Tretversuch

Der Tretversuch nach Fukuda verlangt vom Probanden, daß dieser eine Minute auf der Stelle tritt, wobei er die Augen geschlossen hält und die Arme ebenfalls nach vorne ausstreckt. Wiederum beobachtet der Arzt die Bewegungen des Probanden und greift gegebenenfalls unterstützend ein.

Dieser Test ist besonders empfindlich für verschiedene Störungen des Gleichgewichtssystems, da eine wesentlich aktivere Bewegungskorrektur während des Tests notwendig ist. Er zählt zur Klasse der Provokationstests, bei denen Bewegung im Spiel ist. Weitere Provokationstests finden auf kippenden Plattformen statt, sollen hier jedoch nicht näher betrachtet werden.

8.3.3      Meßmethode

Die vorliegenden Daten werden mit einem Ultraschallbewegungsmeßsystems aufgezeichnet. Dazu werden zwei Marker an den Schultern, zwei Marker am Kopf (gemäß der Abbildung) fixiert. Die Aufzeichnung der Bewegung erfolgt automatisch über eine Minute und wird danach elektronisch gestoppt. Während der Messung können die Bewegungskurven auf einem Monitor verfolgt werden und bei Mißlingen die Messung manuell abgebrochen werden.

8.3.4      Datenerhebung

Für die Analyse liegen aus zwei Arztpraxen insgesamt ca. 8000 Datensätze vor. Die Datensätze wurden vor der weiteren Verarbeitung ausführlicher Tests bezüglich ihrer Eignung zur weiteren Verarbeitung unterzogen [HM98]. Dabei wurden alle Messungen, die nicht über einen Mindestzeitraum von 55 Sekunden fehlerfrei abliefen aussortiert, weiterhin wurden Fehlmessungen, bei denen offensichtlich Stehversuche vom medizinischen Personal als Tretversuch eingeordnet wurden, nicht für die Auswertung herangezogen.

Nach dieser "Vorrunde" blieben etwa 1500 Datensätze für die weitere Auswertung übrig. Dieses großzügige Vorgehen ist aufgrund der sehr großen Zahl an Datensätzen gerechtfertigt. Leider liegt nur unzureichendes Material über Beschwerden und Diagnosen der Patienten vor. Dies stellt aber insofern keine Beeinträchtigung der Analyse dar, daß nur Bewegungsmuster klassifiziert werden sollen, nicht jedoch vollständige medizinische Diagnosen in diesem Anfangsstadium der Forschung Ziel der Arbeit sein können.

8.3.5      Klassische Datenauswertung

Die quantitative Analyse der Gleichgewichtstests anhand von Bewegungsdaten aus dem Gleichgewichtsversuch der CCG (Cranio Corpo Graphie), wurde von C.F. Claussen eingeführt. Er hat erstmals an Kopf und Schultern der Probanden kleine Lämpchen befestigt und deren Lichtspur mit einer Kamera an der Decke verfolgt. Damit war es erstmals möglich, die globalen Größen der Bewegung numerisch auszuwerten und wissenschaftlich exakt zu analysieren. 

Für den Stehversuch wurden anhand der Leuchtspuren folgende globale Kennziffern eingeführt:

1.       Lateralschwankung, maximale Auslenkung der Kopfposition während der Messung in lateraler Richtung,

2.       Longitudinalschwankung, maximale Auslenkung des Kopfes orthogonal zur Lateralschwankung

3.       Stirnbestreichungsfläche, Produkt aus den oben genannten Größen

Abbildung 86: Auswertediagramm eines Tretversuchs mit der vom Autor entwickelten CCG-Software mit automatischer Berechnung der Standardgrößen im Tretversuch. Im Polardiagramm sieht man die Bewegungsspuren eines Tretversuchs, die Startposition ist durch einen schwarzen Balken angedeutet.

Für die Analyse des Tretversuchs werden fünf Einzelgrößen ermittelt:

1.       Gesamtabweichung, Entfernung zwischen Startpunkt und Haltepunkt am Ende der einminütigen Meßzeit

2.       Richtung der Bewegung: Richtung der Halteposition bezüglich der ursprünglichen Startrichtung

3.       Eigenspin: Drehung des Körpers innerhalb des Meßintervalls

4.       Schwankung: "Breite" der Bewegungsspur verursacht durch Schwankungen des Körperschwerpunkts.

5.       Kopfdrehwinkel: Änderung der Kopfhaltung relativ zur Schulterrichtung zwischen Start und Ende der Messung

Eine mathematisch exakte Definition der Größen findet sich bei Heinrich [HM98], die bisherige Definition nach Claussen [CLA81], [CLA86] ist für eine visuelle Beurteilung geeignet, für eine mathematisch standardisierte Behandlung jedoch nicht eindeutig genug.

8.4          Analyse der "klassischen" Bewegungsdaten mit einem neuronalen Netz

Für die Analyse der Daten wurden zwei Ansätze verfolgt: Es wurden die klassischen Parameter nach Claussen aus den Datensätzen berechnet und zu Trainingsvektoren zusammengefaßt. Dieses Verfahren dient als Vergleichstest gegen das neue Analyse­verfahren, das die harmonische Bewegung direkt analysiert und als zweites beschrieben wird.

Für die Klassifizierung der Gleichgewichtsbewegung wurden 830 Tretversuche aus der Praxis 1 und 553 Tretversuche aus der Praxis 2 ausgewertet und charakteristische Vektoren mit fünf Komponenten (den klassischen Bewegungsgrößen) ermittelt.

Abbildung 87: Bewegungsspuren im Gleichgewichtsversuch von einem Kohonen-Netz nach den klassischen Parametern der Gleichgewichtsmessung sortiert.

8.4.1      Training der Netze

Zur Kategorisierung der vorhandenen Bewegungsmuster wurden zweidimensionale Kohonenkarten verwendet, da diese ohne Ergebnisvektoren ein automatisches Mapping der Daten ermöglichen. Für alle Experimente wurde eine Karte mit 8*10 Knoten auf Empfehlung von [GOE97] verwendet. Das Training der Karten erfolgte jeweils mit dem Datensatz aus einer Praxis, die Tests mit denen der anderen. Damit ist gewährleistet, daß die Ergebnisse unabhängig von spezifischen Untersuchungspraktiken in einer Praxis sind. Der Einsatz einer Kohonenkarte für die klassischen Parameter zeigt eine gute Organisation der Karte (Abbildung 8‑7),

Abbildung 88:Geschwindigkeit sortiert mit klassischen Parametern mittels einer Kohonenkarte. Obwohl die klassischen Parameter die Bewegungsspuren scheinbar gut sortieren, erscheinen die Geschwindigkeitsdiagramme schlecht sortiert. Dies deutet an, daß die Gleichgewichtsbewegungen nur unzulänglich durch die klassischen Parameter beschrieben werden.

 

8.4.2      Beurteilung der Auswertung

Für die Analyse der Kohonenkarten wurde auf jedem Knoten das nächstliegende gemessene Bewegungsmuster eingetragen. Die Tatsache, daß sowohl aus Praxis 1 wie aus Praxis 2 gleichartige Kurven sich an gleicher Stelle im Netz wiederfinden, zeigt, daß die bisher benutzten Parameter zur Charakterisierung der globalen Bewegungsmuster eindeutig sind.

Die klassischen globalen Bewegungsgrößen spiegeln leider nur oberflächlich die zugrundeliegende Bewegung wieder. Eine genaue Betrachtung der Bewegungsspuren zeigt, daß gleiche globale Bewegungen durch sehr unterschiedliche lokale Verhaltensweisen zustandekommen können. Dies sieht man in Abbildung 8‑8, dort wurden auf die Kohonenkarte, die mit den klassischen Parametern trainiert war, die Geschwindigkeitskurven der jeweiligen Messungen eingetragen. Die Sortierung ist sehr inhomogen, wackelige Kurven finden sich neben sehr harmonischen Kurven.

Der Ursache liegt darin, daß ein kräftig aufstampfender Proband ähnlich große Lateralschwankungen zeigt wie ein vorsichtig, aber "wackelig" tretender Proband. Diese Problematik soll daher im folgenden eingehend betrachtet werden.

8.5          Bewegungsmodell für den Tretversuch

Während des Tretens führt der Oberkörper eine in erster Näherung harmonische Schwingung um einen Gleichgewichtspunkt aus.

Abbildung 89: Mechanische Situation beim Tretversuch. Vereinfachend wird angenommen, der Körper schwingt als Masse m an einer horizontalen Feder. Die Position der linken Schulter sl wird aufgezeichnet und repräsentiert die Massenbewegung

Es liegt daher nahe, das Phasendiagramm dieser Schwingung für die Analyse der Gleichgewichtsbewegung heranzuziehen. Trägt man die Geschwindigkeit des Körperschwerpunkts über seine Position auf, so erhält man für eine Periode eine nahezu geschlossene, annähernd elliptische Kurve.

In der praktischen Erfassung dieser Trajektorie muß allerdings die Gesamtschwerpunktsbewegung über die Meßzeit herausgerechnet werden. Dies erfolgt durch geeignete numerische Routinen. Weiterhin ist es erforderlich, den Periodenbeginn exakt zu definieren, dies geschieht über den Nulldurchgang der Geschwindigkeit. Damit ist es möglich, eine sich über ca. 60 Schritte (Perioden) wiederholende Schwingung physikalisch sinnvoll zu beschreiben.

Abbildung 810: Steuermodell für die Gleichgewichtsbewegung. Die Position der schwingenden Körpermasse m wird von verschiedenen Rezeptoren, wie dem Gleichgewichtsorgan, verfolgt und an das Nervenzentrum weitergeleitet. Dort wird die Position mit der zu erwartenden Bewegung, einer harmonischen Schwingung, verglichen und bei Abweichungen werden Steuersignale E an die Aktoren A (Muskeln) weitergeleitet.

Betrachtet man die Gleichgewichtssteuerung des Gehirns im Regelungsmodell, so sollten Störungen, Abweichungen der harmonischen Bewegung durch das sensorische System, erfaßt und durch das motorische System korrigiert werden. Im Phasendiagramm führt dies zur Abweichung der gemessenen Trajektorie von der elliptischen Bahn.

8.5.1      Vorverarbeitung der Daten

Abbildung 811:Die Messwerte im Phasenraum. Links die Ausgangswerte mit der dazugehörigen gemittelten Ellipse, rechts die normierte Phasenraumdarstellung, die Ellipse entartet zu einem Kreis, der Phasenraum kann dann in 16 äquianguläre Sektoren unterteilt werden.

Um die Abweichungen und damit Störungen im Regelprozess für das neuronale Netz zugänglich zu machen, wurden folgende Größen aus dem Phasendiagramm abgeleitet:

1.       Der Phasenraum wurde bezüglich der Halbachsen der Ellipse normiert und in 16 äquidistante Sektoren aufgeteilt. Für jeden Sektor wurde der mittlere Abstand der Meßwerte vom Ursprung des Koordinatensystems berechnet und zu einem 16-elementigen Trainingsvektor zusammengefaßt.

2.       Neben dem Mittelwert der Messung in jedem Sektor wurden die Standardabweichungen ebenfalls zu einem 16-elementigen Vektor gruppiert.

3.      

Abbildung 812:Merkmale der Phasendiagramme. Für jeden der 16 Sektoren wurde der Mittelwert des Radius über alle Perioden berechnet, zusätzlich wurde die Standardabweichung in jedem Sektor berücksichtigt.


8.5.2      Analyse der Bewegungsdaten im Phasenraum mit einem neuronalen Netz

Trainiert man das Netz mit den Phasendiagrammen, so findet man, daß ähnliche Grundbewegungen im Phasenraum sich wohlgeordnet auf der Kohonenkarte wiederfinden, Abbildung 8‑13. Dies sieht man auch im Mapping der Standardabweichungen, die sich ebenfalls sehr gut im vorliegenden Schema einordnen, Abbildung 8‑14. Diese gleichförmige Zuordnung findet sich auch bei den im ersten Versuch schlecht organisierten Geschwindigkeitskurven, das dazugehörige Mapping ist in Abbildung 8‑15 wiedergegeben.

Mappt man jedoch die globalen Bewegungsmuster auf das mit den lokalen Bewegungen trainierte Netz, so erscheint nur eine unzureichende Organisation der Kurven, Abbildung 8‑16. Dies weist ebenfalls auf Unabhängigkeit zwischen globalen Bewegungsmustern und Feinstruktur der periodischen Bewegung hin.

8.5.3      Beurteilung des Resultats

Es erscheint damit möglich, die Bewegungskurven nach ihrer physikalisch zugrundeliegenden Struktur zu ordnen. Daß dies nicht mit wenigen Parametern, den klassischen Tretversuchsparametern, gelingt, ist nur verständlich, wenn man berücksichtigt, daß der Mensch kein Automat ist, der bei gleicher Störung immer gleiche makroskopische Größen liefert.

Vielmehr war es notwendig, ein Modell zu entwickeln, das der Fragestellung angepaßt war und die Leistungsfähigkeit der modernen Meßtechnik voll ausschöpft. Darauf basierend wird es möglich sein, medizinische Diagnosen, die bisher bei der direkten visuellen Beurteilung der Bewegung durch den Arzt aufgestellt wurden, durch physikalische Analysen nachzuvollziehen. Bis allerdings eine vollständige Diagnose möglich ist, müssen den einzelnen Bewegungsmustern noch richtige Diagnosen hinterlegt werden.

Abbildung 813: Phasendiagramme des Tretversuchs. Die systematische Sortierung erfolgt mithilfe einer Kohonenkarte, die 32 charakteristische Werte aus dem Phasendiagramm nutzte. Im Bereich A0 sind Phasenverläufe von sehr unsteten Bewegungen, im Bereich F6 sind fast perfekt harmonische Phasendiagramme (Kreiskurve) eingeordnet.

Abbildung 814: Standardabweichung der Phasendiagramme im Tretversuch. Probanden mit reproduzierbaren Bewegungszyklen zeigen sehr kleine Standardabweichungen und sind im Bereich F6 zu finden. Jene mit erheblichen Problemen in den einzelnen Bewegungszyklen zeigen auch eine schlechte Reproduzierbarkeit der Bewegung und damit eine große Standardabweichung.

Abbildung 815: Mapping der Bewegungsgeschwindigkeit auf die austrainierte Kohonenkarte. Die Bewegungskurven erscheinen bei diesem Auswerteverfahren wesentlich sinnvoller sortiert als in Abbildung 8‑8. Im Bereich A0 liegen unruhige Bewegungsmuster, im Bereich F6 sehr gleichmäßige Muster. Störungen der Meßsignale, wie z.B. bei C5, führen offensichtlich zu keiner Beeinträchtigung im Training der Kohonenkarte.

Abbildung 816: Mapping der Bewegungsmuster auf die austrainierte Kohonenkarte. Im Gegensatz zu den Geschwindigkeiten erscheinen die Bewegungsmuster nicht sortiert.


9                  Ausblick

Die im Rahmen der Arbeit untersuchten Auswertemöglichkeiten für Elektronenhologramme haben gezeigt, daß durch geeignete numerische Verfahren die Information in den vorhandenen Aufnahmen optimal genutzt werden kann.

Für eine Weiterentwicklung der Rekonstruktion müssen aber zwei Probleme gelöst werden: Zum einen kann bisher die Phaseninformation nicht mit der gleichen Präzision wie die Amplitudeninformation regeneriert werden. Zum zweiten verschlechtert der geringe Streifenkonstrast in den Hologrammen die mögliche Qualität der Auswertung. Es sind daher in Zukunft zwei Ansätze zum Umgehen dieser Problematik möglich, die aufgrund der rapide wachsenden numerischen Verarbeitungskapazität von Rechnern realisierbar erscheinen.

Damit die in der Elektronenholographie aufgezeichnete Phaseninformation in der Bildwelle als gut rekonstruierbare Amplitudeninformation erscheint, ist es notwendig, die Hologramme bei verschiedenen Fokusbedingungen aufzuzeichnen, damit in jedem Frequenzbereich optimal auswertbare Information für die später folgende Objektwellenrekonstruktion vorliegt.

Zur Verbesserung der Hologrammstreifenkontraste ist neben einer optimal abgestimmten Mikroskopanordnung (Elektronenquelle, Biprisma) die Aufzeichnung der Bildwelle von entscheidender Bedeutung. Es zeigt sich, daß die Information höherer Reflexe im Seitenband durch Drift und elektrische Instabilitäten bei der zeitlichen Integration während der Aufzeichnungen verloren geht.

Da die Information der Elektronenwellen jedoch im einzelnen wesentlich höhere Qualität bezüglich Ort und Kontrast besitzt und nur durch die zeitliche Integration über den gesamten Aufzeichnungszeitraum (zirka 0,5 bis 4 Sekunden) verwischt wird, verliert das aufgezeichnete Hologramm Information. Gelingt es, Ort und Zeit der Elektronendetektion in der Bildebene vollständig aufzuzeichnen, stehen diese Daten anschließend für eine verfeinerte Rekonstruktionsrechnung zur Verfügung. Die dazu notwendige Sensorik wird sich sicherlich aus den hochentwickelten orts- und zeitauflösenden Detektoren der Hochenergiephysik rekrutieren.

Die Auswerterechnung benötigt dann Algorithmen, die die Bildwellenrekonstruktion unter Berücksichtigung weniger, einfach zu beschreibender Drift und Schwingstörungen optimal berechnet. Der Auswertealgorithmus wird dazu den Streifenkonstrast und die Intensität höherer Reflexe im Seitenband als Optimierungskriterium verwenden.

Die Auswertung der aufgezeichneten Daten mit neuronalen Netzen ermöglichte bei der Analyse von Gleichgewichtssignalen eine Klassifizierung in verschiedene Bewegungsmuster. Hier kann eine Weiterentwicklung in Richtung tieferes Verständnis der Signale durch Simulation von Gleichgewichtsbewegungen mit Computerdummies realisiert werden. Dazu ist es notwendig, das Steuerungsmodell für die Gehbewegung weiterzuentwickeln und die auftretenden Bewegungsmuster mit den gleichen Kohonenkarten zu klassifizieren wie dies bereits für die menschliche Bewegung erfolgte. Durch geeignete Störung des simulierten Regelkreises sollte eine Abbildung der medizinisch beobachteten Variationen möglich sein. Damit kann die Auswertung von Gleichgewichtstests objektiviert und verfeinert werden.

10            Ergebnisse und Zusammenfassung

Neuronale Netze sind nicht die ideale Lösung bei der Auswertung von Meßdaten, sondern ein wertvolles Instrument zur Analyse eines Problems. Die neuronalen Netze können helfen, für eine scheinbar aussichtslos komplexe Fragestellung schnell zu erfahren, ob eine Lösung besteht, die besser als das bisher Bekannte ist. Ihr Einsatz ist wie das Aufsteigen in einem Ballon, man sieht in welcher Richtung es am Horizont weitergeht, aber sie sind nicht immer das beste Mittel, um dorthin zu gelangen. Es gibt eine Reihe von solchen Hilfsmitteln, die zur Erweiterung des Horizonts dienen: Nicht zuletzt die Weltraumfahrt und Rüstungsforschung werden oft durch ihre Sekundäreffekte als nützlich begründet.

Die neuronalen Netze sind zumindest ein sehr preisgünstiges und einfaches Verfahren, Hinweise auf weiterführende Möglichkeiten zu erhalten. Es bleibt dann allerdings noch immer die Aufgabe des Wissenschaftlers, mit den nebulösen Andeutungen des neuronalen Netzes erfolgreich umzugehen und Resultate jenseits der noch immer sehr schlichten Arbeitsweise von neuronalen Netzen zu finden.

In dieser Arbeit wurde ein weiter Bogen für den Einsatz von neuronalen Netzen gespannt. Beginnend mit den Erfahrungen bei der erfolgreichen Auswertung von Phase-Shift Elektronenhologrammen, die mit drei Eingabegrößen sogar vollständig grafisch visualisierbar waren, wurden weitere Einsatzgebiete für diese Technik ausgeleuchtet.

Dabei war die Analyse von Diffraktogrammen ein Schritt, der auch die Grenzen der neuronalen Netze und der notwendigen Trainingsdaten gezeigt hat. Obwohl die Netze das Problem hinlänglich gelöst hatten, scheitert der praktische Einsatz an unüberwindbaren Problemen bei der Erzeugung genügend realistischer Trainingspattern. Es müßten dazu nicht nur komplexe amorphe und kristalline Mischpräparate simuliert werden, all diese sollten dann auch noch den multidimensionalen Raum der Bildfehler abdecken. An dieser Stelle scheinen andere Verfahren, wie das Minimieren des Amplitudenkontrasts mit genetischen Algorithmen [LEH97]und die Auswertung der Reflexphase bei kristallinen Präparaten durch Fokusvariation [MAL96] wesentlich vielversprechender.

Außerordentlich fruchtbar war die Auswertung von Standard Elektronenhologrammen. Neben der Tatsache, daß damit die Präzision der Amplitudenbestimmung verbessert werden konnte und einige unangenehme Artefakte der bisher verwendeten Seitenbandrekonstruktion entfallen, war es der Zugang zur optimalen Auswertung von Hologrammen im Ortsraum.


11            Anhang

Der Korrelationskoeffizient  zwischen zwei komplexen Zufallsgrößen  und  ist wie folgt definiert:

mit der Kovarianz

Dabei ist  komplex konjungiert zu  und die Übersteichung steht für die Mittelung der darunter stehenden Größen über alle Elemente des Wahrscheinlichkeitsraums, dies ist hier die Mittelung über alle denkbaren Bildwellen. Unter der Annahme, daß keine bestimmte Phase, kein bestimmter Punkt und keine Richtung ausgezeichnet sind (Homogenität und Isotropie) ist die Kovarianz nur eine Funktion des Abstands

Unter diesen Bedingungen vereinfacht sich der Korrelationskoeffizient zu

,

die Kovarianz zwischen Werten der Bildwelle kann mit der Übertragungsfunktion des Mikroskops aus der Objektwelle über den Zusammenhang

bestimmt werden, dies führt auf den Korrelationskoeffizienten.

12            Literatur

[ABB18] Abbe E., Beiträge zur Theorie des Mikroskops und der mikroskopischen Wahrnehmung, Schultze, Archiv f. mikrosk. Anatomie Bd. 9 (1881)d 413-480

[ADE9] Ade G., R. Lauer, Digitral phase determination and amplification techniques in electron off-axis holograpy, Optik 91 No. 1 (1992)d 05. Okt

[ADE91] Ade G., R. Lauer, Digital interferometric reconstruction of the object wave from off-axis electron holograms, Optik 88 (1991)d 103-108

[AOY95] Aoyama K., Q. Ru, Electron holographic observation for biological specimes: electron holography of bio-specimens, Journal of Microscopy 182 (1995) 177-185

[BAI96] BAIK H.S., DASTHIZADEH V., TATIBOUET J. and EPICIER T, Modelling and quantitative analysis of HRTEM images from amorphous materials, EUREM96 CD:\M\M8\EPICIER\EUREM2.PDF (1996)d

[BAN95] Banzhof Helmut, Abbildung von Einkristalloberflächen mittels Reflexionselektronenholographie, Ph.D. thesis (1995) University of Tübingen

[BEE95] Beeli Conradin, Bernard Doudin and Pierre Stadelmann, Flux Quantization in Magnetic Nanowires Imaged by Electron Holography, Phys. Rev. Letters 75 (1995) 4639-4633 + Comments and Author's Reply in Phys. Rev. Letters 77 (1995) 976-978

[BOI89] Boit Christian, Eduard Heindl, Zur Bestimmung großer Diffusionslängen in Silizium-Wafer mit der SPV-Methode, Archiv für ELektrotechnik (1989) 141-148

[CLA81] Clausen C. F., Schwindel, edition m+p (1981)d

[CLA86] Clausen C.F., Clausen E., Forschungsbericht Cranio-Corpo-Graphie (CCG), Hauprverband der gewerblichen Berufsgenossenschaft e. V. (1986)d

[COE92] Coene Wim, Guido Janssen, Marc Op de Beeck, Dirk Van Dyck, Phase Retrieval through Focus Variation in Field-Emission Transmission Electron Microscopy, Phys. Rev. Letters 69 (1992) 3743-3746

[COW92] Cowley J. M., Twenty Forms of Electron Holography, Ultramicroscopy 41 (1992)d 335-348

[COW95] Cowley J. M., Chromatic coherence and inelastic scattering in electron holography, Ultramicroscopy Letter in Ultramicroscopy 57 (1995) 327-331

[DAT95] Datye A. K., D. S. Kalakkad, E. Völkl, L. F. Allard, Electron Holography of Heterogeneous Catalysts, in Electron Holography: ed. by A. Tonomura, L. F. Allard, G. Pozzi and Y. A. Ono,  Elsevier Science BV (Proceedings of the Knoxville Workshop on Electron Holography) (1995) 199-208

[DÖR82] Dörband B., Die 3-Interferogramm-Methode zur Streifenauswertung in rechnergesteuerten digitalen Zweistrahlinterferometern, Optik 60 (1982)d 161

[DUE93] Dueck, Gunter, New Optimization Heuristics, Journal of Computational Physics 104 (1993) 86-92

[DYC92] Dyck, D. van, Op de Beeck, M., Direct Methods in High Resolution Electron Microscopy, Scanning Microscopy Supplement 6 (1992) 115-120

[EIC78] Eichler, Hans-Joachim, Das Auflösungsvermögen optischer Instrumente, Bergmann Schäfer, Lehrbuch der Experimentalphysik (1978)d 365-371

[FLE97] Fleischmann A., C. Bubeck, G. Knell, E. Plies, Elektrostatische Minilinse zur Erzeugung einer niederenergetischen Hochstrom-Elektronensonde, DGE Tagung Regensburg (1997) http://www.physik.uni-regensburg.de/Dreilaender97/supp11.htm

[FOR98] Ford Brian J., Frühe Mikroskopie, Spektrum der Wissenschaft, Heft 6 (1998)d 68

[FRA79] Frantz, Sawchuk, von der Ohe, Optical phase measurement in real--time, Appl. Optics 18 (1979), Nr.19 (1979)d

[FRE97] Frey Uwe, Synaptic tagging - ein genereller Mechanismus der neuronalen Informationsspeicherung?, Spektrum der Wissenschaft Heft10/ (1997)d 16-20

[FRO93] Frost Bernhard, Probleme der elektronenholographischen Analyse magnetischer Mikrofelder, Ph.D. thesis (1993) University of Tübingen

[FRO96] Frost B., E. Völkl, L. F. Allard, An improved mode of operation of a transmission electron microscope for wide field off-axis holography, Ultramicroscopy 63 (1996) 15-20

[FUQ91] Fu Q., H. Lichte and E. Völkl, Correction of Aberrations of an electron microscope by means of electron holography, Phys. Rev. Letters 67 (1991) 2319

[FUQ94] Fu Quiang, Numerische Rekonstruktion der Elektronenwelle aus Off-Axis-Elektronenhologrammen mit Korrektur der Aberrationen, Ph.D. thesis (1994) University of Tübingen

[FUQ95] Fu Q. and H. Lichte, Holographic measurement of the wave aberration of an electron microscope by means of the phases in the fourier spectrum, Journal of Microscopy 179 (1995) 112-118

[GAB48] Gabor D., A New Microscopic Principle, Nature 161 (1948)d 777-778

[GAJ93] Gajdardziska-Josifovska M., M. R. McCartney, W. J. de Ruijter, D. J. Smith, J. K. Weiss, J. M. Zuo, Accurate measurements of mean inner potential of crystal wedges using digital electron holograms, Ultramicroscopy 50 (1993) 285-299

[GAJ94] Gajdardziska-Josifovska M., M. R. McCartney, Elimination of thickness dependance from medium resolution electron holograms, Ultramicroscopy 53 (1994) 291-296

[GOE97] Göppert Josef, Kohonenkarten, persönliche Mitteilung (1997)d

[GOE97a] Göppert Josef, Die topologisch interpolierende selbstorganisierende Karte in der Funktionsapproximation, Shaker Verlag, Aachen, Germany, (ISBN 3-8265-2401-2) (1997)d

[GRI95] Gribelyuk M. A. and J. M. Cowley, Determination of experimental imaging conditions for off-axis transmission electron holography, Ultramicroscopy 50 (1995) 29-40

[GRO95] Grossmann Volker, Entwicklung und Erprobung eines Verfahrens zur Erfassung von ausgedehnten Elektronenhologrammen mittels einer CCD-Kamera in "Patch-Work" Technik, Diploma Thesis (1995)d University of Tübingen

[HAH95] Hahn P. and E. Heindl, Classification of finger movement pattern by self organized maps (SOM), Interdisciplinary Workschop and Autumn School on Neuronal Networks, Würzburg (1995) 39

[HAH96] Hahn Peter and Eduard Heindl, Does an Ulnar Nerve Lesion Influence the Motion of the Index Finger, Journal of Hand Surgery 21B: 2: (1996)d 252-254

[HAN65] Hanszen Karl-Joseph und Bodo Morgenstern, Die Phasenkontrast- und Amplitudenkontrast- Übertragung des elektronenmikroskopischen Objektivs, Zeitschrift für angewandte Physik X.Band, 3 (1965)d 215-227

[HAR92] Harscher Alexander, Untersuchung verschiedener Präparationsmethoden bezüglich ihrer Eignung für die Elektronenholographie, Diploma Thesis (1992) University of Tübingen

[HAR95] Harscher Alex, Günter Lang , Hannes Lichte, Interpretable resolution of 0.2 nm at 100 kV using electron holography, Ultramicroscopy 58 (1995) 79-86

[HAR96] Harscher A.1 , Lichte H.2 and Meyer J., Interference experiments with energy filtered electrons, EUREM96 CD:/T/T14/Harscher/Dubabst.pdf (1996)

[HAR97] Harscher A. and H. Lichte, Detection Limits of Amplitude and Phase Resolution in Electron Holography, Ultramicroscopy (1997) in press

[HAR97] Harscher Alex und Hannes Lichte, Bestimmung des mittleren inneren Potentials Ui sowie der mittleren freien Weglänge für inelastische Streuung von vitrifiziertem Eis mittels Elektronenholographie, DGE Tagung Regensburg (1997)d http://www.physik.uni-regensburg.de/Dreilaender97/supp11.htm

[HAS83] Hashimoto, H., Direct Imaging of Atomic Processes in Cristals: Some Personal Steps TOWARD This Goal - 1st Cild & Co. Microscopy Lecture, Proceedings RMS Vol. 18/5 (1983)d 298-308

[HAS88] Hasselbach F., A ruggedized miniature UHV electron biprism interferometer for new fundamental experiments and applications, Z. Phys. B. Condensed Matter 71 (1988)d 443 -449

[HAW92] Hawkes, P.W., Image Algebra and Restoration, Scanning Microscopy Supplement 6 (1992) 179-184

[HAW92a] Hawkes P. W., An alternative definition of Gabor focus, Letter to the Editor in Ultramicroscopy 41 (1992) 441

[HEB49] Hebb, D. O., The Organization of Behavior, Wiley, New York (1949)d Chapter 4

[HEI93] Eduard Heindl, Rekonstruktion von Phase-Shift Hologrammen mit einer Kohonenkarte, Optik Supplement 5 (1993)d 42

[HEI93] Heindl Eduard, Rekonstruktion von Phase-Shift-Elektronenhologrammen mit einem neuronalen Netz, Diploma Thesis (1993)d University of Tübingen

[HEI93b] Heindl Eduard, Fourier Elektronenmikroskop, Patentanmeldung P43 31 492.9-33 (1993)d

[HEI94] Heindl Eduard, New Ways in Recording and Processing of Phase-shift Off-axis Electron Holograms in the High Resolution Domain, ICEM 13-Paris (1994)d 295-296

[HEI95] Heindl Eduard, Auswertung von Diffraktogrammen mit einem Neuronalen Netz, Optik Supplement 6 (Vol. 100) (1995) 49

[HEI95b] Heindl Eduard, Optimierte Auswertung von Off-Axis Elektronenhologrammen, Optik Supplement 6 (Vol. 100) (1995) 55

[HEI95c] Heindl Eduard, Classification of Finger Movement Patterns by Self Organized Maps (SOM), Computer Signal Processing in Bern 9-10 (1995)d

[HEI96] Heindl Eduard und Rüdiger Meyer, Materialanalyse an der Grenze der Physik, Technische Rundschau Nr. 45 (1996)d 44-46

[HEI96] Heindl Eduard, W.D. Rau, H. Lichte, The phase-shift methode in electron-off-axis holography: using neural network techniques, Ultramicroscopy 64 (1996)d 87-97

[HEI96b] Heindl Eduard, Dieter Kern, Neuronale Netze: Anwendung in der Elektronenholographie, Hannover Messe 96 Halle 18 Stand J06 (1996)d http://gandalf.iap.physik.uni-tuebingen.de/holo/hm96/

[HEI96c] Heindl E., Determination of Electron-Microscope Parametere using a Neural Net, EUREM96 CD:/T/T14/Heindl/Hiendl.pdf (Hinweis: Schreibfehler auf CD) (1996)

[HEI96d] Heindl E., Meyer R., Optimized Reconstruction of Electron Holograms using the Simplex Algorithmus, EUREM96 CD:/T/T14/Rec_op.pdf (1996)

[HEI96e] Heindl E., W. D. Rau and H. Lichte, The phase shift method in electron-off-axis holography using neural network techniques, Ultramicroscopy 64 (1996) 87-97

[HEI97] Heindl Eduard, Fourier Elektronenmikroskop, Deutsches Patentamt Patentschrift 43 31 492 C2 (1997)d H 01 J37/28

[HEI97a] Heindl Eduard, Meyer Rüdiger, Einsatz von Neuronalen Netzen in der Elektronenholographie, DGE Dreiländertagung in Regensburg (1997) 15

[HEI97b] Heindl Eduard, Rüdiger Meyer, Einsatz von Neuronalen Netzen in der Elektronenholographie, DGE Tagung Regensburg (1997)d http://www.physik.uni-regensburg.de/Dreilaender97/supp11.htm

[HEI98] Heindl Eduard, Rüdiger Meyer, Reconstruktion of electron holograms with a neural net, J. Microscopie 191 (1998) 52-59

[HEI99] Heindl Eduard, Karin Maier, Der Webmaster, Addison Wesley, Bonn (1999), ISBN 3-8273-1444-5

[HEI00]Heindl Eduard, Das Medium Internet, Beitrag in Telekommunikation, Das Jahrbuch für Unternehmensmanagement in Europa, Herausgeber Dipl.-Ing. Heinrich Bernd, Schiele & Schön Berlin 2000 (In Druck)

[HEI00] Heindl Eduard, Karin Maier, Der Webmaster 2. Erweiterte Auflag, Addison Wesley, München (1999), ISBN 3-8273-1641-3

[HER93] Herring R. A., G. Pozzi,  T. Tanji and A. Tonomura, Realization of a mixed type of interferometry using convergent-beam electron diffraction and an electron biprism, Short note in Ultramicroscopy 50 (1993) 94-100

[HM98] Heinrich Michael, Klassifizierung von menschlichen Bewegungsmustern mit Neuronalen Netzen, Diplomarbeit an der Universität Tübingen (1998)d

[HOF95] Hofstadter, Douglas R., Fluid Concepts and Creative Analogies, Basic Books, New York (1995)d

[HOP82] Hopfield J.J., Neural Networks and Physical Systems with Emergent Collective Computational Abilities., Proceedings of the National Academy of Sciences, USA, vol. 81, (1982)d 2554-2558

[HOR91] Hornik K., Approximation Capabilities of Multilayer Feedforward Networks, Neural Networks 4 (1991)d 251-258

[ISH92] Ishizuka K., T. Tanji and A. Tonomura, Atomic Resolution Electron Holography, Scanning Microscopy Supplament 6 (1992)d 423-432

[ISH93] Ishizuka Kazuo, Optimized sampling schemes for off-axis holography, Ultramicroscopy letter in Ultramicroscopy 52 (1993) 1-53

[ISH94] Ishizuka K., T. Tanji, A. Tonomura, T. Ohno, Y. Murayama, Aberration correction using off-axis holography I. Aberration assessment, Ultramicroscopy 53 (1994) 361-370

[ISH94b] Ishizuka K., T. Tanji, A. Tonomura, T. Ohno, Y. Murayama, Aberration correction using off-axis holography II. Beyond the Scherzer limit, Ultramicroscopy 55 (1994) 197-207

[JEH93] Jehle Daniel, Aufbau eines Elektronen-Biprisma-Interferometers mit mono-atomarer Feldemissionsquelle, Diploma Thesis (1993) University of Tübingen

[JOH94] Johnson John L., Pulse-coupled neural nets: translation, rotation, scale, disortion, and intensity signals invariance for images, Applied Optics, Vol. 33, No. 26 (1994)d 6239-6253

[JON92] Jong, A.F. de, Koster, A.J., Measurement of Electron-Optical Parameters for High-Resolution Electron Microscopy Image Interpretation, Scanning Microscopy Supplement 6 (1992)d 95-103

[JON93] Jong A.F. de and D. Van Dyck, Ultimate resolution and information in electron microskopy II. The information limit of transmission electron microscopes, Ultramicroscopy (1993)d 66-80

[JOY93] Joy D. C., Y.-S. Zhang, X. Zhang, T. Hashimoto, R. D. Bunn, L. Allard and T. Nolan, Practical aspects of electron holography, Ultramicroscopy 51 (1993) 1-14

[JUT94] Jutamulia, S. et al, Autofocusing based on power-spectra analysis, Applied Optics Vol. 33, No. 26 (1994)d 6210-6212

[KAN94] Kangas Jari, On the Analysis of Pattern Sequenzes by Self-Organizing Maps, Thesis for the degree of Doctor, Helsinki University of Technology (1994)d

[KAR92] Karrer Uwe, Weiterentwicklung der Hochspannungsfestigkeit einer Feldemissionsquelle für die Elektronenholographie, Diploma Thesis (1992) University of Tübingen

[KAS92] Kasper E., On the geometrical aberrations in electrostatic biprisms, Optik 92 No. 1  45 (1992)d 47

[KER97] Kern Dieter P., Miniaturisierte Elektronenoptiken: Konzepte, Status, Aufgaben, DGE Tagung Regensburg (1997)d http://www.physik.uni-regensburg.de/Dreilaender97/supp11.htm

[KIR95] Kirkland A. I., W. O. Saxton, K.-L. Chau, K. Tsuno, M. Kawasaki, Super-resolution by aperture synthesis: tilt series reconstruction in CTEM, Ultramicroscopy 57 (1995) 355-374

[KIS95] Kisielowski C., Schwander P., Baumann F.H., Seibt M., Kim Y., Ourmazd A., An approach to quantitative high-resolution transmission electron microscopy of crystalline materials, Ultramicroscopy 58 (1995)d 131-155

[KOH82] Kohonen, T., Self-organizing formation of topologically correct feature maps, Biol. Cyb. 43(1) (1982)d 59-69

[KOH92] Kohonen T., The Self-Organizing Map Program Package, Version 1.0, FTP Server:cochlea.hut.fi (1992)d /pub/som_pak/som_p1r1.exe

[KRI93] Krivanek O.L. and Mooney P.E., Applications of slow-scan CCD cameras in transmission electron microscopy, ultramicroscopy 49 (1993) 95-108

[LAN92] Lang Günter, Diffraktometrische Bestimmung der für die holographische Bildfehlerkorrektur benötigten Parameter des Elektronenmikroskops, Diploma Thesis (1992)d University of Tübingen

[LAN94] Lang Günther, Diffraktogramme, priv. Mitteilung (1994)d

[LAN96] Lang Günter , Alexander Orchowski and Hannes Lichte, 2k*2k Slow Scan CCD Camera for High Resolution Electron Holography, EUREM CD:\T\T14\LANG\GLABSDU.PDF (1996)d

[LAN96] Lang Günther, Orchowski Alexander, Lichte Hannes, 2k*2k Slow Scan CCD Camera for High Resolution Electron Holography, EUREM96 CD:/T/T14/Glabsdu.pdf (1996)

[LEH92] Lehmann Michael, Eine schnelle alternative Methode zur Rekonstruktion von Bildebenen-Off-Axis Elektronenhologrammen, Diploma Thesis (1992) University of Tübingen

[LEH94] Lehmann Michael, Völkl Edgar, Lenz Friedrich, Reconstruktion of electron off-axis holograms: a new and fast alternative method, ultramicroscopy 54 (1994)d 335-344

[LEH94b] Lehmann Michael, H. Lichte, Interactive computerbased holographic correction of aberrations, 13. International Congress on Electron Microscopy, ICEM13, Paris (1994)d 293-294

[LEH95] Lehmann Michael and Hannes Lichte, Holographic Reconstruction Methods, in Electron Holography: ed. by A. Tonomura, L. F. Allard, G. Pozzi and Y. A. Ono,  Elsevier Science BV (Proceedings of the Knoxville Workshop on Electron Holography) (1995)d 69-79

[LEH95] Lehmann Michael and Lichte Hannes, Holographic Reconstruction Methods, Electron Holography A. Tonomura, L.F. Allard, G. Polli, D.C. Joy and Y.A. Ono (Editors) Elsevier Science B.V. (1995) 69-79

[LEH95] Lehmann Michael, Lang G. Lichte H., Software zur Simulation, Rekonstruktion und Korrektur von Off-axis Elektronenhologrammen, Optik Supplement 6 (1995)d

[LEH97] Lehmann Michael und Hannes Lichte, Bestimmung der Wellenaberration aus Elektronenhologrammen mittels Genetischen Algorithmus, DGE Tagung Regensburg (1997)d http://www.physik.uni-regensburg.de/Dreilaender97/supp11.htm

[LEH97b] Lehmann Michael, Elektronenholographie, Dissertation an der Universität Tübingen (1997)d

[LEN65] Lenz F., Kann man Biprisma-Interferenzstreifen zur Messung des elektronenmikroskopischen Auflösevermögens verwenden?, Optik 22 Heft 41 (1965)d 270-286

[LEU86] Leuthner Thomas, Netzsynchron gechoppte Feldemissionsquelle zur Unterdrückung des Einflusses magnetischer Störfelder bei Elektronen-Interferenzexperimenten, Diploma Thesis (1986) University of Tübingen

[LEU92] Leuthner Thomas, Off-Axis-STEM-Holographie, Ph.D. thesis (1992) University of Tübingen

[LIC86] Lichte Hannes, Electron Holography Approaching Atomic Resolution, Ultramicroscopy 20 (1986) 293-304

[LIC87] Lichte H., K.-H. Herrmann and F. Lenz, Electron noise in off-axis image plane holography, Optik 77 (1987) 135-140

[LIC87] Lichte Hannes, Bildebenen off axis Elektronenholographie atomarer Strukturen, Habilitationsschrift der Fakultät für Physik der Eberhard-Karls-Universität zu Tübingen (1987)d

[LIC91] Lichte Hannes, Optimum focus for taking electron holograms, Ultramicroscopy 38 (1991) 13-22

[LIC92] Lichte Hannes, Holography - Just Another method Of Image Processing?, Scanning Microscopy Supplement 6 (1992) 433-440

[LIC92b] Lichte Hannes, Electron Holography I. Can electron holography reach 0.1 nm resolution?, Ultramicroscopy 47 (1992) 223-230

[LIC92b] Lichte Hannes, Edgar Völkl and Kurt Scheerschmidt, Electron Holography II. First steps of high resolution electron holography into materials science, Ultramicroscopy 47 (1992) 231-240

[LIC93] Lichte Hannes, Parameters for high-resolution electron holography, Ultramicroscopy 51 (1993) 15-20

[LIC93b] Lichte Hannes, Peter Kessler, Friedrich Lenz and Wolf-Dieter Rau, 0.1nm information limit with the CM30FEG-Special Tübingen, Ultramicroscopy 52 (1993) 575-580

[LIC94] Lichte H., W. D. Rau, High-resolution electron holography with the CM30FEG-Special Tübingen, Ultramicroscopy 54 (1994) 310-316

[LIC95] Lichte H., Electron Holography: State and experimental steps towards 0.1 nm with the CM30-Special Tübingen in Electron Holography: ed. by A. Tonomura, L. F. Allard, G. Pozzi and Y. A. Ono, 1995, Elsevier Science BV (Proceedings of the Knoxville Workshop on Electron Holography) (1995) 11-31

[LIC95] Lichte H., Geiger D., Harscher A. Heindl E., et.al., Artefakte in der Elektronenholographie, Optik Supplement 6 (Vol. 100) (1995) 55

[LIC96] Lichte Hannes, Dorin Geiger, Alexander Harscher, Eduard Heindl, et. al,, Artefacts in electron holography, Ultramicroscopy 64 (1996)d 67-77

[LIC96d] Lichte H., D. Geiger, A. Harscher, E. Heindl, M. Lehmann, D. Malamidis, A. Orchowski and W.D. Rau, Artefacts in electron holography, EUREM96 CD:/T/T14/Dublin.pdf (1996)d

[Lichte H.] Lichte H., Electron Holography Methods, submitted ()

[Lichte H.] Lichte H., Optimum position of the biprism in the electron microscope, submitted to Ultramicroscopy ()

[MAL90] Malamidis Dimitrios, Bestimmung der Phasenauflösung im jetzigen Stand der Off-Axis-Elektronenholographie, Diploma Thesis (1990) University of Tübingen

[MAL96] Malamidis Dimitrios, Wavepropagation in Fourier space - a holographic technique to determine the wave aberration, EUREM96 CD:/T/T14/Abstract.pdf (1996)d

[MAR92] Marks L. D. and J. P. Zhang, Is There An Electron Wind?, Short Note in Ultramicroscopy 41 (1992) 419-422

[MCC94] McCartney M. R., David J. Smith, Robert Hull, J. C. Bean, E. Völkl, B. Frost, Direct observation of potential distribution across Si/Si p-n junctions using off-axis electron holography, Appl. Phys. Lett. 65 (20) (1994) 2603-2605

[MCC94b] McCartney M. R., M. Gajdardziska-Josifovska, Absolute measurement of normalized thickness t/lambda_i, from off-axis electron holography, Ultramicroscopy 53 (1994) 283-289

[MER96] Mertens BM, Buist AH, Kruit P, Standing Wave Illumination for soperresolution analytical electron microscopy, EUREM96 CD:\T\T13\MERTENS\STANWAVE.PDF (1996)d

[MEY96] Meyer R., Heindl E., Reconstruction of Electron Holograms in Real Space with a Neural Net, EUREM96 CD:/T/T14/Meyer.pdf (1996)

[MEY97] Meyer, Rüdiger, Rekonstruktion von Elektronenhologrammen, Diplomarbeit Universität Tübingen (1997)d

[MEY97b] Meyer Rüdiger, Schnelle Rekonstruktion von Elektronenhologrammen im Ortsraum, DGE Tagung Regensburg (1997)d http://www.physik.uni-regensburg.de/Dreilaender97/supp11.htm

[MEY98] Meyer, Rüdiger, The effects of electron and photon scattering in the scintillator on transfer properties of CCD cameras for electron detection., submitted to Ultramicroscopy (1998)d

[MIN69] Minsky M., S. Papert, Perceptrons, MIT Press, Cambridge (Nach [ZEL94]) (1969)d 1-20,73

[MÖB94] Möbus Günter, Optimierung der digitalen Kontrastauswertung hochauflösender elektronenmikroskopischer Aufnahmen innerer Grenzflächen, Dissertation an der Fakultät Chemie der Universität Stuttgart (1994)d

[MÖB95] Möbus Günter, Musterklassifizierung ind Musterinterpretation in der digitalen Bildanalyse von HREM-Grenzflächenabbildungen, Optik Supplement 41 (Vol. 67) (1995) 47

[MOE78] Möllenstedt G., H. Lichte, Doppler shift of electron waves, Proc. 9th Intern. Congr. on El. Micr., Toronto (1978)d 178-179

[MÖL56] Möllenstedt G., H. Düker, Beobachtungen und Messungen an Biprisma-Interferenzen mit Elektronenwellen, Zeitschrift für Physik, Vol 145 (1956)d 377-397

[NIM89] Nimmrichter Bernd, Umbau eines Elektronen-Auflicht-Interferenzmikroskops für die elektroneninterferometrische Untersuchung von Oberflächen mit dem LEEM-Verfahren, Diploma Thesis (1989) University of Tübingen

[ORC91] Orchowski Alexander, Präparation einer mono-atomaren Feldemissionskathode als Punktquelle für Elektronen und Ionen, Diploma Thesis (1991) University of Tübingen

[ORC95] Orchowski A., W. D. Rau and H. Lichte, Electron Holography Surmounts Resolution Limit of Electron Microscopy, Phys. Rev. Letters 74 (1995) 399-402

[ORC97] Orchowski Alexander, Hochauflösende Elektronenholographie zur Charakterisierung kristalliner Realstrukturen, Dissertation an der Fakultät für Physik der Eberhard-Karls-Universität Tübingen (1997)d

[Orchowski A. and H. Lichte] Orchowski A. and H. Lichte, High resolution electron holography of non-periodic structures at the example of a =13 grain boundary in gold, Ultramicroscopy () in press

[PAO95] Paola, J.D. and Schowengerdt, R.A., Searching for Patterns in Remote Sensing Image Database Using Neural Networks, Prceedings, 15th Annual International Geoscience and Remote Sensing Symposium, Florence, Italy, July 10-14 (1995) 443-445

[PHI94] Phillipp F., High-Voltage High-Resolution Electron Microskopy, International Syposium on High-Voltage and High-Resolution Electron Microscopy in Max-Planck-Institut für Metallforschung Stuttgart (1994)d

[PLA73] Platon, Der Staat- 7. Buch. II Austritt  aus der Höhle, Alfred Kröner Verlag Stuttgart (1973)d

[POH84] D.W. Pohl, W. Denk, and M. Lanz., Optical stethoscopy: Image recording with 25nm resolution., Applied Physical Letters (1984)d 44:651-653

[PRE86] Press W.H.e.a., Numerical Recipies, Cambridge University Press (1986)d 146

[RAU89] Rau Wolf-Dieter, Das Phase-Shift Verfahren in der Elektronenholographie, Diploma Thesis (1989) University of Tübingen

[RAU91] Rau W. D., H. Lichte, E. Völkl and U. Weierstall, Real-Time Reconstruction of Electron Off-Axis Holograms Recorded with a High Pixel CCD Camera, Journal of Computer-Assisted Microscopy 3 (1991) 51-63

[RAU93] Rau W. D., On-line Reconstruction of Electron Holograms, Proc. 51st Meeting of the MSA Cinncinnati  Vol. 1 (1993) p.1064

[RAU94] Rau Wolf-Dieter, Ein on-line Bildverarbeitungssystem für die Bildebenen-Off-Axis Holographie mit Elektronen, Ph.D. thesis (1994)d University of Tübingen

[RAV96] Ravikumar V., R. P. Rodrigues and Vinayak P. Dravid, Direct Imaging of Spatially Varying Potential and Charge across Internal Interfaces in Solids, Phys. Rev. Letters 75 (1995) 4063-4066 + Errata in Phys. Rev. Letters 76 (1996) 3465

[REI89] Reimer L., Transmission Electron Microscopy., Springer Verlag, 2nd ed. (1989)d

[RIT91] Ritter, H., Martinez, T., Schulten, K., Neuronale Netze, Addison-Wesley, 2. Auflage (1991)

[ROD92] Rodenburg, J.M., McCallum, B.C., A Robust Solution to the Super-Resolution Phase Problem in Scanning Transmission Electron Microscopy, Scanning Microscopy Supplement 6 (1992) 223-232

[ROS96] Rosenauer A., Kaiser S., Reisinger T., Zweck J., Gebhardt W., Digital analysis on high resolution transmission electron microscopy lattice images, Optik, 102, No. 2 (1996)d 63-69

[ROS96] Rosenauer, A. et al, Digital Analysis of High Resolution Transmission Electron Microscopy Lattice Images, Optik 102, No. 2 (1996) 63-69

[ROS98] Rose H., M. Haider und K. Urban, Elektronenmikroskopie mit atomarer Auflösung, Physikalische Blätter, 54. Nr. 5 (1998)d 411-416

[RUI92] Ruijter W.J. de, M.Gajdardziska-Josifovska, M.R. McCartney, R. Sharma, David J. Smith and J.K. Weiss, Quantification of High-Resolution Lattice Images and Electron Holograms, Scanning Microscopy Supplement 6 (1992)d 347-359

[RUI93] Ruijter W. J. de and J. K. Weiss, Detection limits in quantitative off-axis electron holography, Ultramicroscopy 50 (1993)d 269-283

[RUM86] Rumelhart D., G. E. Hinton, R. J. Williams, Learning internal representation by back-propagating errors, Nature 323 (1986)d 533-536

[RUQ91] Ru Q., J. Endo, T. Tanji and A. Tonomura, Phase-shifting electron holography by beam tilting, Applied Physics Letters 59 (1991) 2372-2374

[RUQ92] Ru Q., J. Endo, and A. Tonomura, Highly sensitive Moire technique for direct and real-time observation of electron microscopic phase objects, Appl. Phys. Lett. 60 (23) (1992)d 2840-2842

[RUQ94] Ru Q., G. Lai, K. Aoyama, J. Endo, A. Tonomura, Principle and application of phase-shifting electron holography, Ultramicroscopy 55 (1994) 209-220

[Ruska32] Ruska E., Knoll M., Das Elektronenmikroskop, Z. Phys. No. 78 (1932) pp. 318-339

[SAX94] Saxton, W.O., What is the focus variation method? Is it new? Is it direct?, Ultramicroscopy 55 (1994)d 171-181

[SHZ36] Scherzer O., Über einige Fehler von Elektronenlinsen., Z. Phys. No. 101 (1936)d pp. 593

[SHZ49] Scherzer O., The theoretical resolution limit of the electron microscope., J. Appl. Phys. No. 20 (1949) pp. 20

[SPE94] Speckmann H., G. Raddatz, W. Rosenstiel, Relations between generalized fractal dimensions and Kohonen's self-organizing map, Neuro Nimes, Paris 1994, http://www-ti.informatik.uni-tuebingen.de/~speckman/papers/nimes94.ps (1994)d

[SUM90] Sum Jürgen, Entwicklung und Erprobung eines computergestützten Detektorsystems für die STEM-Holographie, Diploma Thesis (1990) University of Tübingen

[SUM95] Sum Jürgen, Off-Axis-STEM-Holographie - Erweiterte Untersuchungen der Grundlagen und Einsatz eines Computers zur Mikroskopsteuerung und Signalauswertung, Ph.D. thesis (1995) University of Tübingen

[TAN93] Tanji T., K.Urata, K. Ishizuka, Q. Ru and A. Tonomura, Observation of atomic surface potential by electron holography, Ultramicroscopy 49 (1993) 259-264

[THU94] Thust, A., Lentzen, M., Urban, H., Non-linear reconstruction of the exit plane wave function from periodic high-resolution electron microscopy images, Ultramicroscopy 53 (1994) 101-120

[TON87] Tonomura, A., Applications of electron holography, Reviews of Modern Physics Vol. 59, No. 3, Part I, July (1987) 639-669

[TON90] Tonomura Akira, Electron interferometry using a coherent beam from point electron source, J. Vac. Sci. Technol. A8 (1990) 155-159

[TON94] Tonomura A., Electron Holography, Springer-Verlag (1994) 1994

[TON94b] Tonomura Akira, Electron Holography shows ist resolve, Physics World, March (1994) 39-43

[TON95] Tonomura A., Past, present and future of electron holography, Journal of Microscopy 179 (1995) 105-111

[TYP95] Typke D., Dierksen K., Determination of image aberrations in high-resolution electron microscopy using diffractogram and cross-correlation methods, Optik, 99, No. 4 (1995)d 155-166

[URA93] Urata Kenya, Kazuo Ishizuka, Takayoshi Tanji, Akira Tonomura, An Application of Digital Filtering in Electron Holography at Atomic Resolution, J. Electron Microsc. 42 (1993) 88-93

[VOE90] Völkl Edgar and Hannes Lichte, Electron Holograms for Subangström Point Resolution, Ultramicroscopy 32 (1990) 177-180

[VOE94] Völkl E., F. Lenz, Q. Fu and H. Lichte, Density correction of photographic material for further image processing in electron microscopy, Ultramicroscopy 55 (1994) 75-89

[VOE95] Völkl E., L. F. Allard and B. Frost, A software package for the processing and reconstruction of electron holograms, Journal of Microscopy 180 (1995) 39-50

[VOE95b] Völkl E., L. F. Allard, A. Datye, B. Frost, Advanced electron holography: a new algorithm for image processing and a standardized quality test for the FEG electron microscope, Ultramicroscopy 58 (1995) 97-103

[VÖL91] Völkl Edgar, Höchstauflösende Elektronenholographie, Ph.D. thesis (1991)d University of Tübingen

[WAH75] Wahl Herbert, Bildebenenholographie mit Elektronen, Habilitationsschrift (1975)d Universität Tübingen

[WEI89] Weierstall Uwe, Kann die Elektronenholographie neue Wege für die Abbildung biologischer Objekte im Elektronenmikroskop weisen?, Diploma Thesis (1989) University of Tübingen

[WEI93] Weiss J. K., W. J. de Ruijter, M. Gajdardziska-Josifovska, M. R. McCartney, Applications of electron holography to the study of interfaces, Ultramicroscopy 50 (1993) 301-311

[WEI94] Weierstall Uwe, Entwicklung und Erprobung eines Spezialelektronenmikroskops mit supraleitender Objektivlinse zur Elektronenholographie, Ph.D. thesis (1994) University of Tübingen

[WIT91] Wittmann Reinhard, Geschichte des deutschen Buchhandels, Beck Verlag, München, (ISBN 3 406 35425 4) (1991)d 16

[WOS76] Woschni, Eugen-Georg und Kraus, Manfred, Informationstechnik Arbeitsbuch, VEB Verlag Technik, Berlin (1976)d 348ff.

[ZEB92] zebris Medizintechnik, Handbuch CCG-Messgerät, zebris Medizintechnik GmbH, Isny (1992)d

[ZEL94] Zell A., Simulation Neuronaler Netze, Addision-Wesley (1994)d 1994

[ZHA93] Zhang X., D. C. Joy, Y. Zhang, T. Hashimoto, L. Allard and T. A. Nolan, Electron holography techniques for study of ferroelectric domain walls, Ultramicroscopy 51 (1993) 21-30


13            Lebenslauf

Koordinaten

Name:              Heindl, Eduard Rudolf

Nationalität:      Deutsch

Geboren:          21. November 1961 in Mühldorf am Inn

Hauptwohnsitz: Wildermuthstraße 28, D-72076 Tübingen

e-mail:              eduard@heindl.de

 

Beruf und Studium

09/68 - 07/75    Grund- und Hauptschule Garching an der Alz

09/75 - 07/79    Staatliche Realschule Trostberg an der Alz

09/79 - 07/82    Berufsausbildung zum physikalisch technischen Assistenten

an der Fachakademie Prof. Dr. Grübler in Isny im Allgäu

07/82 - 11/83    Zivildienst in der Physikabteilung der Freien

Waldorfschule Wangen im Allgäu

11/83 - 07/87    Studium an der privaten Fachhochschule Prof. Dr. Grübler

in Isny im Allgäu mit einem Stipendium der Fachakademie und Abschluß als Diplom Ingenieur für physikalische Technik (FH)

09/85 - 02/86    Praktikum am Max Planck Institut für Plasmaphysik in 

Garching bei München

02/87 - 07/87    Diplomarbeit „Erstellung eines Videofilms vom

Infrarotleuchten von Silizium in Leistungshalbleitern“ im Forschungslabor der Siemens AG in München Neuperlach

09/87 - 09/89    Anstellung als Entwicklungsingenieur bei der Siemens AG

München im Bereich ZFE ME11 (Zentralbereich Forschung und Entwicklung Mikroelektronik)

10/89 - 10/94    Studium der Physik an der Universität Tübingen mit

Abschluß als Diplom Physiker

10/93 - 10/94    Diplomarbeit „Rekonstruktion von Phase-Shift-

Elektronenhologrammen mit neuronalen Netzen“ am Institut für Angewandte Physik der Universität Tübingen und Auszeichnung dieser Arbeit mit dem mit DM 5000 dotierten Friedrich Försterpreis

01/95 - 97         Wissenschaftlicher Mitarbeiter im Institut für Angewandte

Physik an der Universität Tübingen

07/95 -             Gründung der Internetfirma Heindl&Benez GbR, die ab

1.7.1996 in Heindl – Internet überging.

2/99                 Veröffentlichung des Lehrbuchs „Der Webmaster“ bei Addison-Wesley, das 3/2000 in 2. erweiterter Auflage erscheint.

 

Meine akademischen Lehrer waren:

Prof. Dr. Baumann, Prof. Dr. Braitenberg, Prof. Dr. Clement, PD Dr. Dangelmayr, Prof. Dr. Höhn, Prof. Dr. Gaukler, Prof. Dr. Gönnenwein, Prof. Dr. Güttinger, Prof. Dr. Herrmann, Prof. Dr. Hübener, Prof. Dr. Klaeren, Prof. Dr. Lenz, Prof. Dr. Lichte, Prof. Dr. Lutz, Prof. Dr. Mack, Prof. Dr. Müther, Prof. Dr. Pfister, Prof. Dr. Reinhardt, Prof. Dr. Schramm, Prof. Dr. Strasser, Prof. Dr. Stumpf, Prof. Dr. Schwenk, Prof. Dr. Wagner, Prof. Dr. Wittern.



[1] ANN steht für artifical neural net, in der deutschen Literatur auch unter KNN künstliche neuronale Netze bekannt, und soll eine Abgrenzung zu den häufig erheblich abweichenden biologischen Vorbildern andeuten.

[2] Der Begriff Bildpunkt und Pixel wird in dieser Arbeit häufig synonym verwendet. Bei allgemeinen Beschreibungen wird allerdings der Begriff Bildpunkt bevorzugt, bei technischen Realisierungen der aus dem englischen abgeleitete Begriff Pixel=picture element.

[3] Wird das gesamte Mikroskop verkleinert, so schrumpft der Öffnungsfehler ebenfalls, dieser Ansatz wird intensiv von mehreren Arbeitsgruppen verfolgt [KER97],[FLE97].

[4] Die Näherung „annähernd Null“ ist bei sehr großen übertragenen Raumfrequenzen nicht mehr haltbar, da diese Raumfrequenzen in hoher Potenz signifikant in die Aberration eingehen und daher diese in Zukunft berücksichtigt werden müssen.

[5] Der Begriff Holographie leitet sich aus dem grch.: holos=vollständig und graphein=schreiben ab.

[6] Die Elektronen, mit denen das Objekt beleuchtet wurde, werden hier explizit als Primärelektronen bezeichnet, um sie von ladungsbildenden Elektronen im CCD Chip zu unterscheiden.

[7] Annahme: Mikroskop mit 10000 Elektronen pro nm²/s, 300keV Energie, Sonnenlicht ca. 1kW/m² 

[8] REM=Raster Electron Microscope, RTEM=Raster Transmission Electron Microscope, SXM=Scanning X Microscope, wobei X für verschiedene Meßprozesse wie Tunneleffekt (T), Kraftmessung (F) oder optische Prozesse (O) steht.

[9] Dies ist allerdings in der Realität noch ein Wunschtraum, in Wirklichkeit kommt dem Vorwissen über die Zusammenhänge eine erhebliche Bedeutung zu, da sie eine gezielte Vorverarbeitung der Meßwerte erlaubt, was das erfolgreiche Training der Netze erheblich vereinfacht.

[10] Gutartig im Sinne von mathematisch stetigen Funktionen wie sie in der Physik normalerweise vorliegen.

[11] Der Algorithmus wurde bereits früher gefunden, fand aber keine Verbreitung, Rumelhart hat ihn wohl unabhängig gefunden.

[12] Es wird hier von einem Testobjekt gesprochen, um eine Verwechslung mit einem klassischen Testbild, das normalerweise reell ist und direkt aufgezeichnet wird, zu vermeiden.

[13] Bei der Bestimmung der Phase gibt es keinen Informationsgewinn, wenn der nichtlineare Amplituden­quadrat­term mitberücksichtigt wird. So kann auch die konventionelle Rekonstruktion oder ein anderes alternatives Verfahren zur Phasenbestimmung herangezogen werden.

[14] Die Korrekturrechnung kann auch im Ortsraum erfolgen, erfordert dazu aber einen Faltungskern mit dem Durchmesser der PSF, was auf etwa 10.000 mal mehr Rechenoperationen hinausläuft.


 [EH1]