Siegel der Universität Heidelberg
Bild / picture

Kurzberichte junger Forscher

Elektronisches Auge: ein logarithmischer Bildsensor

Bildsensoren sind Systeme, die optische in elektrische Information umwandeln. Sie finden sich heute in vielen gebräuchlichen Elektronikgeräten, etwa in digitalen Fotoapparaten, Camcordern oder Überwachungskameras. Die meisten Sensoren bestehen aus einem Halbleiter, beispielsweise Silizium, und basieren auf der Tatsache, dass Licht im Halbleiter elektrische Ladung freisetzen kann. Um eine Szene möglichst detailliert darzustellen, wird der Sensor in viele, unabhängig voneinander arbeitende Rezeptoren – die so genannten Pixel – aufgeteilt. Die heute überwiegend eingesetzten CCD-Sensoren (Charged Coupled Devices) erreichen dabei Auflösungen von mehreren Millionen Pixeln.

Auf Grund einiger Nachteile der CCD-Technologie (hoher Stromverbrauch, teurer Herstellungsprozess) zeichnet sich ein Trend ab, der CCDs in vielen Bereichen durch so genannte CMOS-Sensoren ersetzen könnte. Dabei handelt es sich um Bildsensoren, die in dem üblicherweise für Mikrochips verwendeten CMOS-Prozess (Complementary Metal Oxide Silicon) gefertigt werden. Neben den Rezeptoren lässt sich hiermit zusätzliche Elektronik direkt auf dem Sensor integrieren, was zu kostengünstigeren, kompakteren und – falls erwünscht – zu intelligenteren Systemen führt.

Während des Projektes "Elektronisches Sehen", das seit 1995 am Kirchhoff-Institut für Physik in Heidelberg besteht und sich mit der Entwicklung eines taktilen Seherzsatzsystems für Blinde beschäftigt, wurde ein neuartiger CMOS-Bildsensor entwickelt. Im Gegensatz zu den üblicherweise linearen Sensoren, die einfallendes Licht in ein dazu proportionales elektrisches Signal verwandeln, weist der Heidelberger Sensor eine logarithmische Übertragungsfunktion auf. Diese logarithmische Kompression ermöglicht es, Szenen mit einem Dynamikumfang von bis zu sechs Größenordnungen (entspricht dem Bereich von Mondlicht bis Sonnenlicht) zu verarbeiten. Der realisierte Sensor hat eine Auflösung von etwa 110 000 Pixeln, was einem Viertel der europäischen Fernsehnorm entspricht.

Leider bringt die neue Technologie der CMOS-Bildsensoren auch Probleme mit sich. Eine wesentliche Herausforderung ist, dass Bauelemente wie Transistoren, Kondensatoren oder Dioden durch den Herstellungsprozess bedingte Variationen aufweisen. Dies führt dazu, dass die einzelnen Pixel ein sehr unterschiedliches Ansprechverhalten haben können, das aufgenommene Bild also Störmuster aus helleren und dunkleren Bildpunkten enthält. Im Falle der logarithmischen Sensoren wird dieser unerwünschte Effekt üblicherweise dadurch beseitigt, dass der Fehler jedes Pixels vor der eigentlichen Inbetriebnahme gemessen und digital gespeichert wird. Während des Betriebes wird dann jeder Bildpunkt seinem gespeicherten Fehler entsprechend korrigiert. Der Heidelberger Bildsensor verfolgt einen anderen Ansatz, um das Problem der Pixel-zu-Pixel Variationen zu lösen. Hier erfolgt der komplette Korrekturzyklus inklusive Bestimmung des Fehlers während des Betriebes, und zwar auf analogem Wege (im Gegensatz zu digital) direkt im Pixel. Eine spezielle Schaltung misst den jeweiligen Fehler in der Ausgangsspannung und speichert ihn bis zur nächsten Messung in einem Kondensator. Die gespeicherte Spannung wird dann vom eigentlichen Pixelsignal subtrahiert und kompensiert auf diese Weise die Abweichung der einzelnen Bildpunkte vom Sollwert. Da die Messung der Fehler in regelmäßigen Abständen wiederholt wird (typisch: einmal pro Bild), werden auch zeitliche Veränderungen in den Pixel-zu-Pixel Variationen berücksichtigt, wie sie beispielsweise durch Temperatur- oder Alterungseffekte auftreten können. Insgesamt verringert die beschriebene Kalibrierung die verbleibenden Unregelmäßigkeiten auf unter vier Prozent einer Intensitätsdekade beziehungsweise auf 0,6 Prozent des gesamten dynamischen Bereichs von sechs Dekaden. Dies bedeutet eine Reduzierung um einen Faktor 20 gegenüber nicht-kalibrierten logarithmischen Sensoren.

Zusätzlich zur automatischen Kalibrierung beinhaltet der entwickelte Sensor weitere Komponenten, die es ihm ermöglichen, als autarkes System, das heißt, ohne weitere externe Bauteile, zu funktionieren. Durch Verwendung eines kleinen Gehäuses und einer abbildenden Optik lässt sich somit eine "Single-Chip-Kamera" realisieren. Verschiedene Schnittstellen zur Außenwelt erlauben, den Bildsensor für unterschiedlichste Anwendungen einzusetzen. Im Falle des erwähnten Sehersatzsystems wird der analoge Videoausgang direkt mit einem weiteren Mikrochip verbunden, der in sehr kurzer Zeit die im Bild vorhandenen Objektkanten lokalisiert. Um den Sensor in rein digitalen Systemen einsetzen zu können, enthält er eine digitale Schnittstelle, die sowohl zur Ausgabe der Pixeldaten als auch zur Programmierung verschiedener Kamerafunktionen zur Verfügung steht.

Für sehr hochauflösende Bildsensoren ist die relativ komplexe Rezeptorschaltung allerdings nachteilig, da sie verglichen mit einfacheren CMOS-Sensoren viel Platz benötigt. Die höchste, sinnvoll realisierbare Auflösung liegt momentan bei einigen hunderttausend Pixeln. Mit der zunehmenden Miniaturisierung des CMOS-Prozesses – maßgeblich vorangetrieben durch die Entwicklung der modernen Hochleistungs-Mikrochips wie Speicherbaustein oder Pentium-Prozessor – schwindet dieser Nachteil jedoch mehr und mehr. Daher ist vorstellbar, dass das Konzept des entwickelten Bildsensors in naher Zukunft auch für Systeme mit einer Million oder mehr Pixeln einsetzbar ist.

Autor:
Dr. Markus Loose
ehemals Kirchhoff-Institut für Physik, Universität Heidelberg, jetzt Rockwell Science Center, 1049 Camino Dos Rios, Thousand Oaks, CA 91358, Tel. +1 805 373 4846, email: mloose@rsc.rockwell.com

Seitenbearbeiter: Email
zum Seitenanfang