Die Zukunft des Sensors

Optosensoren - Die Weiterentwicklung der Mikroelektronik erschließt völlig neue Möglichkeiten für die Industriesensorik. Die größte Herausforderung für die Hersteller ist es dabei, die Komplexität dieser neuen Technologien weitgehend vom Anwender fern zu halten.

19. Juli 2006

Sensoren sind die Sinnesorgane einer Maschine oder Anlage, ohne die eine Automatisierung nicht möglich wäre, da sie die Rückkopplung des Ist-Zustandes in die Steuerung gewährleisten. Unterscheiden sollte man dabei zwischen binären und analogen Sensoren. Im ersten Fall wird eine Ja/Nein-Information über das Erreichen eines bestimmten Soll-Zustandes generiert, der zweite Typ liefert dagegen qualitative Aussagen über den aktuellen Zustand. Weil sich binäre Informationen in der Regel steuerungstechnisch leichter weiterverarbeiten lassen, geben jedoch auch viele analog arbeitende Sensoren am Ende eine Ja/Nein-Information aus.

Nur wenig Fortschritt macht seit einigen Jahren die einfache binäre Sensorik: Lichtschranken, Näherungsschalter und Ultraschallsensorik haben keinerlei grundlegende Innovationen erlebt, einmal abgesehen von der Verbreitung der Lasertechnik für die Lichtschranke oder der Miniaturisierung der Ultraschallsensorik. Das entscheidende Kriterium für die Kaufentscheidung ist bei dieser Art von Sensoren oft allein der Preis, während zusätzliche Features wie erweiterte Diagnosefunktion oder integrierte Feldbus-interfaces sich nicht durchsetzen konnten.

Heute jedoch eröffnen innovative Technologien neue Möglichkeiten vor allem für die Entfernungsmessung und die Vision-Sensorik. Diese Sensoren, die mehr als nur die Anwesenheit detektieren, ersetzen nicht die binäre Sensorik, sondern erweitern sie für neue Anwendungen. Dabei wird versucht, die teilweise sehr komplexe Information, die diese Sensoren aufnehmen, durch intelligente Vorverarbeitung wieder in ein Ja/Nein-Signal umzurechnen, um die Steuerung der Maschine weiterhin überschaubar zu halten.

Die erste Technologie, die eine preiswerte Entfernungsmessung im industriellen Umfeld erlaubte, war der Einsatz von Ultraschall. Bei dieser Technik ermöglicht die relativ geringe Geschwindigkeit des Schalls eine vergleichsweise einfache Messung mit preiswerter Hardware. Überall dort, wo der Messfleck relativ groß ist und eine hohe Robustheit gegenüber Umwelteinflüssen gefragt ist, wird diese Technik auch künftig ihren Platz behalten.

Lasersensoren im Vorteil

Für die sehr genaue Erfassung einer relativ kleinen Fläche bietet dagegen die Entfernungsmessung mittels Laserlicht große Vorteile. Lange Zeit verhinderten jedoch die relativ hohen Preise eine weitere Verbreitung der Entfernungsmessung mit Licht im industriellen Einsatz. Eine Ausnahme waren lediglich Geräte, die nach dem Verfahren der Phasenkorrelation arbeiteten. In jüngster Zeit ermöglichen jedoch deutliche Fortschritte bei den integrierten Schaltkreisen sinkende Preise auch für Anwendungen nach dem Hochfrequenzverfahren, so dass derartige Geräte in Zukunft deutlich mehr Anwendungen erschließen werden.

Die Entfernungsmessung mittels Licht ist mit verschiedenen Messverfahren möglich. Das einfachste Prinzip ist das der Triangulation. Diese rein geometrische Auswertung kommt ohne komplexe Hochfrequenztechnik aus, da lediglich die Abbildung des vom Objekt reflektierten Lichtstrahles auf ein analoges Sensorelement gemessen wird. Dieses Verfahren bietet eine sehr hohe Messgenauigkeit, ist jedoch auf Anwendungen mit einer geringen Messweite beschränkt, weil die Basisweite zwischen Sensor und Empfangselement die Größe des Messbereichs vorgibt.

Mit vertretbarem elektronischen Aufwand zu realisieren ist die Abstandsmessung mittels Phasenkorrelation. Bei diesem Messverfahren sendet der Sensor einen mit einer Frequenz von einigen Megahertz gepulsten Laserstrahl aus und erfasst die Phasenverschiebung des reflektierten Lichts. Dieses Prinzip arbeitet also mit einem harmonisch modulierten Sendestrahl. Durch Mischung von Sende- und Empfangssignal an einer Frequenz, die nur knapp neben der Sendefrequenz liegt, wird die Phasenverschiebung hin zu niedrigeren Frequenzen transformiert, so dass sich die Auswertung der Phasenverschiebung messtechnisch recht gut beherrschen lässt.

Das Verfahren erlaubt damit zwar prinzipiell große Messentfernungen, eine wesentliche Herausforderung bei diesem Messprinzip ist jedoch die Beherrschung des großen Dynamikbereiches, da die reflektierte Energie ganz wesentlich von der Objektentfernung und deren Reflexionseigenschaften abhängt. Der größte Nachteil des Verfahrens ist jedoch die Tatsache, dass das Messergebnis bei großen Messentfernungen keine eindeutige Positionsbestimmung ermöglicht, da sich die Phase bekanntermaßen alle 360 Grad wiederholt. Die meisten Geräte verwenden -deshalb mehrere Messfrequenzen, um einerseits die Grobposition im Meterbereich, sowie andererseits die Feinposition zu bestimmen.

Die Pulslaufzeitmessung erfasst mehrere Objekte

Mehrere Ziele gleichzeitig erfassen können solche Geräte jedoch auch dann nicht, da der sich aufweitende Laserstrahl an beiden Objekten reflektiert wird und das sich ergebende Frequenzgemisch keine eindeutige Positionsbestimmung erlaubt. Derartige Anwendungen ermöglicht allein die Entfernungsmessung nach dem Pulslaufzeit-Verfahren. Dabei wird der Sendestrahl in sehr kurze Pulse aufgeteilt und an jedem Objekt in der Reichweite reflektiert. Der Sensor empfängt damit für jedes Objekt einen eigenen Impuls und errechnet aus der Zeitdifferenz zwischen Sende- und Empfangspuls die Entfernung jedes einzelnen Objekts. Eine Voraussetzung dafür ist allerdings eine sehr präzise Zeitmessung, die höchste Anforderungen an die Elektronik und deren Temperaturstabilität stellt.

Moderne integrierte Bausteine aus der Hochfrequenzelektronik (Time-To-Digital-Converter, TDC) ermöglichen heute jedoch eine Messgenauigkeit von fünf bis zehn Millimeter. Höhere Genauigkeiten bei gleichzeitig hoher Dynamik, wie sie beispielsweise für Regalbediengeräte gefordert sind, lassen sich allerdings nur mit einem deutlich höheren Aufwand realisieren. Im Einsatz ist diese Technologie jedoch heute schon bei hochpräzisen Messungen sowie bei Anwendungen aus der Sicherheitstechnik.

Der rasante Preisverfall in diesem Bereich der Sensorik lässt für die Zukunft allerdings erwarten, dass entfernungsmessende Sensoren künftig vermehrt eingesetzt werden. Für hochgenaue Messung mit geringer Tiefenschärfe bleibt zwar die Triangulation aufgrund der geringen Kosten wohl auf lange Sicht das Mittel der Wahl, falls aber die Preise für Geräte nach dem Prinzip der Pulslaufzeit weiter sinken sollten, werden derartige Sensoren sicherlich die heute weit verbreiteten Phasenkorrelatoren ersetzen. Insbesondere die durch Consumer Elektronik betriebene Weiterentwicklung bei den TDC-Bausteinen lässt noch einige technologische Phantasien zu.

Vision-Sensoren imitieren das menschliche Auge

Ein anderer wichtiger Trend betrifft die Vision-Sensorik: Der Traum von einem Sensor, der die sensorischen Eigenschaften des menschlichen Auges nachbildet, beschäftigt schon seit Jahren die Automatisierungstechnik. Zwar gibt es heute Bildverarbeitungssysteme, die diesen Möglichkeiten schon sehr nahe kommen, doch sind diese in der Regel weder preiswert noch kompakt genug für einen Einsatz im rauen Umfeld einer Automatisierungsanwendung. Seit etwa zehn Jahren gibt es deshalb Bestrebungen, für diese Aufgaben kompaktere Lösungen zu entwickeln.

Für kompakte Bildverarbeitungssysteme, die sich auf verschiedene Anwendungen programmieren lassen hat sich inzwischen der Begriff der Smart-Kamera etabliert. Solche Geräte umfassen neben der eigentlichen Kamera zur Bildaufnahme und einem leistungsstarken Mikrocontroller oft auch eine integrierte Beleuchtungseinrichtung. Aufgrund der kompakten Bauart lassen sie sich in die Maschine integrieren. In diesen Geräten stecken zwar die Möglichkeiten der Bildverarbeitung, nicht aber spezifisches Anwendungs-Know-how. Zur Parametrierung muss deshalb meist noch ein Monitor angeschlossen werden, und die vielfältigen Einsatzmöglichkeiten erfordern bei der Inbetriebnahme erhebliche Spezialkenntnisse. In der Regel kann deshalb eine Smart-Kamera nur mit erheblichem EngineeringAufwand eingesetzt werden.

Für weniger komplexe Aufgabenstellungen empfehlen sich deshalb so genannte Vision-Sensoren. Diese ähneln in ihrem Aufbau oftmals sehr den Smart-Kameras, lassen sich jedoch nur sehr eingeschränkt parametrieren. Statt dessen werden diese Geräte schon vom Hersteller auf eine spezielle Applikation optimiert und lassen sich ohne Kenntnisse von Bildverarbeitung für genau diese Anwendung einsetzen. Oftmals ist nur ein Teach-In-Knopf vorhanden. Im Idealfall ist die Einrichtung eines solchen Vision-Sensors ähnlich einfach wie die Inbetriebnahme einer Lichtschranke. Insofern ist dieser Ansatz die konsequente Weiterentwicklung der Lichtschranke vom punktförmigen Empfangselement hin zu einer zweidimensionalen Matrix aus Empfangselementen.

Ein schönes Beispiel für VisionSensoren sind Datamatrix-Leser, die im Hardwareaufbau nichts anderes sind als Smart-Kameras und oft neben Data-matrix-Codes auch herkömmliche Barcodes oder sogar Klarschrift lesen können. Die Information wird in jedem der Fälle per serieller Übertragung an die Steuerung übermittelt. Aus Sicht des Anwenders sind diese Sensoren damit Geräte zur Objektidentifikation und stehen in einer Reihe mit Barcode- und RFID-Lesegeräten.

Ein anderes Beispiel sind Sensoren zur Fachfeinpositionierung, wie sie Pepperl + Fuchs entwickelt hat. Hier zeigt schon die Mechanik, dass es sich um einen echten Sensor handelt. In die 30 GM-Gewindehülse integriert ist alles, was man zur Bildverarbeitung braucht: Der Vision-Sensor besteht aus Bildaufnehmer, Beleuchtung und Auswertesoftware und ist darauf optimiert, die Position eines Regalfaches genau zu vermessen und einem Regalbediengerät die Korrekturkoordinaten für das exakte Anfahren dieses Regalfaches zu geben.

Komplettlösung im Sensorformat

Dazu vermisst der Sensor ein Loch an jedem Regalfach, dessen exakte Position bekannt ist und als Referenz dient. Der Sensor liefert an seinen Ausgängen die relative Position des Sensors in x- und y-Richtung zum jeweiligen Loch. Mit dieser Information kann die Steuerung des Regalbediengerätes die Anfahrbewegung exakt vorgeben. Auch hier benötigt der Anwender keine speziellen Kenntnisse zum Thema Bildverarbeitung, sondern benutzt den Sensor als Displacement-Sensor für die x- sowie die y-Koordinate.

Ein weiteres Beispiel für angewandte Bildverarbeitung ist der Motion-Sensor MS32 von Pepperl + Fuchs. Dieser Sensor erfasst die zweidimensionale Bewegung eines 32 x 32-Pixel-Bildes in der Objektebene mittels hoch integrierter On-Chip-Bildverarbeitung, ähnlich wie in einer optischen Computer-Maus. Die ein- oder zweidimensionalen Bewegungsinformationen dienen dann als Basis zur Ableitung weiterer Größen wie Geschwindigkeit, Bewegungsrichtung oder Drehlage des Objekts. Der Motion-Sensor im Gehäuse einer Lichtschranke bietet auf einem fünfpoligen Standard-M12-Stecker drei digitale Ausgänge mit den Funktionen Geschwindigkeitschalter, Richtungserkennung und Weggeber. Mit solchen Sensoren lassen sich zahlreiche Automatisierungsanwendungen berührungslos lösen, wie beispielsweise Bahnkantensteuerung, Vorschubüberwachung oder Stauerfassung. Dieses Beispiel demonstriert, dass ein Vision-Sensor keinesfalls die Kenntnis von Bildverarbeitung und deren Parametrierung erfordert. Die Zukunft verspricht auch auf diesem Markt zunehmende Rechenleistung der Mikrocontroller bei zugleich sinkenden Preisen für die Schaltkreise zur Bildaufnahme und -bearbeitung.

Dr. Peter Adolphs, Pepperl+Fuchs

FAKTEN

- Preisverfall und Innovationen ermöglichen, leistungsstarke Technologien für die Sensorentwicklung zu nutzen:

- Bei der Entfernungsmessung versprechen Phasenkorrelation und Pulslaufzeitmessung Vorteile gegenüber dem verbreiteten Triangulationsverfahren.

- Die zunehmende Verbreitung von Digitalkameras hat die Preise für die Schaltkreise für Bildaufnahme und Bildbearbeitung gesenkt und ermöglicht so deren Einsatz in der Industrie.

Erschienen in Ausgabe: DIGEST/2006