Videoanalyse: Die Assistenz des Bedieners

Videoanalyse: Die Assistenz des Bedieners

Videosysteme generieren große Mengen an Bilddaten, die der Mensch nicht wirtschaftlich sinnvoll auswerten kann. Meist gibt es zahlreiche Videokameras in einem Objekt, die alle von wenigen Bedienern beobachtet werden müssten. Dies ist nicht effektiv, da kein Mensch viele Kameras parallel aufmerksam verfolgen kann und eine solche Aufgabe schnell ermüdet. Eine Scheinsicherheit entsteht. Wichtig ist, aus der Masse der Informationen die für den Betrachter relevanten herauszufiltern. Analysealgorithmen sind in der Lage, beliebige Bildinhalte permanent und unermüdlich zu untersuchen und automatisiert die Aufmerksamkeit des Wachpersonals gezielt auf kritische Situationen zu lenken. Doch zentrale Fragen stellen sich: Was kann Videoanalyse wirklich leisten? Sollte sie möglichst nah an der Bildentstehung erfolgen oder zentral im Server? Was sind die Vor- und Nachteile?
Auch das Videoanalysesystem darf nicht zu oft ohne erkennbaren Grund ‚alarmieren‘, denn sonst werden Alarme nicht mehr als kritische Situationen wahrgenommen und das Bedienpersonal ‚drückt den Alarm einfach weg‘, ohne die Details aufmerksam zu prüfen. Der gleiche Effekt entsteht: Das System bietet lediglich eine Scheinsicherheit. Die klare Definition einer ‚kritischen Situation‘ und ein darauf abgestimmter Algorithmus sind Voraussetzung für den effizienten und zuverlässigen Einsatz von Videoanalyse. Leider machen viele Anbieter zu generelle Aussagen zu der Leistungsfähigkeit intelligenter Videoanalyse. So erwarten viele Anwender ‚menschliche Intelligenz‘: Wenn ich sehen kann, dass dort ein Mensch und kein Hund auf allen Vieren kriecht, dann muss ein Algorithmus das doch auch können?! Falsch! Und auch wieder nicht! Systeme können aber eine assistierende Rolle einnehmen. Die meisten Algorithmen arbeiten mit relativ einfachen Kriterien, um z.B. Personen und andere ‚bewegte Objekte‘ voneinander zu unterscheiden. Sie suchen zunächst nach Bewegungen im Bild. Findet sich eine Gruppe von Pixeln, die nahe beieinander liegen und sich gleichmäßig (d.h. in mehreren Bildern hintereinander) von einem Bereich im Bild zum anderen bewegen, stufen sie diese als zusammenhängendes Objekt ein. Jetzt werden z.B. die Seitenverhältnisse geprüft: Ist das Objekt höher als breit und ungefähr so groß wie ein Mensch, dann ist es eben einer. Sollen Menschen laut Alarmdefinition gemeldet werden, wird nun ein Alarm generiert. Vorher muss dem Algorithmus natürlich auch noch gesagt werden, wie groß ein Mensch in einer Szene ist, im Vorder- wie im Hintergrund. Dies geschieht in der Parametrierung, in der die Szene durch den Servicetechniker virtuell ‚vermessen‘ wird. Er legt fest, wie breit die Szene jeweils ist. Nur so kann der Algorithmus wissen, was er tatsächlich betrachtet. Das Beispiel beschreibt einen sehr einfachen Klassifizierungsalgorithmus, der völlig ausreichen kann. In einer Situation, in der ich erwarte, dass sich Menschen gebückt oder kriechend anschleichen, wird er allerdings zum Sicherheitsrisiko.

Zentrale oder dezentrale Analyse

Es gibt zahlreiche Algorithmen für unterschiedliche Aufgaben. Für alle gilt, dass sie für die individuelle Aufgabenstellung geeignet und parametriert sein müssen. Je nach Komplexität der Rechenvorgänge und der geforderten Reaktionszeit braucht ein Algorithmus mehr oder weniger Rechenleistung, oft ist er schon in der Kamera integriert. Die Videoanalyse erfolgt hier dezentral an der Peripherie des Videosystems statt zentral im Hauptserver. So wird unkomprimiertes Bildmaterial analysiert – perfektes Ausgangsmaterial – und Bandbreite und Rechenleistung im zentralen Rechner können eingespart werden. Bei der Verwendung von IP-Kameras, die zentral analysiert werden, muss das komprimierte Bildmaterial erst vollständig über das Netzwerk zum Server. Dort wird es dekomprimiert und analysiert. Kompressionsartefarkte können zu einer schlechteren Analyseperformance führen. Bildmaterial ohne relevante Information belastet Netzwerk und Server unnötig. Doch es gibt auch Vorteile wie z.B. mehr Flexibilität in Bezug auf die eingesetzten Algorithmen – bei speziellen Aufgabenstellungen oft unumgänglich. Die in den Kameras benötigte Rechenleistung sinkt, kostengünstigere Kameras sind möglich. Wichtig bei der Auswahl des zentralen Systems ist die Skalierbarkeit der Rechenleistung. Der Algorithmus sollte sowohl auf dem zentralen Videomanagementserver laufen können als auch auf dedizierten Analyserechnern, die per Netzwerk mit dem zentralen Managementserver kommunizieren.

Kombinierte Architekturen

Ideal ist häufig eine Kombination aus verschiedenen Architekturen: Eine ‚Voranalyse‘ in der Kamera untersucht, ob überhaupt Bewegung im Bild ist. Das bietet heute quasi jede IP-Kamera in fast jeder Preisklasse. Nur dann sendet sie ihre Bilder an den zentralen Auswerterechner, der gezielt die Bilder dieser einen Kamera mithilfe eines spezielleren oder komplexeren Algorithmus untersucht. Dieser filtert uninteressante Bewegungen heraus und meldet relevante Situationen. Da anzunehmen ist, dass nicht permanent in allen Kameras gleichzeitig Bewegung gemeldet wird, können sich mehrere Kameras die Rechenleistung eines zentralen Servers und die Bandbreite im Netz teilen. Auch die Kombination verschiedener Algorithmen auf demselben Kamerakanal kann in vielen Anwendungen sinnvoll und notwendig sein. Ein Beispiel dafür sind sogenannte ‚Dualsensoren‘, die zwei verschiedene Detektionsverfahren mit dem gleichen Analyseziel parallel laufen lassen und nur dann Alarm melden, wenn beide gleichzeitig eine kritische Situation detektieren. Die Detektionsverfahren basieren dabei auf unterschiedlichen Analyseprinzipien, die auf verschiedene Störfaktoren reagieren. Durch die Kombination beider zu einem Alarmmelder werden mehr Störfaktoren als Falschalarmquellen ausgeschaltet, als wenn ein Algorithmus alleine arbeitet. Andererseits kann der Einsatz unterschiedlich spezialisierter Algorithmen in derselben Szene notwendig sein, z.B. um kritische Bewegungsmuster ebenso wie stehen gebliebene Objekte im Bild zu erkennen. Da hier beide Anwendungen unterschiedliche Anforderungen stellen, macht es für ein optimales Ergebnis Sinn, zwei verschiedene spezialisierte Algorithmen zu nutzen.

Fazit und Tipps

Videoanalyse in modernen Videosicherheitssystemen ist eine sinnvolle Ergänzung der Funktionalität, besonders um das Bedienpersonal zu entlasten und ihm effizient zu assistieren. Dabei muss man Fragen wie ‚Welcher Algorithmus ist der Beste?‘, ‚In der Kamera oder im zentralen Server?‘ wie so oft in unserem Markt folgendermaßen beantworten: Es kommt darauf an. Lassen Sie sich intensiv beraten und testen Sie am besten anhand von Videosequenzen aus Ihrer realen Anwendung. Wählen Sie ein System, das flexibel verschiedene Architekturen und Algorithmen zulässt – sowohl zentral als auch in der Kamera, sowie verschiedene Algorithmen parallel auf demselben Kanal. Das System sollte skalierbar sein und jederzeit auch wechselnden Anforderungen und zukünftigen Entwicklungen angepaßt werden können. Denn vielleicht gibt es ihn ja eines Tages doch: den wirklich ‚intelligenten‘ Videoanalysealgorithmus.

Ausgabe:
Geutebrück GmbH
www.geutebrueck.de

Das könnte Sie auch Interessieren

Videoanalyse: Die Assistenz des Bedieners

Videosysteme generieren große Mengen an Bilddaten, die der Mensch nicht wirtschaftlich sinnvoll auswerten kann. Meist gibt es zahlreiche Videokameras in einem Objekt, die alle von wenigen Bedienern beobachtet werden müssten. Dies ist nicht effektiv, da kein Mensch viele Kameras parallel aufmerksam verfolgen kann und eine solche Aufgabe schnell ermüdet. Eine Scheinsicherheit entsteht. Wichtig ist, aus der Masse der Informationen die für den Betrachter relevanten herauszufiltern. Analysealgorithmen sind in der Lage, beliebige Bildinhalte permanent und unermüdlich zu untersuchen und automatisiert die Aufmerksamkeit des Wachpersonals gezielt auf kritische Situationen zu lenken. Doch zentrale Fragen stellen sich: Was kann Videoanalyse wirklich leisten? Sollte sie möglichst nah an der Bildentstehung erfolgen oder zentral im Server? Was sind die Vor- und Nachteile?
Auch das Videoanalysesystem darf nicht zu oft ohne erkennbaren Grund ‚alarmieren‘, denn sonst werden Alarme nicht mehr als kritische Situationen wahrgenommen und das Bedienpersonal ‚drückt den Alarm einfach weg‘, ohne die Details aufmerksam zu prüfen. Der gleiche Effekt entsteht: Das System bietet lediglich eine Scheinsicherheit. Die klare Definition einer ‚kritischen Situation‘ und ein darauf abgestimmter Algorithmus sind Voraussetzung für den effizienten und zuverlässigen Einsatz von Videoanalyse. Leider machen viele Anbieter zu generelle Aussagen zu der Leistungsfähigkeit intelligenter Videoanalyse. So erwarten viele Anwender ‚menschliche Intelligenz‘: Wenn ich sehen kann, dass dort ein Mensch und kein Hund auf allen Vieren kriecht, dann muss ein Algorithmus das doch auch können?! Falsch! Und auch wieder nicht! Systeme können aber eine assistierende Rolle einnehmen. Die meisten Algorithmen arbeiten mit relativ einfachen Kriterien, um z.B. Personen und andere ‚bewegte Objekte‘ voneinander zu unterscheiden. Sie suchen zunächst nach Bewegungen im Bild. Findet sich eine Gruppe von Pixeln, die nahe beieinander liegen und sich gleichmäßig (d.h. in mehreren Bildern hintereinander) von einem Bereich im Bild zum anderen bewegen, stufen sie diese als zusammenhängendes Objekt ein. Jetzt werden z.B. die Seitenverhältnisse geprüft: Ist das Objekt höher als breit und ungefähr so groß wie ein Mensch, dann ist es eben einer. Sollen Menschen laut Alarmdefinition gemeldet werden, wird nun ein Alarm generiert. Vorher muss dem Algorithmus natürlich auch noch gesagt werden, wie groß ein Mensch in einer Szene ist, im Vorder- wie im Hintergrund. Dies geschieht in der Parametrierung, in der die Szene durch den Servicetechniker virtuell ‚vermessen‘ wird. Er legt fest, wie breit die Szene jeweils ist. Nur so kann der Algorithmus wissen, was er tatsächlich betrachtet. Das Beispiel beschreibt einen sehr einfachen Klassifizierungsalgorithmus, der völlig ausreichen kann. In einer Situation, in der ich erwarte, dass sich Menschen gebückt oder kriechend anschleichen, wird er allerdings zum Sicherheitsrisiko.

Zentrale oder dezentrale Analyse

Es gibt zahlreiche Algorithmen für unterschiedliche Aufgaben. Für alle gilt, dass sie für die individuelle Aufgabenstellung geeignet und parametriert sein müssen. Je nach Komplexität der Rechenvorgänge und der geforderten Reaktionszeit braucht ein Algorithmus mehr oder weniger Rechenleistung, oft ist er schon in der Kamera integriert. Die Videoanalyse erfolgt hier dezentral an der Peripherie des Videosystems statt zentral im Hauptserver. So wird unkomprimiertes Bildmaterial analysiert – perfektes Ausgangsmaterial – und Bandbreite und Rechenleistung im zentralen Rechner können eingespart werden. Bei der Verwendung von IP-Kameras, die zentral analysiert werden, muss das komprimierte Bildmaterial erst vollständig über das Netzwerk zum Server. Dort wird es dekomprimiert und analysiert. Kompressionsartefarkte können zu einer schlechteren Analyseperformance führen. Bildmaterial ohne relevante Information belastet Netzwerk und Server unnötig. Doch es gibt auch Vorteile wie z.B. mehr Flexibilität in Bezug auf die eingesetzten Algorithmen – bei speziellen Aufgabenstellungen oft unumgänglich. Die in den Kameras benötigte Rechenleistung sinkt, kostengünstigere Kameras sind möglich. Wichtig bei der Auswahl des zentralen Systems ist die Skalierbarkeit der Rechenleistung. Der Algorithmus sollte sowohl auf dem zentralen Videomanagementserver laufen können als auch auf dedizierten Analyserechnern, die per Netzwerk mit dem zentralen Managementserver kommunizieren.

Kombinierte Architekturen

Ideal ist häufig eine Kombination aus verschiedenen Architekturen: Eine ‚Voranalyse‘ in der Kamera untersucht, ob überhaupt Bewegung im Bild ist. Das bietet heute quasi jede IP-Kamera in fast jeder Preisklasse. Nur dann sendet sie ihre Bilder an den zentralen Auswerterechner, der gezielt die Bilder dieser einen Kamera mithilfe eines spezielleren oder komplexeren Algorithmus untersucht. Dieser filtert uninteressante Bewegungen heraus und meldet relevante Situationen. Da anzunehmen ist, dass nicht permanent in allen Kameras gleichzeitig Bewegung gemeldet wird, können sich mehrere Kameras die Rechenleistung eines zentralen Servers und die Bandbreite im Netz teilen. Auch die Kombination verschiedener Algorithmen auf demselben Kamerakanal kann in vielen Anwendungen sinnvoll und notwendig sein. Ein Beispiel dafür sind sogenannte ‚Dualsensoren‘, die zwei verschiedene Detektionsverfahren mit dem gleichen Analyseziel parallel laufen lassen und nur dann Alarm melden, wenn beide gleichzeitig eine kritische Situation detektieren. Die Detektionsverfahren basieren dabei auf unterschiedlichen Analyseprinzipien, die auf verschiedene Störfaktoren reagieren. Durch die Kombination beider zu einem Alarmmelder werden mehr Störfaktoren als Falschalarmquellen ausgeschaltet, als wenn ein Algorithmus alleine arbeitet. Andererseits kann der Einsatz unterschiedlich spezialisierter Algorithmen in derselben Szene notwendig sein, z.B. um kritische Bewegungsmuster ebenso wie stehen gebliebene Objekte im Bild zu erkennen. Da hier beide Anwendungen unterschiedliche Anforderungen stellen, macht es für ein optimales Ergebnis Sinn, zwei verschiedene spezialisierte Algorithmen zu nutzen.

Fazit und Tipps

Videoanalyse in modernen Videosicherheitssystemen ist eine sinnvolle Ergänzung der Funktionalität, besonders um das Bedienpersonal zu entlasten und ihm effizient zu assistieren. Dabei muss man Fragen wie ‚Welcher Algorithmus ist der Beste?‘, ‚In der Kamera oder im zentralen Server?‘ wie so oft in unserem Markt folgendermaßen beantworten: Es kommt darauf an. Lassen Sie sich intensiv beraten und testen Sie am besten anhand von Videosequenzen aus Ihrer realen Anwendung. Wählen Sie ein System, das flexibel verschiedene Architekturen und Algorithmen zulässt – sowohl zentral als auch in der Kamera, sowie verschiedene Algorithmen parallel auf demselben Kanal. Das System sollte skalierbar sein und jederzeit auch wechselnden Anforderungen und zukünftigen Entwicklungen angepaßt werden können. Denn vielleicht gibt es ihn ja eines Tages doch: den wirklich ‚intelligenten‘ Videoanalysealgorithmus.

Bild: Fluke Deutschland GmbH
Bild: Fluke Deutschland GmbH
Messung der Netzqualität bei Solaranlagen

Messung der Netzqualität bei Solaranlagen

Der Markt für erneuerbare Energien wächst rasant und stellt neue Herausforderungen an qualifizierte Techniker, die die Solaranlagen und Windparks der Zukunft in Betrieb nehmen und warten sollen. Mark Bakker, Field Application Engineer bei Fluke, geht auf die Bedeutung der Netzqualitätsmessung für Solaranlagen näher ein und erklärt die Fallstricke und korrekten Herangehensweisen im Interview.

Bild: ABB Stotz-Kontakt GmbH
Bild: ABB Stotz-Kontakt GmbH
Premiere für Cylon

Premiere für Cylon

Bauer Elektroanlagen realisiert über alle elektrotechnischen Leistungsbereiche hinweg Anlagentechnik aus einer Hand. Das Unternehmen demonstriert an seiner Berliner Niederlassung, was mit moderner Gebäudeautomation heute alles möglich ist: Der Neubau auf dem Firmengelände im Stadtteil Adlershof ist energieautark konzipiert und speist überschüssigen Photovoltaikstrom automatisch in Ladesäulen für Elektrofahrzeuge ein. Sämtliche Steuerungssysteme basieren auf offenen Standards zur intelligenten Gebäudevernetzung. Als technologisches Novum sorgen dabei erstmals Lösungen von ABB Cylon.

Bild: Gifas Electric GmbH
Bild: Gifas Electric GmbH
Beleuchteter LED-Handlauf für mehr Sicherheit

Beleuchteter LED-Handlauf für mehr Sicherheit

Für die Modernisierung einer Notfalltreppe im Außenbereich eines Gebäudes der Universität Trier wurde eine effiziente und redundante Lichtlösung gesucht, die alle Normen für Treppen im öffentlichen Bereich gemäß DIN EN12464-1 und DGUV Information 208-055 erfüllt. Die Wahl fiel auf das modulare Handlaufsystem LaneLED Inox48 von Gifas, das den Anforderungen an Lichtleistung, Design und Sicherheit gerecht wurde.

Bild: ©Blue Planet Studio/stock.adobe.com
Bild: ©Blue Planet Studio/stock.adobe.com
Long Range Wide Area Network für Smart Cities

Long Range Wide Area Network für Smart Cities

Ursprünglich für das Internet of Things (IoT) entwickelt, wird die Funktechnologie Lorawan – kurz für Long Range Wide Area Network – zunehmend auch von Städten, Kommunen, Liegenschaftsverwaltern und Energieversorgern vorangetrieben. Auch in Smart Cities spielt sie eine wichtige Rolle. Als Alternative zu anderen Funksystemen bietet sich Lorawan vor allem dort als leistungsstarke Lösung an, wo große Reichweiten und hohe Wirtschaftlichkeit wesentlich sind.

Bild: Softing IT Networks GmbH
Bild: Softing IT Networks GmbH
Durchblick im Taschenformat

Durchblick im Taschenformat

Nach der Zertifizierung ist vor der Inbetriebnahme: Moderne Highend-Verdrahtungstester erreichen heute ganz neue Möglichkeiten. Konnten frühere Geräte sich nur über Kupferanschlüsse mit einem aktiven Netzwerk verbinden, deckt die neueste Generation von Testern alle drei Medien (Kupfer-, Glasfaser und WLAN) zum Verbindungsaufbau und Testen der Konnektivität ab. Aber auch die PoE (Power-over-Ethernet)-Leistung einer Verbindung kann mit Geräten der neusten Generation getestet werden.

Bild: Faruk Pinjo
Bild: Faruk Pinjo
Effiziente Beleuchtung für mehr Sicherheit

Effiziente Beleuchtung für mehr Sicherheit

Mit einem zeitgemäßen Beleuchtungskonzept wirken Parkhäuser einladend und sicher. Darüber hinaus soll Beleuchtung bei möglichst geringem Stromverbrauch für komfortable Orientierung sorgen. Diese Aspekte hat Zumtobel im Rahmen eines Modernisierungsprojekts im Parkhaus des Gundeli-Parks in Basel vereint. Nachhaltigkeit war bei diesem Projekt das Credo – sowohl bei der Geschäftsbeziehung als auch bei der Installation.