Hallo, das wird ein sehr einfacher Artikel, aber Sie werden es sehr hilfreich finden. Es geht um Hintergrund-Extraktion aus einem Video. Angenommen, Sie sind Video von Footage von Verkehr gegeben, kann eine Sache wie diese sein. Verkehr in Indien. Und Sie werden gebeten, einen ungefähren Hintergrund zu finden. Oder so etwas. Hintergrund-Extraktion kommt wichtig in der Objektverfolgung. Wenn Sie bereits ein Bild von der nackten Hintergrund, dann ist es einfach. Aber in vielen Fällen haben Sie nicht ein solches Bild und so, müssen Sie eine zu erstellen. Das ist, wo Running Average kommt praktisch. (Ich dachte darüber nach, wenn ein Mann eine Frage in SOF gefragt hat.) Die Funktion, die wir hier verwenden, um Running Average zu finden, ist cv2.accumulateWeighted (). Wenn wir z. B. ein Video anschauen, halten wir jedes Einzelbild an diese Funktion weiter, und die Funktion hält die Mittelwerte aller Frames, die ihr nach der folgenden Beziehung zugeführt werden, fest: src ist nichts anderes als unser Quellbild. Es kann Graustufen - oder Farbbild und entweder 8-Bit - oder 32-Bit-Gleitkomma sein. Dst ist das Ausgabe - oder Akkumulatorbild mit denselben Kanälen wie das Quellbild und es ist entweder ein 32-Bit - oder ein 64-Bit-Gleitpunkt. Außerdem sollten wir es zuerst auf einen Wert deklarieren, der als Anfangswert genommen wird. Alpha ist das Gewicht des eingegebenen Bildes. Laut Docs regelt alpha die Aktualisierungsgeschwindigkeit (wie schnell der Akkumulator 8220forgets8221 um frühere Bilder handelt). In einfachen Worten, wenn Alpha ein höherer Wert ist, versucht das durchschnittliche Bild auch sehr schnelle und kurze Änderungen in den Daten zu erfassen. Wenn es niedriger Wert ist, wird der Durchschnitt träge und es wird nicht betrachten schnelle Änderungen in den Eingabebildern. Ich werde es ein wenig mit Hilfe von Bildern am Ende des Artikels erklären. In oben Code habe ich zwei Mittelwerte gesetzt, eine mit höheren Alpha-Wert und eine andere mit niedrigeren Alpha-Wert, so können Sie verstehen, Wirkung von Alpha. Zuerst werden beide auf den Anfangsrahmen des Captures gesetzt. Und in Schleife erhalten sie aktualisiert. Sie können einige Resultate in der SOF Verbindung sehen, die ich bereits zur Verfügung stellte. (Ich habe die Ergebnisse hier, können Sie den Code und Alpha-Wert dort): Ich habe meine Webcam und gespeichert Original-Frame und laufenden Durchschnitt zu einem bestimmten Zeitpunkt. Dieses ist ein Rahmen von einem typischen Verkehrsvideo, das von einer stationären Kamera genommen wird. Wie Sie sehen können, geht ein Auto auf die Straße, und die Person versucht, die Straße zu einem bestimmten Zeitpunkt zu überqueren. Aber sehen Sie den laufenden Durchschnitt zu diesem Zeitpunkt. Es gibt keine Person und Auto in diesem Bild (Eigentlich ist es da, haben einen engen Blick, dann werden Sie es sehen, und die Person ist klarer als Auto, da Auto bewegt sich sehr schnell und über das Bild, es hat nicht viel Effekt ist, ist die Person für eine lange Zeit, da er langsam ist und sich über die Straße bewegt.) Jetzt müssen wir die Wirkung von Alpha auf diesen Bildern sehen. Einführung Die Identifizierung von bewegten Objekten aus einer Videosequenz ist eine grundlegende und kritische Aufgabe in vielen Computer-Vision-Anwendungen. Ein üblicher Ansatz besteht darin, eine Hintergrundsubtraktion durchzuführen, die bewegte Objekte aus dem Teil eines Videorahmens identifiziert, der sich signifikant von einem Hintergrundmodell unterscheidet. Es gibt viele Herausforderungen bei der Entwicklung eines guten Hintergrund Subtraktion Algorithmus. Erstens muss sie gegen Veränderungen in der Beleuchtung robust sein. Zweitens sollte es vermeiden, nicht-stationäre Hintergrundobjekte wie z. B. bewegte Blätter, Regen, Schnee und Schatten, die durch bewegte Objekte geworfen werden, zu erfassen. Schließlich sollte sein internes Hintergrundmodell schnell auf Änderungen im Hintergrund reagieren, wie das Starten und Stoppen von Fahrzeugen. Unsere Forschung begann mit einem Vergleich verschiedener Hintergrund-Subtraktionsalgorithmen zur Erfassung von fahrenden Fahrzeugen und Fußgängern in Stadtverkehrs-Videosequenzen (Cheung und Kamath 2004). Wir betrachteten Ansätze, die von einfachen Techniken wie Frame-Differenzierung und adaptive Median-Filterung, bis hin zu anspruchsvolleren probabilistischen Modellierungstechniken variieren. Während komplizierte Techniken oft eine überlegene Leistung liefern, zeigen unsere Experimente, dass einfache Techniken, wie adaptive Medianfilterung, gute Ergebnisse mit viel geringerer Rechenkomplexität erzeugen können. Darüber hinaus fanden wir, dass eine Vor - und Nachbearbeitung des Videos erforderlich sein könnte, um die Erfassung von sich bewegenden Objekten zu verbessern. Zum Beispiel können wir durch räumliche und zeitliche Glättung Schnee von einem Video entfernen, wie in 1 gezeigt. Kleine bewegliche Objekte, wie etwa die Bewegung von Blättern auf einem Baum, können durch die morphologische Verarbeitung der Rahmen nach der Identifizierung der sich bewegenden Objekte entfernt werden , Wie in Abbildung 2 dargestellt. Abbildung 1. Video Frame auf der linken Seite zeigt eine Verkehrsszene beim Schneefall. Beachten Sie die Streifen im Bild aufgrund der Schneeflocken. Das gleiche Video-Frame nach räumlicher und zeitlicher Glättung ist auf der rechten Seite, ohne die Schnee-Streifen. Abbildung 2. Der Video-Rahmen auf der linken Seite markiert, in rosa, die Objekte als verschoben erkannt. Beachten Sie die Bewegung der Blätter auf den Bäumen im Vordergrund. Die morphologische Verarbeitung bereinigt den Videorahmen wie auf der rechten Seite dargestellt. Die Rate und das Gewicht der Modell-Updates erheblich Wirkung Vordergrund Ergebnisse. Langsam anpassende Hintergrundmodelle können große Änderungen im Bildhintergrund (wie zum Beispiel eine Wolke über eine Szene) nicht schnell überwinden. Dies führt zu einer Zeitspanne, in der viele Hintergrundpixel nicht richtig als Vordergrundpixel klassifiziert werden. Eine langsame Aktualisierungsrate neigt auch dazu, eine Geistermaske zu erzeugen, die das eigentliche Objekt verfolgt. Schnell adaptierende Hintergrundmodelle können schnell mit Hintergrundänderungen umgehen, scheitern jedoch bei niedrigen Bildraten. Sie sind auch sehr anfällig für Lärm und die Blende Problem. Diese Beobachtungen deuten darauf hin, dass ein hybrider Ansatz dazu beitragen könnte, die Nachteile eines jeden abzuschwächen. Wir haben eine neue Vordergrundvalidierungstechnik entwickelt, die auf jeden langsam adaptierenden Hintergrund-Subtraktionsalgorithmus angewendet werden kann (Cheung und Kamath 2005). Langsam anpassende Verfahren erzeugen relativ stabile Masken und neigen dazu, umfassender als schnelle Anpassungsverfahren zu sein. Als Ergebnis können sie auch eine hohe falsch positive Rate haben. Die Vordergrundvalidierung untersucht ferner einzelne Vordergrundpixel, um Fehlalarme zu eliminieren. Unser Algorithmus erhält zuerst eine Vordergrundmaske von einem langsam adaptierenden Algorithmus und validiert dann Vordergrundpixel durch ein einfaches Objektobjektmodell, das sowohl mit Vordergrund - als auch Hintergrundstatistik sowie mit einem schnell adaptierenden Algorithmus erstellt wurde (Fig. 3). Abbildung 3. Die Mischungen von Gaußschen Ansätzen (a) sind im Vergleich zu unserem vorgeschlagenen Verfahren (b) nicht sehr robust gegenüber Änderungen der Beleuchtung. Ground-Wahrheitsexperimente mit städtischen Verkehrssequenzen haben gezeigt, dass unser vorgeschlagener Algorithmus eine Leistung liefert, die vergleichbar oder besser ist als andere Hintergrund-Subtraktionstechniken (Abbildung 4). Abbildung 4: Vergleich verschiedener Algorithmen. (A) Ursprüngliches Bild, das ein Auto zeigt, das beginnt, sich nach einer stationären Bewegung zu bewegen. (D) Median, (e) Kalman-Filter, (f) Mischungen von Gaußern und (g) unsere neue Methode mit Vordergrundvalidierung. Danksagungen Die in unserer Arbeit verwendeten Videos stammen von der Website der KOGS-IAKS Universitaet Karlsruhe. Wir freuen uns über ihre Bereitschaft, ihre Daten öffentlich zugänglich zu machen. Referenzen Cheung, S.-C. Und C. Kamath, Robust Hintergrund Subtraktion mit Vordergrund-Validierung für Urban Traffic Video, EURASIP Journal über angewandte Signalverarbeitung, Band 14, pp 1-11, 2005. UCRL-JRNL-201916. Cheung, S.-C. Und C. Kamath, Robuste Techniken zur Hintergrundsubtraktion im Stadtverkehrsvideo, Videokommunikation und Bildverarbeitung, SPIE Electronic Imaging, San Jose, Januar 2004, UCRL-JC-153846-ABS, UCRL-CONF-200706 PDF.
No comments:
Post a Comment