بعض محتويات هذا التطبيق غير متوفرة في الوقت الحالي.
إذا استمرت هذه الحالة ، يرجى الاتصال بنا علىتعليق وإتصال
1. (WO2019048604) AUTOMATIC EARLY DETECTION OF SMOKE, SOOT AND FIRE WITH INCREASED DETECTION RELIABILITY USING MACHINE LEARNING
ملاحظة: نص مبني على عمليات التَعرف الضوئي على الحروف. الرجاء إستخدام صيغ PDF لقيمتها القانونية

Automatische Früherkennung von Rauch, Russ und Feuer mit erhöhter Erkennungssicherheit durch maschinelles Lernen

Die vorliegende Erfindung bezieht sich auf ein Verfahren und ein System zur automatischen Früherkennung von Ereignissen wie Rauch, Russ und/oder Feuer mit erhöhter Erkennungssicherheit durch maschinelles Lernen sowie deren Verwendung.

Waldbrände verwüsten weltweit jedes Jahr grosse Flächen an Wald. Nicht selten sind auch Kulturland und sogar Menschen, Nutztiere sowie deren Gebäude betroffen, was zu grossen ökonomischen und ökologischen Schäden führt.

Daher werden grosse Anstrengungen unternommen, Waldbrände möglichst schnell einzuschränken und womöglich ganz zu verhindern. Dabei hat es sich gezeigt, dass die Wahrscheinlichkeit den Brand schnell zu löschen und somit ein grösseres Feuer zu verhindern, wesentlich höher ist, wenn der Waldbrand schon innerhalb den ersten 20 Minuten nach Ausbruch des Feuers bekämpft werden kann. Dies erfordert eine sehr schnelle Branddetektion, um genügend Zeit zu haben, die Brandbekämpfung zu alarmieren und mit der Brandbekämpfung vor Ort zu beginnen.

Die wohl älteste Methode um Waldbrände zu erkennen sind menschliche Beobachtungsposten. Allerdings ist es für das menschliche Auge nicht immer möglich, Rauch - das Zeichen für ein beginnendes Feuer - auch auf längere Distanzen und bei schlechter Sicht treffsicher schon im Frühstadium zu erkennen. Auch deshalb wurden verschiedene Methoden zur - idealerweise automatischen - Früherkennung von Rauch, Russ und Feuer vorgeschlagen.

In einem Ansatz werden Videoüberwachungskameras - auch CCTV-Kameras genannt, wobei CCTV für Closed Circuit Television steht -eingesetzt und die erhaltenen Bilder mittel Bildverarbeitungssoftware bearbeitet. Solche Systeme sind jedoch nur für kurze Distanzen einsetzbar. Selbst Langdistanz-Videoüberwachungskameras können lediglich Distanzen von wenigen Kilometern abdecken und weisen in diesem Bereich eine mangelnde Auflösung auf. Somit sind selbst Langdistanz-Videoüberwachungskameras wenig geeignet für eine schnelle Früherkennung von Rauch, Russ und/oder Feuer - insbesondere bei weiten Distanzen, schwierigem Gelände und/oder komplexen Sichtverhältnissen.

Um diese Nachteile zu beheben wurden verschiedenste Verfahren und Vorrichtungen vorgeschlagen. So beschreibt beispielsweise die EP 984 413 A2 eine Vorrichtung und ein Verfahren zur automatischen Wald-branderkennung mittels auf einer Plattform drehbar angeordneten optischen Aufnahmeeinrichtung, einer elektronischen Auswerteeinheit und einem Sender oder lokalem Alarmgeber umfassend eine Vielzahl von Verfahrensschritte. So wird zunächst ein Referenzbild einer Szene aufgenommen, der Horizont bestimmt, das Referenzbild normiert, der Bildbereich unter dem Horizont bestimmt, eine nichtlineare Filterung durchgeführt und das erhaltene Referenzbild gespeichert. Anschliessend wird mindestens ein aktuelles Bild aufgenommen, ein Bildmatching des aktuellen Bildes mit dem Referenzbild vorgenommen und das Bild normiert. Das aktuelle Bild wird anschliessend mit dem Referenzbild verglichen, ein binarisiertes Differenzbild erzeugt, ein Clusteralgorithmus angewandt, Wahrscheinlichkeiten zur Bewertung der gefundenen Cluster gebildet und anschliessend ein Alarm ausgelöst, falls die Rauchwahrscheinlichkeit für mindestens einen Cluster die vorgegebene Schwelle überschreitet. Mit dem vorgeschlagenen Verfahren kann die Zuverlässigkeit der Auswertung erhöht werden. Allerdings ist die Fehlerquote - und somit die ausgelösten Fehleralarme - insbesondere aufgrund sich bewegenden Objekten wie

Tieren, Fahrzeugen oder von sich im Wind bewegenden Bäumen relativ hoch. Dementsprechend ist die Erkennungssicherheit mangelhaft und genügt modernen Ansprüchen nicht. Zudem ist es oft schwierig bis unmöglich, aufgrund der vorhandenen 2D-Bilder bei einer Rauchentwicklung eine exakte Ortsbestimmung des Brandherds durchzuführen. Wenn ein Alarm ausgelöst werden muss, ist dies jedoch äusserst wichtig, damit die Brandbekämpfung schnell am richtigen Ort ist und dadurch keine Zeit verloren geht.

Die DE 10 2009 020 709 A1 beschreibt ein Verfahren zur Überwachung und Analyse von Territorien mittels eines georeferenzierten Multiplattform-systems, welches mit mindestens einem optischen schwarz/weiss oder Farbsensor sowie mindestens einem weiteren Sensor bestückt ist und damit für eine Vielzahl von unterschiedlichen Überwachungssystemen eingesetzt werden kann. Mit dem Verfahren soll während dem Betrieb kontinuierlich die Anzahl der generierten Meldungen optimiert werden, wobei dazu Einflussnahme einer Bedienungsperson notwendig ist. Demzufolge erfolgt die Überwachung nicht automatisiert und nicht in Echtzeit. Auch ist ein Datenbankabgleich zwingend um zu dem zu erzielenden Effekt zu gelangen. Zwar wird erwähnt, dass zukünftige selbstlernende Analyseverfahren angewendet werden könnten, wobei jedoch nicht offengelegt ist, mit welchen zukünftigen Auswertungen ein solcher Selbstlerneffekt erzielt werden sollte.

Die US-A-2015/030203 offenbart eine Feuerdetektionsvorrichtung und ein Verfahren zum Detektieren eines Feuers bereitgestellt. Das Verfahren umfasst Tätigkeiten zum Extrahieren eines Merkmals von mindestens einem Objekt in ein Eingabebild unter Verwendung eines Werts einer Helligkeitsdifferenz zwischen Pixeln des Eingabebilds oder unter Verwendung eines RGB-Werts des Eingabebildes; Umwandeln des extrahierten Merkmals des mindestens einen Objekts in ein N-dimensionales Merkmal; und Ausführen des Support-Vector-Machine (SVM)

Maschinenlernens auf dem N-dimensionalen Merkmal des mindestens einen Objekts. Die offenbarte Technologie basiert auf Überwachungssystemen wie «Closed-Circuit Television (CCTV)», und somit auf Video-Technologie. Sie unterscheidet die Helligkeit zwischen Bildpixeln und analysiert dazugehörige Histogramme. Mit Videotechnologie erhaltene Bilder weisen zudem eine deutlich reduzierte Informationsdichte auf, was sich negativ auf die Datenqualität und die Auswertung der Daten auswirkt. Dementsprechend können nur Waldbrände in kurzer Distanz erkannt werden. Zudem müssen sie eine gewisse Grösse erreicht haben. Um Rauch, Russ und/oder Feuer zu detektieren, wird zudem eine sehr hohe Dichte, auch Density genannt, der Rauchwolke benötigt. Somit kann der Rauch, Russ und/oder das Feuer erst zu einem späten Zeitpunkt detektiert werden. Da nur ein Faktor, d.h. die Helligkeit, untersucht wird, ist sie zudem stark fehleranfällig, d.h. eine grosse Anzahl Fehlalarmen wird erzeugt. Die geforderte automatische Früh-erkennung ist jedoch mit der offenbarten Vorrichtung und Verfahren nicht möglich. Zudem wird weder eine elektronische Pixel-Farbkanal-Mischeinheit noch ein Datensatz für einen Rauchfarben-optimierten Pixel-Bereich offenbart oder benötigt.

Die DE-B-10 2013 017 395 offenbart ein Verfahren zur automatisierten Waldbrandfrüherkennung mittels optischer Sensoren und Computer gestützter Bildverarbeitung zur automatischen Rauchdetektion. Dabei werden Rauchwolken detektiert mit den Verfahrungsschritten i) Erzeugen von Bildern mittels mindestens einer digitalen Farbbildkamera und übermitteln der Bilder an ein digitales Datenverarbeitungsmedium und ii) Definieren von Zugehörigkeitsfunktionen in einem Fuzzy-Logik-System zu den Klassen «Rauch», «Wald» und «dunkle Fläche» durch Auswertung einer Vielzahl von durch die Farbbildkamera aufgenommener Testbildern bzw. Testsequenzen in Bezug auf einen Sättigungswert (S) der Bildpixel. Die beanspruchte Technologie basiert auf Bildverarbeitung mit anschliessender Auswertung der Farbbilder. Dabei wird die erhaltende Farbinformation des

RGB-Raums für jeden Pixel mittels geeigneter Funktional-Transformation beispielsweise in einen HSV-Raum mit Farbwert H, Sättigung S und Hellwert H umgewandelt. Die so erhaltenden Farbbilder werden anschliessend auf die Detektion von Rauch unter Verwendung der Fuzzy-Logik analysiert. Letztere basiert auf unscharfen Mengen, welche nicht wie herkömmlich durch Objekte definiert, die Elemente der Mengen sind, sondern über den Grad ihrer Zugehörigkeit zu dieser Menge. Hierzu werden Zugehörigkeitsfunktionen verwendet, welche jedem Element einen numerischen Wert als Zugehörigkeitsgrad zuordnen. Durch die Auswertung der Farbbilder des HSV-Raums werden fertige Bilder miteinander verglichen und deren Unterschiede in Bezug auf deren Helligkeit und Sättigung ausgewertet. Indem im Voraus als Referenz Testbilder bzw. Testsequenzen erstellt werden, welche dann im Brandfall mit dem aktuellen Bild verglichen wird, ist sehr fehleranfällig, da sich das Bild eines gleichen Landschaftsausschnitts aufgrund unterschiedlicher Lichtbedingungen oft sehr schnell ändert. Zudem weisen die generierten Bilder - im Vergleich zu Information basierend auf einzelnen Pixeln - eine stark reduzierte Informationsdichte auf. Dies wirkt sich negativ auf die Datenqualität und die Auswertung der Daten aus. Auch wird für eine korrekte Analyse eine sehr hohe Dichte, auch Density genannt, der Rauchwolke benötigt. Somit kann der Rauch, Russ und/oder das Feuer erst zu einem so späten Zeitpunkt detektiert werden, wenn eine Rauchwolke sichtbar ist. Die geforderte Früherkennung ist jedoch mit dem offenbarten Verfahren und der Vorrichtung nicht möglich. Zudem erzeugt das Verfahren eine grosse Anzahl an Fehlalarmen. Auch wird weder eine elektronische Pixel-Farbkanal-Mischeinheit noch ein Datensatz für einen Rauchfarben-optimierten Pixel-Bereich offenbart oder benötigt.

Nachteilig an allen vorgeschlagenen Verfahren und Systemen ist, dass sie die geforderte automatische Früherkennung von Ereignissen wie Rauch, Russ und Feuer mit sehr grosser Detektionswahrscheinlichkeit und einer

geringen Anzahl von Fehlarmen nicht oder nur sehr ungenügend erkennen können.

Somit ist die Aufgabe der vorliegenden Erfindung, nicht nur eine schnelle, automatische und exakte Ortsbestimmung eines Brandherds zu erhalten, sondern die Erkennungssicherheit bei der automatischen Waldbranderkennung im Frühstadium - und somit insbesondere von Rauch, Russ und/oder Feuer - auch für grosse Distanzen von 10 km oder mehr deutlich zu erhöhen und die Fehlerquote der ausgelösten Fehleralarme stark zu reduzieren. So soll beispielsweise Rauch, Russ und/oder Feuer schon in der sehr frühen Frühphase eines entstehenden Waldbrands detektiert werden können, auch wenn noch gar keine für das menschliche Auge sichtbare Anzeichen vorhanden sind. Zudem sollen Rauch, Russ und/oder Feuer beispielsweise von vorbeifliegende Vogelschwärmen und/oder Wolken, von nicht-brennbaren Orten wie Felsen, Strassen und/oder Gewässer, aber auch von weiteren Ereignissen, wie beispielsweise auf Strassen fahrende Autos mit im Sonnenlicht reflektierenden Scheiben mit einer sehr geringer Anzahl an Fehlalarmen unterschieden werden können.

Die komplexe Aufgabe konnte überraschenderweise gelöst werden mit einem Verfahren zur automatischen Früherkennung mit erhöhter Erkennungssicherheit von Ereignissen wie Rauch, Russ und/oder Feuer mittels einer Sensoreinheit (2) umfassend mindestens ein Objektiv (4), einen Sensor (5), eine elektronische Pixel-Farbkanal-Mischeinheit (6) sowie eine Datenverarbeitungseinheit (3), umfassend den Schritt des Belichtens des Sensors (5) während mindestens einer Belichtungsperiode (U) von einem zu überwachenden Landschaftssektor, wobei aus mindestens einem durch die Belichtung erhaltenen Datensatz

- ein Rauchfarben-optimierten Pixel-Bereich (DSo-s, DSi-s, DS2-S, DSn-s) berechnet und den erhaltenen Datensatz unter Einbezug von mindestens einem Detektionsalgorithmus A auf die

Anwesenheit von Rauch, Russ und/oder Feuer analysiert, und/oder

- ein Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) berechnet und den erhaltenen Datensatz unter Einbezug von mindestens einem Detektionsalgorithmus B auf die im Datensatz enthaltene Farbinformation analysiert wird,

wobei der Detektionsalgorithmus A ein Berechnungsmodell A, der Detektionsalgorithmus B ein Berechnungsmodell B und/oder ein Detektionsalgorithmus C ein Berechnungsmodell C umfasst, wobei die Berechnungsmodelle A, B und C Berechnungsmodelle für das maschinelle Lernen darstellen und der Detektionsalgorithmus C Datensätze analysiert, welche aus zeitlich versetzten Belichtungen erhalten wurden und anhand Detektionsalgorithmen A und/oder Detektionsalgorithmen B analysiert wurden.

Beansprucht wird auch ein System (1 ) zur automatischen Früherkennung mit erhöhter Erkennungssicherheit und genauer Ortsbestimmung von Ereignissen wie Rauch, Russ und/oder Feuer gemäss dem erfindungsgemässen Verfahren, umfassend eine Sensoreinheit (2), eine Datenverarbeitungseinheit (3) sowie eine elektronische Pixel-Farbkanal-Mischeinheit (6) zur Verarbeitung von vom Farbsensor (5-1 ) erhaltenen Datensätze, wobei bevorzugt jeder Farbkanal des Farbsensors (5-1 ) separat zugemischt werden kann, umfasst, dadurch gekennzeichnet, dass auf der Datenverarbeitungseinheit (3) mindestens eine Software zum maschinellen Lernen, insbesondere eine Software zum maschinellen Lernen mittels Boosted Combined Model Classification, eine parameterfreie Methode zur Schätzung von Wahrscheinlichkeitsdichtefunktionen, insbesondere eine Nächste-Nachbarn-Klassifikation umfassend einen k-nächste-Nachbarn-Algorithmus, und/oder eine Gaussches-Mischungs-Modell (GMM) Analyse gespeichert ist.

Zudem wird auch Verwendung des erfindungsgemässen Verfahrens und des erfindungsgemässen Systems (1 ) zur automatischen Früherkennung von Ereignissen wie Rauch, Russ, Feuer und/oder Bränden wie Waldbrände; zur Reduktion von Fehlalarmen, insbesondere bei Waldbranderkennungs-Systemen, die von nicht-brennbaren Orten wie Felsen, Strassen und/oder Gewässer, und/oder von nicht-brennbaren Ereignissen wie Wolkenschatten, Staubwolken, Vogelschwärmen, Luftverschmutzung sowie von Fahr-und/oder Flugobjekten herrühren können; zur Erhöhung der Erkennungssicherheit von Ereignissen; sowie zur geologischen Überwachung von geologisch kritischen Regionen, insbesondere bei Gefahr eines Fels- und/oder Eisabbruchs, eines Felssturzes und/oder eines Erdrutsches beansprucht.

Das erfindungsgemässe Verfahren, das erfindungsgemässe System (1 ) und die erfindungsgemässe Verwendung bieten überraschenderweise viele Vorteile. Das maschinelle Lernen ermöglicht ein selbständiges Lernen beispielsweise in Bezug auf das Erscheinungsbild, das Verhalten resp. die Dynamik, die Farben sowie die Strukturen wie die Ausbreitung und Turbulenzen von zu untersuchenden Ereignissen, insbesondere von Rauch, Russ und Feuer. Auch können auf Strassen fahrende Autos mit im Sonnenlicht reflektierenden Scheiben von Rauch, Russ und/oder Feuer unterschieden werden. Dies erlaubt eine immer bessere Unterscheidung von „Rauch" und„Nicht-Rauch", wodurch die Anzahl von Fehlalarmen mit der Zeit gegen null geht, oder sogar gleich null ist. Dies erlaubt eine wesentlich schnellere Brandbekämpfung, da ein Fehlalarm nicht zuerst verifiziert werden muss. Zudem wird die Feuerwehr nicht mehr unnötig alarmiert. Überraschenderweise ist es anhand des maschinellen Lernens auch möglich, Rauch in einem Talkessel bei Hochdruckeinfluss zu detektieren. Dies ist mit herkömmlichen Methoden nicht möglich, da sich ein solcher Rauch von im Talkessel gefangenen Wolken nicht unterscheiden lässt.

Durch die im erfindungsgemässen Verfahren wird zur Erkennung von Russ, Rauch und/oder Feuer überraschenderweise keine sogenannte «Density» des Ereignisses benötigt. Das heisst, das Ereignis muss für das menschliche Auge nicht sichtbar sein und kann trotzdem detektiert werden. Dies erlaubt eine wesentlich frühere Detektion als bei anderen, bekannten Systemen, was für die Brandbekämpfung von wesentlichem Vorteil ist.

Wird das erfindungsgemässe Verfahren und das erfindungsgemässe System überdies mit einem 3D-Geländemodell erweitert, ist es möglich, 3D-Geländemodelle von sehr grossen Gebieten und mit einer Geländetiefe von 40 km und mehr automatisiert zu generieren - auch bei sehr hügeligen Gebieten mit vielen Bergen und Tälern. Dies erlaubt erstaunlicherweise die Lokalisation von Brandherden schnell und mit sehr hoher Genauigkeit von beispielsweise 10 m oder weniger auch in hügeligem Gelände. Dies gilt auch wenn sich ein Brandherd in einem für die Sensoreinheit nicht sichtbaren Bereich wie in Tälern und/oder auf der Rückseite von Hügeln und Bergen befindet. Der Einsatz des 3D-Geländemodells erlaubt es auch, im Gelände Bereiche zu definieren und zu erkennen, in welchen Feuer erlaubt sind.

Auch können überraschenderweise Rauch, Russ und/oder Feuer im Vergleich zu herkömmlichen Systemen mit grösserer Wahrscheinlichkeit und niedriger Fehlerquote sowohl bei Tag, bei Nacht als auch bei schwierigen Lichtverhältnissen automatisch und ohne Einwirken einer Person im Frühstadium detektiert werden - und dies bis zu Distanzen von 40 km Entfernung oder mehr! Dadurch kann in einer sehr frühen Phase eines entstehenden Feuers automatisch ein Alarm ausgelöst werden, wodurch die Wahrscheinlichkeit, das Feuer frühzeitig zu löschen, drastisch erhöht wird. Die niedrige Fehlerquote erlaubt einen hohen Automatisationsgrad mit nur wenigen Fehlermeldungen. Aufgrund der im erfindungsgemässen Verfahren eingesetzten Plausibilitätsprüfung kann beispielsweise Rauch, Russ und/oder Feuer schon in der Frühphase eines entstehenden Waldbrands von vorbeifliegenden Vogelschwärmen und/oder Wolken, aber auch von nichtbrennbaren Orten wie Felsen, Strassen und/oder Gewässer unterschieden werden. Zudem können überraschenderweise auch bisher nicht-unterscheidbare Ereignisse wie Fahrzeuge mit reflektierender Windschutzscheibe und das Flattern von Birkenblättern im Wind detektiert werden, wodurch sich die Anzahl Fehlermeldungen weiter reduziert. Dies ist nicht zuletzt darauf zurückzuführen, dass sowohl Datensätze mit Farbinformation im Pixel-Bereich (DSo-c), anhand welcher Farbbilder generiert werden können, als auch Datensätze mit Rauchfarben-optimierten Bereichen (DSo-s, DSi-s, DS2-S, DSn-s), anhand welcher Schwarz-Weiss-Bilder generiert werden, welche miteinander verglichen werden. Dieser Vergleich wird gemäss vorliegender Erfindung auch Plausibilitätsprüfung genannt. Denn insbesondere die erhaltenen Graustufen der Datensätze mit Rauchfarben-optimierten Bereichen (DSo-s, DSi-s, DS2-S, DSn-s) liefern zusätzlich wertvolle Hinweise zur Dynamik und Ausbreitung von Rauch, Russ und/oder Feuer. Und die Datensätze mit Farbinformation im Pixel-Bereich (DSo-c) liefern wertvolle Hinweise auf Ereignisse mit Farben, welche nicht auf Rauch, Russ und/oder Feuer hinweisen, und somit ausgeschieden werden können. Datensätze der Rauchfarben-optimierten Bereiche (DSo-s, DSi-s, DS2-S, DSn-s) werden manchmal auch Schwarz-Weiss-Bilder genannt.. Durch die Einbindung von maschinellem Lernen kann die Fehlerquote weiter drastisch reduziert oder sogar auf null herabgesenkt werden.

Indem das erfindungsgemässe Verfahren Datensätze im Pixel-Bereich DSo-s, DSi-s, DS2-S, DSn-s sowie DSo-c analysiert und sogar auch Datensätze auswerten kann, obwohl das menschliche Auge keine sichtbaren Anzeichen von Rauch, Russ und/oder Feuer wahrnimmt, erhöht sich die Sensitivität des Systems überraschenderweise erheblich.

Das erfindungsgemässe Verfahren und das erfindungsgemässe System (1 ) dienen zur automatischen Früherkennung von Ereignissen wie Rauch, Russ

und/oder Feuer mit stark erhöhter Erkennungssicherheit, exakter Ortsbestimmung eines Brandherds und einer deutlich reduzierten Anzahl an Fehlermeldungen. Dabei wird unter dem Begriff Früherkennung erfindungsgemass die Erkennung von Rauch, Russ und/oder Feuer in einem so frühen Stadium verstanden, bei welchem das menschliche Auge noch keinen Rauch, Russ und/oder Feuer sehen kann.

Das Verfahren

Das erfindungsgemässe Verfahren wird mittels mindestens einer Sensoreinheit (2), einer Datenverarbeitungseinheit (3) und einer elektronischen Pixel-Farbkanal-Mischeinheit (6) durchgeführt. Die Sensoreinheit (2) umfasst mindestens ein Objektiv (4) und mindestens einen Sensor (5), wobei ein Sensor (5) ein Farbsensor (5-1 ) umfasst. Es können alle Komponenten zusammen in einer Einheit angeordnet sein oder an räumlich verschiedenen Orten. So kann beispielsweise die Datenverarbeitungseinheit (3) von der Sensoreinheit (2) getrennt angeordnet sein, wobei zwischen der Sensoreinheit (2) und der Daten-Verarbeitungseinheit (3) Daten ausgetauscht werden können. Auch kann ein Teil der Datenverarbeitungseinheit (3) bei der Sensoreinheit (2) und ein anderer Teil der Datenverarbeitungseinheit (3) an einem anderen Ort angeordnet sein. Die elektronische Pixel-Farbkanal-Mischeinheit (6) befindet sich bevorzugt bei der Sensoreinheit (2) und/oder bei der Daten-Verarbeitungseinheit (3), da Datensätze, die in der Sensoreinheit (2) durch Belichtung des Sensors (5) erhalten werden, zur elektronischen Pixel-Farbkanal-Mischeinheit (6) und weiter zur Datenverarbeitungseinheit (3) gesendet werden.

Das Verfahren umfasst den Schritt des Belichtens des Sensors (5) während mindestens einer Belichtungsperiode (U) von einem zu überwachenden

Landschaftssektor. Aus mindestens einem durch die Belichtung erhaltenen Datensatz wird

- ein Rauchfarben-optimierten Pixel-Bereich (DSo-s, DSi-s, DS2-S, DSn- s) berechnet und den erhaltenen Datensatz unter Einbezug von mindestens einem Detektionsalgorithmus A auf die Anwesenheit von

Rauch, Russ und/oder Feuer analysiert, und/oder

- ein Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) berechnet und den erhaltenen Datensatz unter Einbezug von mindestens einem Detektionsalgorithmus B auf die im Datensatz enthaltene Farbinformation analysiert wird.

Dabei umfasst der Detektionsalgorithmus A ein Berechnungsmodell A, der Detektionsalgorithmus B ein Berechnungsmodell B und/oder ein Detektionsalgorithmus C ein Berechnungsmodell C. Dabei stellen die Berechnungsmodelle A, B und C Berechnungsmodelle für das maschinelle Lernen dar und der Detektionsalgorithmus C analysiert Datensätze, welche aus zeitlich versetzten Belichtungen erhalten wurden und anhand Detektionsalgorithmen A und/oder Detektionsalgorithmen B analysiert wurden.

In einer ganz besonders bevorzugten Ausführungsform des erfindungsgemassen Verfahren wird in einem ersten Schritt i) der Sensor (5) während mindestens einer Belichtungsperiode (Lo) von einem zu überwachenden Landschaftssektor belichtet, wobei pro Belichtungsperiode (Lo) einen Datensatz für mindestens einen Rauchfarben-optimierten Pixel-Bereich (DSo-s) berechnet und der erhaltene Datensatz DSo-s unter Einbezug von mindestens einem Detektionsalgorithmus A auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert wird. Dieser Schritt wird so oft wiederholt, bis ein Datensatz DSo-s auf die Anwesenheit von Rauch, Russ und/oder Feuer hinweist, d.h. dass die Möglichkeit besteht, dass Rauch, Russ und/oder Feuer detektiert wird. Zwischen den einzelnen Wiederholungsschritten kann die Sensoreinheit (2) mit dem Sensor (5)

mindestens einen weiteren Landschaftssektor überwachen, indem der Schritt i) wiederholt wird. Dabei umfasst der Detektionsalgorithmus A ganz besonders bevorzugt für das maschinelle Lernen ein Berechnungsmodell A für den Rauchfarben-optimierten Bereich und zur Überprüfung der Anwesenheit von Rauch, Russ und/oder Feuer. Dabei ist das Berechnungsmodell A für das maschinelle Lernen und zur Analyse des Detektionsalgorithmus A geeignet.

Indem ein Datensatz für den Rauchfarben-optimierten Pixel-Bereich (DSo-s) mittels der elektronische Pixel-Farbkanal-Mischeinheit (6) und der Datenverarbeitungseinheit (3), erstellt und unter Einbezug von mindestens einem Detektionsalgorithmus A auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert wird, können äusserst feine Unterschiede der einzelnen Pixel festgestellt werden, wodurch die Detektionsempfindlichkeit drastisch erhöht wird. Dabei umfassen die Datensätze DSo-s, DSi-s, DS2-S, DSn-s auch gewisse Farbanteile wie blau und/oder rot, obwohl manchmal auch nur von Grautönen oder - nach der Transformation in ein sichtbares Bild - von einem Schwarz-Weiss Bild die Rede ist.

In einem weiteren Schritt ii) wird, sobald ein analysierter Datensatz für einen Rauchfarben-optimierten Bereich (DSo-s) auf die Anwesenheit von Rauch, Russ und/oder Feuer (Fo-s?) hinweist, anhand des Roh-Datensatzes mit den Farbpixeln, oder einen Ausschnitt davon, einen Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) berechnen und unter Einbezug von mindestens einem weiteren Detektionsalgorithmus B analysiert. Dabei kann der Roh-Datensatzes mit den Farbpixeln der gleiche Roh-Datensatz sein, anhand welchem der Rauchfarben-optimierte Bereich (DSo-s) auf die Anwesenheit von Rauch, Russ und/oder Feuer (Fo-s?) hinweist. Alternativ kann mittels einer erneuten Belichtungsperiode ein neuer, zeitlich naher, Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) erstellt werden. Der Detektionsalgorithmus B umfasst bevorzugt ein Berechnungsmodell B für

den Farbbereich und zur Überprüfung der Anwesenheit von nicht-brennbaren Objekten und/oder Ereignissen, wie beispielsweise Wolken, Schatten, Wald, Bäume und/oder Blätter, Gebäude, Strassen, Gewässer, Schnee und/oder Gletscher, Felsen und/oder Verkehr. Dabei ist das Berechnungsmodell B für das maschinelle Lernen und zur Analyse des Detektionsalgorithmus B geeignet.

Indem ein Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) erstellt und unter Einbezug von mindestens einem Detektionsalgorithmus B auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert wird, wird die Farbinformation des beobachteten Land Schaftssektors miteinbezogen. Dadurch können beispielsweise flatternde Blätter eines Baums - welche beim Datensatz des Rauchfarben-optimierten Bereichs (DSo-s) als möglicher Rauch, Russ und/oder Feuer identifiziert wurde - als Fehlalarm identifiziert. Demzufolge wird das Verfahren mit Schritt i) weitergeführt.

In einem weiteren, optionalen Schritt iii) wird, falls der analysierte Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) und/oder der Datensatz des Rauchfarben-optimierten Bereichs (DSo-s) Anzeichen für Rauch, Russ und/oder Feuer (Fo-c?, Fo-s?) aufweist, das kalibrierte 3D-Geländemodell (3D-GM) mit in die Analyse (F3D-GM?) einbezogen.

In einem nächsten Schritt iv) wird, falls der analysierte Datensatz mit Farbinformation (DSo-c) weiterhin auf die Anwesenheit von Rauch, Russ und/oder Feuer (Fo-c?) hinweist, der Landschaftssektor, oder einen Ausschnitt davon - d.h. insbesondere den oder die Ausschnitte mit Hinweis auf Rauch, Russ und/oder Feuer - während mindestens zwei weiteren, zeitlich versetzten, Belichtungsperioden (Li, L2, Ln) belichtet und die dadurch erhaltenen Roh-Datensätze zu Datensätzen für den Rauchfarben-optimierten Bereich (DSi-s, DS2-S, DSn-s) berechnet und bevorzugt unter Einbezug von mindestens einem Detektionsalgorithmus A analysiert.

In einem weiteren Schritt v) werden die unter Schritt iii) erhaltenen Datensätze für den Rauchfarben-optimierten Bereich (DSi-s, DS2-S, DSn-s) von mindestens zwei zeitlich versetzten Belichtungen unter Einbezug von mindestens einem weiteren Detektionsalgorithmus C analysiert (calc (t)). Hierzu können optional noch weitere Eingaben in die Berechnung einfliessen, wie beispielsweise Wetterdaten (WD) und/oder spezifische Inputs eines Operators, d.h. einer Überwachungsperson, - wie interaktives Anpassen an den Waldbrand-Index bei speziell erhöhter Waldbrandgefahr. Dabei umfasst der Detektionsalgorithmus C ganz besonders bevorzugt ein Berechnungsmodell C für den Farbbereich und zur Überprüfung der Anwesenheit von nicht-brennbaren Objekten und/oder Ereignissen, wie beispielsweise Wolken, Schatten, Wald, Bäume und/oder Blätter, Gebäude, Strassen, Gewässer, Schnee und/oder Gletscher, Felsen und/oder Verkehr. Dabei ist das Berechnungsmodell C für das maschinelle Lernen und zur Analyse des Detektionsalgorithmus C geeignet und ermöglicht u.a. das Detektieren von Rauch in Talkesseln bei Hochdruckeinfluss.

Indem mindestens zwei weitere, zeitlich versetzte Datensätze für den Rauchfarben-optimierten Pixel-Bereich (DSi-s, DS2-S, DSn-s) erstellt und unter Einbezug von mindestens einem Detektionsalgorithmus A auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert werden, werden zeitlich versetzte Informationen des gleichen Landschaftssektors, oder eines Ausschnitts davon, bereitgestellt. Durch die Analyse der zeitlich versetzten Datensätze DSi-s, DS2-S, DSn-s mittels mindestens einem Detektionsalgorithmus C werden die zeitversetzen Datensätze auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert (calc (t)). Denn bei Rauch, Russ und/oder Feuer verändern sich die entsprechenden Datensätze (DSi-s, DS2-s, DSn-s) in Funktion der Zeit. Denn der Unterschied der zeitlich versetzten Datensätze DSi-s, DS2-S, DSn-s einer in der Sonne glänzenden Felswand

weist ein ganz anderes Muster auf als dies bei Rauch, Russ und/oder Feuer der Fall ist.

In einem weiteren - typischerweise letzten - Schritt vi) wird - falls der analysierte Datensatz weiterhin auf die Anwesenheit von Rauch, Russ und/oder Feuer (F13-S?) hinweist - ein Operator O benachrichtigt und/oder direkt ein Alarm ausgelöst, wobei gegebenenfalls anhand mindestens einem Datensatz für den Rauchfarben-optimierten Pixel-Bereich (DSo-s, DSi-s, DS2-s, DSn-s) und/oder dem Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) ein für das menschliche Auge sichtbares Bild (P) berechnet wird.

Erfindungsgemäss wird unter den Begriffen «Datensatz für mindestens einen Rauchfarben-optimierten Pixel-Bereich (DSo-s)» und «Datensatz DSo-s» alle Datensätze DSo-s, DSi-s, DS2-S, DSn-s und DSo-s verstanden, die vor, während und nach der Analyse mit mindestens einem Detektionsalgorithmen und/oder einem Berechnungsmodell entstehen.

Die Datensätze für den Rauchfarben-optimierten Pixel-Bereich (DSo-s, DSi-s, DS2-S, DSn-s) werden bevorzugt mit einer elektronische Pixel-Farbkanal-Mischeinheit (6) und der Datenverarbeitungseinheit (3) erstellt und gegebenenfalls in der Datenverarbeitungseinheit (3) gespeichert.

Die genannten Schritte i) bis v) werden bevorzugt in der aufgeführten Reihenfolge durchgeführt, wobei auch eine andere Abfolge denkbar ist.

Indem ein Datensatz für den Rauchfarben-optimierten Pixel-Bereich (DSo-s) mittels der elektronische Pixel-Farbkanal-Mischeinheit (6) und der Datenverarbeitungseinheit (3) erstellt und unter Einbezug von mindestens einem Detektionsalgorithmus A auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert wird, können äusserst feine Unterschiede der einzelnen Pixel festgestellt werden, wodurch die Detektionsempfindlichkeit drastisch erhöht wird. Dabei umfassen die Datensätze DSo-s, DSi-s, DS2-S, DSn-s auch gewisse Farbanteile wie blau und/oder rot, obwohl manchmal auch nur von Grautönen oder - nach der Transformation in ein sichtbares Bild - von einem Schwarz-Weiss Bild die Rede ist.

Indem ein Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) erstellt und unter Einbezug von mindestens einem Detektionsalgorithmus B auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert wird, wird die Farbinformation des beobachteten Land Schaftssektors miteinbezogen. Dadurch können beispielsweise flatternde Blätter eines Baums - welche beim Datensatz des Rauchfarben-optimierten Bereichs (DSo-s) als möglicher Rauch, Russ und/oder Feuer identifiziert wurde - als Fehlalarm identifiziert. Demzufolge wird das Verfahren mit Schritt i) weitergeführt.

Indem mindestens zwei weitere, zeitlich versetzte Datensätze für den Rauchfarben-optimierten Pixel-Bereich (DSi-s, DS2-S, DSn-s) erstellt und unter Einbezug von mindestens einem Detektionsalgorithmus A auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert werden, werden zeitlich versetzte Informationen des gleichen Landschaftssektors, oder eines Ausschnitts davon, bereitgestellt. Durch die Analyse der zeitlich versetzten Datensätze DSi-s, DS2-S, DSn-s mittels mindestens einem Detektionsalgorithmus C werden die zeitversetzen Datensätze auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert (calc (t)). Denn bei Rauch, Russ und/oder Feuer verändern sich die entsprechenden Datensätze (DSi-s, DS2-s, DSn-s) in Funktion der Zeit. Und der Unterschied der zeitlich versetzten Datensätze DSi-s, DS2-S, DSn-s einer in der Sonne glänzenden Felswand weist ein ganz anderes Muster auf als dies bei Rauch, Russ und/oder Feuer der Fall ist.

Das Vergleichen von Pixeln unterschiedlicher Datensätze und das Überprüfen, ob die vorgängig erfolgte Schlussfolgerung, d.h. ob ein Hinweis auf die Anwesenheit von Rauch, Russ und/oder Feuer vorliegt, korrekt ist, wird erfindungsgemäss Plausibilitätsprüfung genannt. Eine beispielhafte Plausibilitätsprüfung umfasst das Vergleichen von Pixeln aus mindestens einem Datensatz - insbesondere von mindestens einem Roh-Datensatz - mit Farbinformation (DSo-c), d.h. ein Datensatz für mindestens ein Farbbild, mit Datensätzen - insbesondere Roh-Datensätze - für mindestens einen Rauchfarben-optimierten Bereich (DSo-s), d.h. einen Datensatz geeignet um sogenannte Schwarz-Weiss-Bilder zu generieren. Diese Plausibilitätsprüfung erfolgt bevorzugt in der Datenverarbeitungseinheit (3) und in Echtzeit und mittels Algorithmen. Sie erlaubt eine grosse Reduktion von Fehl-detektionen, was zu einer wesentlichen Abnahme von Fehlalarmen führt.

In einer bevorzugten Ausführungsform der Plausibilitätsprüfung wird der Sensor (5) mit den mindestens zwei weiteren, zeitlich versetzten Belichtungsperioden (Li, l_2, Ln) im zeitlichen Abstand von mindestens 1 Sekunde, bevorzugt von mindestens 2 Sekunden, mindestens je einmal belichtet. Als zeitlichen Abstand der Belichtungen genügen in der Regel 10 Sekunden oder weniger, insbesondere 5 Sekunden oder weniger. Die dadurch erhaltenen Roh-Datensätzen werden zu Datensätzen für den Rauchfarben-optimierten Bereich (DSi-s, DS2-S, DSn-s) berechnet und bevorzugt unter Einbezug von mindestens einem Detektionsalgorithmus A analysiert. Aufgrund des zeitlichen Abstands der Bilder können wichtige Rückschlüsse auf die Dynamik des zu beobachtenden Bereichs geschlossen werden. Denn zwei Datensätze von Rauch, Russ und/oder Feuer mit genanntem zeitlichem Abstand sind nicht identisch - dies im Gegensatz zu Datensätzen von gräulichem Fels.

In einer weiteren bevorzugten Ausführungsform erfolgt das maschinelle Lernen - unter Einsatz mindestens eines Berechnungsmodells A, B und/oder C - mittels Boosted Combined Model Classification. Dabei umfasst die Boosted Combined Model Classification bevorzugt

i) eine parameterfreie Methode zur Schätzung von Wahrscheinlichkeitsdichtefunktionen, insbesondere eine Nächste- Nachbarn-Klassifikation umfassend einen k-nächste-Nachbarn- Algorithmus (englisch: k-Nearest-Neighbor-Algohthmus (KNN)). Dieser KNN-Algo thmus wird bevorzugt zur Auswertung von statischen Ereignissen unter Einbezug kartographischer Daten verwendet; und/oder

ii) eine Gaussches-Mischungs-Modell (GMM) Analyse. Eine solche GMM Analyse wird bevorzugt zur Auswertung von dynamischen Ereignissen wie beispielsweise Wetterdaten eingesetzt.

In einer bevorzugten Ausführungsform umfasst

- der Detektionsalgorithmus A ein Kontrast-Detektionsalgorithmus und/oder ein Helligkeits-Detektionsalgorithmus,

- der Detektionsalgorithmus B ein Farb-Detektionsalgorithmus, und/oder

- der Detektionsalgorithmus C ein Kontrast-Detektionsalgorithmus, ein Helligkeits-Detektionsalgorithmus, ein Dynamik-Detektions- algorithmus zur Analyse der Rauchbewegung, ein Expansions- Detektionsalgorithmus zur Analyse der Ausbreitung des Rauchs und/oder Russ, und/oder ein Struktur-Detektionsalgorithmus zur Analyse der Struktur und der Richtung des Rauchs und/oder Russ, wobei der Detektionsalgorithmus C bevorzugt die Datensätze DSi-s, DS2-S und DSn-s in gegenseitiger Abhängigkeit, d.h. interaktiv, analysiert.

In einer anderen bevorzugten Ausführungsform umfasst das Berechnungsmodell für das maschinelle Lernen und zur Analyse des

- Detektionsalgorithmus A mindestens ein Berechnungsmodell A für den Rauchfarben-optinnierten Bereich und zur Überprüfung der

Anwesenheit von Rauch, Russ und/oder Feuer,

- Detektionsalgorithmus B mindestens ein Berechnungsmodell B für den Farbbereich und zur Überprüfung der Anwesenheit von nichtbrennbaren Objekten und/oder Ereignissen, wie beispielsweise Wolken, Schatten, Wald, Bäume und/oder Blätter, Gebäude, Strassen, Gewässer, Schnee und/oder Gletscher, Felsen und/oder

Verkehr, und/oder

- Detektionsalgorithmus C mindestens ein Berechnungsmodell C für Wetterdaten, Geographie und/oder den Rauchcharakter, wie die Bewegung, Ausdehnung und/oder Struktur des Rauchs.

In einer weiteren bevorzugen Ausführungsform werden - insbesondere zur Analyse der zeitlich versetzten Datensätze - für den Rauchfarben-optimierten Pixel-Bereich (DSi-s, DS2-S, DSn-s) unter Einsatz mindestens eines Detektionsalgorithmus C zusätzlich Wetterdaten (WD) vom zu überwachenden Landschaftssektor einbezogen, wobei die Wetterdaten (WD) gegebenenfalls mittels geeigneter weiterer Algorithmen analysiert werden. Als Wetterdaten können

i) aktuelle Wetterdaten, wie Sonneneinstrahlung, Temperatur, Windrichtung, Windstärke, Luftfeuchtigkeit, Bodenfeuchtigkeit, Niederschlag und/oder Blitzschlag; und/oder

ii) kumulierte Wetterdaten der letzten Tage oder Wochen, wie insbesondere Temperatur, Luftfeuchtigkeit, Bodenfeuchtigkeit und/oder Niederschlag

verwendet werden. Dabei sind die Wetterdaten bevorzugt Wetterdaten von dem zu überwachenden Landschaftssektor, d.h. Überwachungssektor, oder einem angrenzenden Gebiet sind. Geeignete Wetterdaten können beispielsweise online bei Wetterstationen abgerufen werden. Durch den Einbezug von Wetterdaten (WD) wird die Anzahl Fehlalarme weiter reduziert. Denn nach einer längeren Regenperiode und/oder bei Starkregen ist es unwahrscheinlich, dass ein Brandherd ausbricht. Im Zweifelsfall kann der mögliche Brandherd weiter überwacht werden, indem dass weitere Daten

gesammelt und ausgewertet werden. Die Verwendung von Wetterdaten -insbesondere von lokalen Wetterdaten - im erfindungsgemassen Verfahren ist insbesondere hilfreich zur Lokalisation eines Brandherds unter Einbezug des 3D-Geländemodell (3D-GM), wenn sich dieser in einem für die Sensoreinheit nicht sichtbaren Bereich wie in Tälern und/oder auf der Rückseite von Hügeln und Bergen befindet.

Das 3D-Geländemodell

In einer ganz bevorzugten Ausführungsform des erfindungsgemassen Verfahrens und des erfindungsgemassen Systems wird zur Analyse mindestens eines Detektionsalgorithmus A, B und/oder C, und/oder zur Analyse mindestens eines Berechnungsmodells A, B und/oder C, ein kalibriertes 3D-Geländemodells (3D-GM) hinzugezogen.

Das manuelle Erstellen von 3D-Geländemodellen eines beschränkten sichtbaren Gebiets ist bekannt und wird für das Naturgefahrenmanagement anhand von Schrägbildern von Naturgefahrenereignissen, welche in grosser Anzahl in Archiven zur Verfügung stehen, durchgeführt. Die Methodik wird u.a. in Applied Geography 63 (1015) 315-325 und in Schweiz Z Forstwes 164 (2013) 7: 173-180 sowie in den dort zitierten Referenzen beschrieben. Dabei werden frühere Ereignisse untersucht, die mittels Vergleich von z.T. jahrzehntealten Bildern mit aktuellen Bildern erhalten werden. Dazu wird ein 3D-Geländemodell des früheren Gebiets erstellt und mit einem weiteren SD-Geländemodell des gleichen, jedoch aktuellen Gebiets verglichen. Daraus kann ein «früher/jetzt» Vergleich abgeleitet werden und es werden Geländeveränderungen sichtbar, die beispielsweise durch Felsstürze oder Murgänge entstanden sind. Dabei erstreckt sich das 3D-Geländemodell nur auf einen distanznahen und von der Kamera aus sichtbaren Bereich. Nicht erwähnt ist das automatische Erstellen von 3D-Geländemodellen von

wesentlich grösseren Gebieten mit einer Geländetiefe von beispielsweise 40 km und mehr, welches auch Gebiete umfassen kann, die hinter Bergen und Hügeln liegen und somit vom Standpunkt der Kamera unsichtbar sind. Das Generieren eines 3D-Geländemodells für eine nachfolgende Bild- oder Pixelanalyse in Echtzeit, für den Einsatz in einem Verfahren zur automatischen Früherkennung von Brandherden mit erhöhter Erkennungssicherheit von Ereignissen wie Rauch, Russ und/oder Feuer sowie das Auslösen eines Alarms im Ereignisfall wird weder erwähnt noch nahegelegt.

Das kalibrierte 3D-Geländemodell (3D-GM) wird vorteilhafterweise erhalten, indem

i) der Sensor (5) georeferenziert wird, und somit die Höhe, der Koordinaten-Standort sowie die Neigungs- und Azimutwinkel des Sensors (5) für den jeweiligen Überwachungssektor exakt bestimmt wird,

ii) die Pixel des Sensors (5) eines ersten Roh-Datensatzes einer ersten Belichtungsperiode (U) zum jeweiligen Überwachungssektor des Geländes mittels geeigneter Algorithmen unter Einbezug der Neigungs- und Azimutwinkel des Sensors (5) zugeordnet und so die Pixel des Sensors (5) kalibriert werden, wodurch ein 2D-Gelände-kalibrierter Roh-Datensatz des Überwachungssektors erhalten wird sowie gegebenenfalls Speichern des 2D-Gelände-kalibrierten Roh-Datensatzes in der Datenverarbeitungseinheit (3),

iii) der 2D-Gelände-kalibrierte Roh-Datensatzes des Überwachungssektors mit einem 3D-GIS-Geländedatensatz des gleichen Geländes mittels geeigneten Algorithmen verrechnet wird, wodurch ein kalibriertes 3D-Geländemodell (3D-GM) erhalten wird, bei welchem die Pixel des Sensors (5) mit dem vom Standort des Sensors (5) aus sichtbaren Gebiet des 3D-GIS- Geländedatensatz korrelieren sowie gegebenenfalls Speichern

des kalibriertes 3D-Geländemodells (3D-GM) in der Datenverarbeitungseinheit (3).

Überraschenderweise ist kein Abgleich mit einer externen Datenbank notwendig und die Datenauswertung in der Datenverarbeitungseinheit (3) erfolgt bevorzugt in Echtzeit, d.h. in einigen Sekunden oder weniger. Zudem ist in aller Regel keine Einflussnahme einer Person, d.h. eines Operators, insbesondere zu einem Vergleich der Daten, notwendig. Jedoch möglich. Sofern die definierten Kriterien für das zu beobachtende Ereignis wie Rauch, Russ und/oder Feuer gegeben sind, wird ein Alarm ausgelöst, wobei dazu kein Datenbankabgleich notwendig ist. Somit kann innerhalb kürzester Zeit, beispielsweise innerhalb von einigen Sekunden oder weniger nachdem das Ereignis beobachtet wurde, ein Alarm ausgelöst werden.

In einer besonders bevorzugten Ausführungsform wird zur Erstellung des 2D-Gelände-kalibrierten Roh-Datensatzes des Überwachungssektors ein Koordinatennetz über den Überwachungssektor berechnet und die dadurch erhaltenen einzelnen Koordinaten-Bereiche des Überwachungssektors werden den einzelnen Pixeln oder Pixel-Bereichen des Sensors (5) zugeordnet.

Dabei werden die Koordinaten-Bereiche des Überwachungssektors und/oder die Anzahl Pixel des Sensors (5) vorteilhafterweise so gewählt, dass die einzelnen Koordinaten-Bereiche des Überwachungssektors eine Fläche von 100 x 100 m, insbesondere eine Fläche von 30 x 30 m, nicht übersteigt. Dabei stellt die Fläche eine zweidimensionale Fläche einer kartografischen Karte dar. Dadurch entsteht ein 3D-Geländemodells (3D-GM) mit Informationen der GIS-Daten wie auch von kartographischen Daten. Dadurch werden u.a. statische, brennbare Objekte wie Wald oder Bäume - und somit auch Blätter von Bäumen, wie auch nicht-brennbare Objekte wie Gebäude, Strassen, Gewässer, Felsen, Verkehr, Schnee und/oder Gletscher erkannt. Falls nun ein Hinweis auf Rauch, Russ und/oder Feuer von einem nicht-brennbaren Objekt kommt, deutet dies auf einen Fehlalarm hin und er kann näher untersucht oder ignoriert werden. Zudem werden Information zu den Gebieten hinter einem Hügelzug oder einer Bergkette liegen.

In einer weiteren bevorzugten Ausführungsform werden zur Verrechnung und Kalibrierung des 3D-Geländemodells (3D-GM) im 2D-Gelände-kalibrierten Roh-Datensatz und im 3D-GIS-Geländedatensatzes pro Überwachungssektor mindestens je 4, bevorzugt mindestens je 6, identische, exakt definierte Passpunkte ausgewählt. Dabei werden die Passpunkte des 2D-Gelände-kalibrierten Roh-Datensatzes bei der Berechnung des 3D-Geländemodells (3D-GM) mit den Passpunkten des 3D-GIS-Geländedatensatzes mittels geeigneter Algorithmen in Übereinstimmung gebracht. Als Passpunkte werden bevorzugt Objekte und Bauten wie Gebäude, Strassen, Sendetürme, Brunnen, Gipfelkreuze, freistehende Bäume und/oder markante Felsen ausgewählt. Durch die Verrechnung und Kalibrierung des 3D-Geländemodells (3D-GM) mit Passpunkten erhöht sich die Übereinstimmung mit dem vom Sensor (5) erstellten Datensatz deutlich.

Für die Datensätze für die Rauchfarben-optimierten Pixel-Bereiche (DSo-s, DSi-s, DS2-S, DSn-s) und für der Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) wird vorteilhafterweise Licht innerhalb des Wellenlängenbereichs von 350 bis 1 100 nm, bevorzugt innerhalb von 400 bis 1000 nm, verwendet.

Die Datensätze für die Rauchfarben-optimierten Pixel-Bereiche (DSo-s, DSi-s, DS2-S, DSn-s) werden zudem vorteilhafterweise erhalten, indem die während der Belichtungsperioden ( , Li, L2, Ln) des Sensors (5) erhaltenen Roh-Datensätze mit Farbpixeln anhand der elektronischen Pixel-Farbkanal-Mischeinheit (6) in Datensätze für Rauchfarben-optimierten Pixel-Bereiche (DSo-s, DSi-s, DS2-S, DSn-s) umgewandelt werden, indem die Intensität mindestens eines Farbkanals verstärkt, und die Intensität von mindestens zwei Farbkanälen reduziert wird, um die resultierenden Mischfarben der Rauchfarben-optimierten Pixel-Bereiche als Grauton-ähnliche Farben darzustellen, wobei bevorzugt die Intensität eines Farbkanals mindestens die doppelte Intensität der beiden Farbkanäle aufweist, die die niedrigste Intensität aufweisen. Mit anderen Worten: Werden beispielsweise die drei RGB-Farbkanäle verwendet, werden die Farbkanäle so verändert, dass einer der RGB-Farbkanäle mindestens die doppelte Intensität der beiden anderen Farbkanäle - jeweils einzeln gemessen - aufweist.

In einer bevorzugten Ausführungsform des erfindungsgemässen Verfahrens erfolgt die Analyse der Datensätzen im erfindungsgemässen Verfahren und im erfindungsgemässen System erfolgt bevorzugt mit den durch den Sensor (5) erhaltenen Pixeln, und somit den Roh-Datensätzen. Mit anderen Worten: Als Roh-Daten werden bevorzugt die Daten des Sensorinhalts, d.h. der im Sensor (5) vorhandenen Photodioden, verwendet, bevor sie beispielsweise mittels elektronischer Pixel-Farbkanal-Mischeinheit (6) verändert werden. Überraschenderweise wird dadurch für die Detektion von Rauch, Russ und/oder Feuer keine «Density» des Ereignisses benötigt. Somit muss das Ereignis für das menschliche Auge nicht sichtbar sein und kann trotzdem detektiert werden, was eine wesentlich frühere Detektion erlaubt.

Die Sensoreinheit (2)

Mit der Sensoreinheit (2) des erfindungsgemässen Verfahrens und des erfindungsgemässen Systems (1 ) wird Licht vom zu überwachenden Landschaftssektor durch das Objektiv (4) auf den Sensor (5) geleitet, wo es in den im Sensor (5) enthaltenen Photodioden in Datensätzen gesammelt und gegebenenfalls gespeichert wird.

Die Sensoreinheit (2) umfasst mindestens ein Objektiv (4) und mindestens einen Sensor (5), wobei mindestens ein Sensor (5) ein Farbsensor (5-1 ) ist, mit welchem Datensätze im Graubereich, und somit im Rauchfarben-optimierten Pixelbereich, erhalten werden.

Als Objektiv (4) können kommerziell erhältliche Objektive für Video-, Film-und/oder Fotokameras eingesetzt werden. Die Brennweite des Objektivs wird typischerweise nach dem zu überwachenden Gelände ausgewählt. Werden kürzere Distanzen und/oder ein Landschaftssektor mit grossem Winkel überwacht, sind in der Regel Weitwinkel Objektive geeignet. Sollen jedoch längere Distanzen in Landschaftssektoren mit typischerweise kleinem Winkel überwacht werden, sind in der Regel Teleobjektive geeignet. Dem Fachmann ist bekannt, welches Objektiv er für den jeweiligen zu überwachenden Landschaftssektor auswählen kann.

Die Sensoreinheit (2) umfasst bevorzugt eine Blende (7), wobei die Blende (7) vor und/oder nach dem Objektiv (4) - in Bezug auf das einfallende Licht und den Sensor (5) - angeordnet sein kann. Geeignete Blenden (7) sind dem Fachmann bekannt und im Handel erhältlich. Dabei wird die Belichtungszeit vorteilhafterweise durch geeignete elektronische Steuerung der Belichtungszeit des Sensors (5) geregelt. Vorteilhafterweise weist die Blendenöffnung der Blende (7) bei den Belichtungsperioden (Lo, Li , L2, Ln) zur Erfassung der Roh-Datensätze einen Wert von f/4 oder kleiner, bevorzugt von f/5.6 oder kleiner, insbesondere von f/8 oder kleiner. Dabei kann die Blendenöffnung so gestaltet sein, dass sie variiert werden kann, oder dass sie fest eingestellt ist. Durch eine kleine Blendenöffnung wird eine höhere Tiefenschärfe erzielt, was in vielen Fällen von Vorteil ist.

Die Sensoreinheit (2) besitzt vorteilhafterweise keinen Filter für Wellenlängen im Infrarot- (IR-) und/oder Nahinfrarot- (NIR-) Bereich. Somit umfasst die

Sensoreinheit (2) bevorzugt ein Objektiv (4) mit Blende (7), jedoch ohne NIR-und/oder IR-Filter.

Die Sensoreinheit (2) umfasst typischerweise mindestens einen von einem NIR- und/oder IR-Filter unterschiedlichen optischen Filter, beispielsweise einen Spektralfilter. Geeignete Filter sind dem Fachmann bekannt und im Handel erhältlich.

Die Sensoreinheit (2) umfasst mindestens einen Sensor (5), wobei der Sensor (5) ein Farbsensor (5-1 ) ist und ein gegebenenfalls weiterer Sensor (5) kann ein Schwarz-Weiss-Sensor sein. Geeignete Sensoren (5) sind dem Fachmann bekannt und kommerziell erhältlich. Bevorzugte Sensoren (5) umfassen CCD-Sensoren, insbesondere ein mindestens 2-dimensionaler CCD-Sensor, wobei CCD für „Charged Coupled Device" steht, CMOS-Sensoren, wobei CMOS für„Complementary Metal-Oxide Semiconductor" steht, Active-Pixel-Sensoren (APS), Line-Scanner-Sensoren und/oder Multispektral-Sensoren.

Die Pixelanzahl des Sensors (5) spielt überraschenderweise eine untergeordnete Rolle. So können beispielsweise Sensoren (5) mit 1000 x 1000 Pixel, bevorzugt mit mindestens 1500 x 1500 Pixel, insbesondere mit mindestens 2000 x 2000 Pixel eingesetzt werden.

Die im Farbsensor (5-1 ) bei der Belichtung erhaltenen Datensätze werden bevorzugt in Form von mindestens 3 unterschiedlichen Farbkanälen, insbesondere mittels RGB-Farbkanälen, vom Sensor (5) zur elektronischen Pixel-Farbkanal-Mischeinheit (6) und anschliessend zur Datenverarbeitungseinheit (3) weitergeleitet. Die Datensätze für die Rauchfarben-optimierten Pixel-Bereiche (DSo-s, DSi-s, DS2-S, DSn-s) werden in aller Regel unter Einbezug der Pixel-Farbkanal-Mischeinheit (6), der Daten-

Verarbeitungseinheit (3) sowie mindestens eines Detektionsalgorithmus C berechnet.

Die im Sensor (5), insbesondere im Farbsensor (5-1 ), durch die Belichtung mit Licht (hv) während der Belichtungszeit erhaltenen Datensätze sind geeignet um ein Farbbild und/oder ein Rauchfarben-optimiertes Bild, d.h. ein sogenanntes Schwarz-Weiss-Bild, zu erhalten.

Die im Sensor (5) erhaltenen Datensätze werden typischerweise als Rohdaten zur Datenverarbeitungseinheit (3) weitergeleitet, wobei die Weiterleitung bevorzugt zuerst über die elektronische Pixel-Farbkanal-Mischeinheit (6) und anschliessend zur Datenverarbeitungseinheit (3) erfolgt.

Die Datenverarbeitungseinheit (3)

Die Datenverarbeitungseinheit (3) des erfindungsgemässen Verfahrens und des erfindungsgemässen Systems (1 ) dient zur Verarbeitung der Daten, insbesondere zur Verarbeitung der beim Sensor (5) gemessenen Datensätze.

Die Datenverarbeitungseinheit (3) kann eine oder mehrere Datenverarbeitungseinheiten umfassen, wobei letztere am gleichen Ort oder an unterschiedlichen Orten angeordnet sein können. Die Datenverarbeitungs-einheit (3) - oder ein Teil davon - kann neben der Sensoreinheit (2) angebracht sein oder sie kann sich an einem von der Sensoreinheit (2) unterschiedlichen Ort befinden.

Hilfreicherweise umfasst die Datenverarbeitungseinheit (3) mindestens einen Prozessor, mindestens ein Datenkommunikationsmodul, insbesondere eine Internet- und/oder Kabelschnittstelle, eine Antenne, einen Transceiver, einen Satellitenanschluss und/oder eine Telefon-Schnittstelle, mindestens eine Stromquelle, insbesondere ein Stromnetzanschluss, eine Batterie, einen Akku, ein Photovoltaikmodul, einen Windgenerator und/oder eine Brennstoffzelle. Dabei ist das Datenkommunikationsmodul bevorzugt geeignet, um Daten, insbesondere Datensätze, von der Sensoreinheit (2) und/oder der elektronischen Pixel-Farbkanal-Mischeinheit (6) zu empfangen und gegebenenfalls wieder zurück zu senden. Geeignete Datenverarbeitungseinheiten (3) sind dem Fachmann bekannt und kommerziell erhältlich.

Die elektronische Pixel-Farbkanal-Mischeinheit (6)

Die elektronische Pixel-Farbkanal-Mischeinheit (6) des erfindungsgemässen Verfahrens und des erfindungsgemässen Systems (1 ) empfängt Daten, insbesondere Datensätze, von der Sensoreinheit (2) und leitet diese nach Verarbeitung weiter zur Datenverarbeitungseinheit (3). Auch kann sie von der Datenverarbeitungseinheit (3) Daten empfangen und gegebenenfalls an die Sensoreinheit (2), beispielsweise den Sensor (5), weiterleiten.

Die eingesetzte elektronische Pixel-Farbkanal-Mischeinheit (6), auch Farbmisch- und Verstärkereinheit (6) genannt, des erfindungsgemässen Verfahrens und des erfindungsgemässen Systems (1 ) dient insbesondere zur Verarbeitung der von der Sensoreinheit (2), bevorzugt vom Sensor (5), insbesondere vom Farbsensor (5-1 ), erhaltenen Datensätze. Die Verarbeitung erfolgt bevorzugt zu Rauchfarben-optimierten Datensätzen im Pixel-Bereich (DSo-s, DSi-s, DS2-S, DSn-s). Diese werden unter Einbezug von mindestens einem Detektionsalgorithmus A und mittels der Datenverarbeitungseinheit (3) auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert.

Die elektronische Pixel-Farbkanal-Mischeinheit (6) ist vorteilhafterweise als Software auf einem Datenträger gespeichert. Der Datenträger kann Teil der Datenverarbeitungseinheit (3) und/oder einen separaten Chip darstellen, welcher beispielsweise bei der Sensoreinheit (2) angeordnet sein kann.

Die elektronische Pixel-Farbkanal-Mischeinheit (6) kann zudem bevorzugt jeden Farbkanal der vom Sensor (5) erhaltenen Roh-Datensätze für jeden Farbkanal separat empfangen und/oder separat verarbeiten.

Geeignete elektronische Farbmisch- und Verstärkereinheiten (6) sind dem Fachmann bekannt und kommerziell erhältlich.

Das System (1 )

Das erfindungsgemässe System (1 ) wird bevorzugt im erfindungsgemässen Verfahren zur automatischen Früherkennung von Ereignissen wie Rauch, Russ und/oder Feuer mit erhöhter Erkennungssicherheit - und bevorzugt exakter Ortsbestimmung eines Brandherds - eingesetzt und ermöglicht das Detektieren von Licht des zu überwachenden Landschaftssektor, das Sammeln der dabei erhaltenen Datensätze sowie die elektronische Verarbeitung der Datensätze um gegebenenfalls Alarm auszulösen.

Das System (1 ) umfasst eine Sensoreinheit (2), die Datenverarbeitungs-einheit (3) und die elektronische Pixel-Farbkanal-Mischeinheit (6) zur Verarbeitung von vom Sensor (5), insbesondere vom Farbsensor (5-1 ), erhaltenen Datensätze, wobei bevorzugt jeder Farbkanal des Farbsensors (5-1 ) separat zugemischt werden kann.

Die Sensoreinheit (2) des erfindungsgemässen Systems (1 ) umfasst bevorzugt i) mindestens ein Objektiv (4) mit Blende (7) und insbesondere ohne NIR- und/oder IR-Filter, ii) mindestens einen Sensor (5), wobei mindestens ein Sensor (5) ein Farbsensor (5-1 ) und gegebenenfalls ein weiterer Sensor (5) ein Schwarz-Weiss-Sensor ist, und iii) gegebenenfalls mindestens einen von einem NIR- und/oder IR-Filter unterschiedlichen optischen Filter. Ein solcher ist insbesondere vorteilhaft, falls beispielsweise die Sensoreinheit (2) einen Schwarz-Weiss-Sensor umfasst.

Auf der Datenverarbeitungseinheit (3) des erfindungsgemässen Systems (1 ) ist zudem mindestens ein Berechnungsmodell A, B und/oder C zum maschinellen Lernen, insbesondere zum maschinellen Lernen mittels Boosted Combined Model Classification, eine parameterfreie Methode zur Schätzung von Wahrscheinlichkeitsdichtefunktionen, insbesondere eine Nächste-Nachbarn-Klassifikation umfassend einen k-nächste-Nachbarn-Algorithmus, und/oder eine Gaussches-Mischungs-Modell (GMM) Analyse gespeichert.

In einer bevorzugten Ausführungsform des Systems (1 ) und des Verfahrens ist auf der Datenverarbeitungseinheit (3) von dem zu überwachenden Landschaftssektors ein kalibriertes 3D-Geländemodell (3D-GM) gespeichert, wobei das 3D-Geländemodell (3D-GM) erhalten wird durch Verrechnung des 2D-Gelände-kalibrierten Roh-Datensatzes des Überwachungssektors mit einem 3D-GIS-Geländedatensatz mit geeigneten Passpunkten des gleichen Geländes, sowie gegebenenfalls Wetterdaten (WD) zum zu überwachenden Landschaftssektor, auf der Datenverarbeitungseinheit (3) gespeichert und/oder online abrufbar sind.

In einer bevorzugten Ausführungsform des Systems (1 ) und des erfindungsgemässen Verfahrens

- weist die Blende (7) des Objektivs (4) eine Blendenöffnung mit einem Wert von f/4 oder kleiner, bevorzugt von f/5.6 oder kleiner, insbesondere von f/8 oder kleiner, auf,

- beträgt die Belichtungszeit mindestens 0.2 Sekunden, bevorzugt mindestens 0.5 Sekunden, insbesondere mindestens 1 Sekunde. Die Belichtungszeit beträgt in der Regel nicht mehr als 10 Sekunden, insbesondere nicht mehr als 5 Sekunden. Dabei wird die Belichtungszeit bevorzugt elektronisch gesteuert, und/oder

- ist die Sensoreinheit (2) auf einer drehbaren Vorrichtung angeordnet und einen Landschaftssektor von einem Winkel von 2 bis 30°, bevorzugt einem Winkel von 5 bis 20°, abdeckt, wobei die Sensoreinheit (2) auf der drehbaren Vorrichtung bevorzugt bis zu 360° drehbar ist.

Aufgrund der drehbaren Vorrichtung kann das von der Sensoreinheit (2) sichtbare Gelände bis zu einer Distanz von etwa 40 km überwacht werden. Dabei wird das zu überwachende Gelände durch die drehbare Vorrichtung typischerweise in verschiedene zu überwachende Landschaftssektoren eingeteilt, welche die Sensoreinheit (2) in typischerweise definierter Reihenfolge auf das zu untersuchende Ereignis hin untersucht. Dabei deckt ein Landschaftssektor vorteilhafterweise einen Winkel von 2 bis 30°, bevorzugt einen Winkel von 5 bis 20°, ab.

Die Verwendung

Das erfindungsgemässe Verfahren und das erfindungsgemässe System (1 ) finden überraschenderweise eine vielseitige Anwendung.

Eine ganz besonders bevorzugte Verwendung umfasst die automatische Früherkennung von Ereignissen wie Rauch, Russ, Feuer und/oder Bränden wie Waldbrände, die Reduktion von Fehlalarmen, insbesondere bei Waldbranderkennungssystemen, die von nicht-brennbaren Orten wie Felsen, Strassen und/oder Gewässer, und/oder von nicht-brennbaren Ereignissen wie Wolkenschatten, Staubwolken, Vogelschwärmen, Luftverschmutzung sowie von Fahr- und/oder Flugobjekten herrühren können; die Erhöhung der Erkennungssicherheit von Ereignissen; sowie die geologische Überwachung von geologisch kritischen Regionen, insbesondere bei Gefahr eines Fels-und/oder Eisabbruchs, eines Felssturzes und/oder eines Erdrutsches.

Im Folgenden werden nicht-limitierende, bevorzugte Ausführungsformen des erfindungsgemässen Verfahrens anhand der nachfolgenden Zeichnungen beschrieben. Diese sind nicht einschränkend auszulegen und werden als Bestandteil der Beschreibung verstanden:

Fig. 1 zeigt eine beispielhafte Ausführungsform der Sensoreinheit (2) des erfindungsgemässen Verfahrens und des erfindungsgemässen

Systems (1 ) umfassend ein Objektiv (4), eine optionale Blende (7), einen Sensor (5), eine elektronische Pixel-Farbkanal-Mischeinheit (6) sowie eine Datenverarbeitungseinheit (3).

Während einer Belichtungsperiode (Lo) gelangt Licht (hv) durch das Objektiv (4) und durch die optionale Blende (7) zum Sensor (5), d.h. zum Farbsensor (5-1 ). Das Licht (hv) wird im Sensor (5) mittels Farbpixeln detektiert und - typischerweise ohne Transformation - in den einzelnen RGB-Kanälen zur elektronischen Pixel-Farbkanal- Mischeinheit (6) sowie zur Datenverarbeitungseinheit (3) weitergeleitet. Ist die Analyse der erhaltenen Datensätze abgeschlossen, werden die Resultate im Fall eines klaren Hinweises auf Rauch, Russ und/oder Feuer zum Operator (O) weitergeleitet. Dabei können optional die Datensätze vorher noch in für das menschliche Auge sichtbare Bilder (P) umgewandelt werden, wobei typischerweise aus mindestens einem Rauchfarben-optimierten Pixel-Bereich (DSo-s, DSi-s, DS2-s, DSn-s) ein Bild mit

vorherrschenden Grautönen, erfindungsgemäss auch Schwarz-Weiss Bild genannt, als auch aus dem Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) ein Farbbild generiert wird.

zeigt eine beispielhafte Ausführungsform des erfindungsgemässen Verfahrens zur automatischen Früherkennung und genauer Ortsbestimmung von Ereignissen wie Rauch, Russ und/oder Feuer mit erhöhter Erkennungssicherheit. Hierzu wird der Sensor (5), welcher ein Farbsensor (5-1 ) ist, während mindestens einer Belichtungsperiode (U) mit Licht (hv) von einem zu überwachenden Landschaftssektor belichtet. Pro Belichtungsperiode (Lo) wird mittels der elektronischen Pixel-Farbkanal-Mischeinheit (6) und der Datenverarbeitungseinheit (3) (nicht dargestellt) ein Datensatz für mindestens einen Rauchfarben-optimierten Pixel-Bereich (DSo-s) berechnet und der erhaltene Datensatz DSo-s unter Einbezug von mindestens einem Detektionsalgorithmus A auf die Anwesenheit von Rauch, Russ und/oder Feuer analysiert, wobei der dadurch resultierende Datensatz ebenfalls mit DSo-s dargestellt ist. Als Detektionsalgorithmus A wird vorteilhafterweise ein Kontrast-Detektionsalgorithmus und/oder ein Helligkeits-Detektions-algorithmus verwendet.

Der Detektionsalgorithmus A umfasst ein Berechnungsmodell A für das maschinelle Lernen (ML), wobei das Berechnungsmodell A bevorzugt für den Rauchfarben-optimierten Bereich und zur Überprüfung der Anwesenheit von Rauch, Russ und/oder Feuer geeignet ist. Damit können entsprechende Ereignisse wie Rauch, Russ, Feuer und/oder Wolken mit jedem Analysezyklus besser und besser charakterisiert werden. Dabei erfolgt das maschinelle Lernen bevorzugt mittels Boosted Combined Model Classification.

Weist der so analysierte Datensatz für den Rauchfarben-optimierten Bereich (DSo-s) keine Anzeichen für Rauch, Russ und/oder Feuer

(Fo-s?) auf, wird - gegebenenfalls mit einer Verzögerung - ein gleicher oder ein anderer Landschaftssektor belichtet, um diesen erneut auf die Anwesenheit von Rauch, Russ und/oder Feuer zu belichten. Weist der analysierte Datensatz für den Rauchfarben-optimierten Bereich (DSo-s) auf Rauch, Russ und/oder Feuer (Fo-s?) hin, wird in einem weiteren Schritt anhand des Roh-Datensatzes mit den Farbpixeln, oder einem Ausschnitt des Roh-Datensatzes -insbesondere derjenige Ausschnitt welcher auf die Anwesenheit von Rauch, Russ und/oder Feuer hinweist - ein Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) berechnet und unter Einbezug von mindestens einem weiteren Detektionsalgorithmus B analysiert, wobei der dadurch resultierende Datensatz ebenfalls mit DSo-c dargestellt ist. Als Detektionsalgorithmus B wird bevorzugt ein Farb-Detektionsalgorithmus verwendet.

Der Detektionsalgorithmus B umfasst ein Berechnungsmodell B (nicht dargestellt) für das maschinelle Lernen (ML), wobei das Berechnungsmodell B bevorzugt für den Farbbereich und zur Überprüfung der Anwesenheit von nicht-brennbaren Objekten und/oder Ereignissen umfasst, wie beispielsweise Wolken, Schatten, Wald, Bäume und/oder Blätter, Gebäude, Strassen, Gewässer, Schnee und/oder Gletscher, Felsen und/oder Verkehr. Damit können entsprechende Ereignisse wie Fahrzeuge, Wälder, Bäume, Gewässer etc. mit jedem Analysezyklus besser und besser charakterisiert werden. Dabei erfolgt das maschinelle Lernen bevorzugt mittels Boosted Combined Model Classification.

Weist der so analysierte Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) keine Anzeichen für Rauch, Russ und/oder Feuer (Fo-s?) auf - beispielsweise wenn der Hinweis des Rauchfarben-optimierten Bereichs (DSo-s) aufgrund von im Wind flatternder Blätter zustande kam, welche im Datensatz mit Farbinformation erkannt

werden können - wird erneut ein gleicher oder ein anderer Landschaftssektor belichtet.

Wenn der analysierte Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) und/oder der Datensatz des Rauchfarben-optimierten Bereichs (DSo-s) Anzeichen für Rauch, Russ und/oder Feuer (Fo-c?, Fo-s?) aufweist, wird bevorzugt das kalibrierte SD-Geländemodell (3D-GM) mit in die Analyse (F3D-GM?) einbezogen. Dadurch können beispielsweise Hinweise auf Rauch, Russ und/oder Feuer in der Mitte eines Sees oder Gletschers ausgeschlossen werden.

Ist dies nicht der Fall - oder wird kein 3D-Geländemodell zur Beurteilung hinzugezogen (mit gestrichelter Verbindung dargestellt) - und weist der analysierte Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) Anzeichen für Rauch, Russ und/oder Feuer (Fo-s?) auf, wird der Landschaftssektor, oder ein Ausschnitt davon, d.h. der in Frage kommende Ausschnitt - während mindestens zwei weiteren, zeitlich versetzten, Belichtungsperioden (Li, L2, Ln) belichten und die dadurch erhaltenen Roh-Datensätzen zu Datensätzen für den Rauchfarben-optimierten Bereich (DSi-s, DS2-S, DSn-s) berechnet und bevorzugt unter Einbezug von mindestens einem Detektionsalgorithmus A analysiert.

Die so erhaltenen und analysierten Datensätze für den Rauchfarben-optimierten Bereich (DSi-s, DS2-S, DSn-s) von mindestens zwei zeitlich versetzten Belichtungen werden nachfolgend unter Einbezug von mindestens einem weiteren Detektionsalgorithmus C analysieren (calc (t)). Als Detektionsalgorithmus C wird bevorzugt ein Kontrast-Detektionsalgorithmus, ein Helligkeits-Detektions-algorithmus, ein Dynamik-Detektionsalgorithmus zur Analyse der Rauchbewegung, ein Expansions-Detektionsalgorithmus zur Analyse der Ausbreitung des Rauchs und/oder Russ, und/oder ein Struktur-Detektionsalgorithmus zur Analyse der Struktur und der

Richtung des Rauchs und/oder Russ verwendet. Dabei können ein oder mehrere Detektionsalgorithmen eingesetzt werden. Auch ist es vorteilhaft, wenn der oder die Detektionsalgorithmen C bevorzugt die Datensätze DSi-s, DS2-S und DSn-s in gegenseitiger Abhängigkeit, d.h. interaktiv, analysiert. Zur Analyse und Berechnung (calc (t)) der Datensätze (DSi-s, DS2-S, DSn-s) können optional aktuelle Wetterdaten (WD), wie Sonneneinstrahlung, Temperatur, Windrichtung, Windstärke, Luftfeuchtigkeit, Bodenfeuchtigkeit, Niederschlag und/oder Blitzschlag; und/oder kumulierte Wetterdaten (WD) der letzten Tage oder Wochen, wie insbesondere Temperatur, Luftfeuchtigkeit, Bodenfeuchtigkeit und/oder Niederschlag hinzugezogen werden. Auch kann zur Analyse und Berechnung (calc (t)) der Datensätze (DSi-s, DS2-S, DSn-s) der Operator optional einen Input geben, beispielsweise interaktives Anpassen der Berechnungsparameter an den Waldbrand-Index bei speziell erhöhter Waldbrandgefahr.

Der Detektionsalgorithmus C umfasst ein Berechnungsmodell C für das maschinelle Lernen (ML), wobei das Berechnungsmodell C mindestens ein Berechnungsmodell C für Wetterdaten, Geographie und/oder den Rauchcharakter, wie die Bewegung, Ausdehnung und/oder Struktur des Rauchs, umfasst. Damit kann unter anderem auch Rauch bei Hochdruckeinfluss in Talkesseln mit grosser Sicherheit detektiert werden. Dabei erfolgt das maschinelle Lernen bevorzugt mittels Boosted Combined Model Classification.

Weisen die so analysierten Datensätze DSi-s, DS2-S und DSn-s keine Anzeichen für Rauch, Russ und/oder Feuer (Fo-s?) auf, beginnt das Verfahren wieder von vorne und es wird erneut ein gleicher oder ein anderer Landschaftssektor belichtet.

Falls der analysierte Datensatz jedoch weiterhin auf die Anwesenheit von Rauch, Russ und/oder Feuer (F13-S?) hinweist, wird ein Operator O benachrichtigt und/oder ein Alarm ausgelöst. Dabei kann

gegebenenfalls anhand mindestens einem Datensatz für den Rauchfarben-optimierten Pixel-Bereich (DSo-s, DSi-s, DS2-S, DSn-s) und/oder dem Datensatz mit Farbinformation im Pixel-Bereich (DSo-c) ein für das menschliche Auge sichtbare Bild (P) berechnet werden.