Multisensordatenfusion: Grundlagen und Anwendungen

Zurück

Zielsetzung

Das Training bietet einen umfassenden Überblick über das Themengebiet Datenfusion aus multiplen Sensorquellen und ihre Anwendungen z. B. im Luftfahrt-, Automotive- und Robotikbereich.

Dabei behandelt das Training Sensormodellierung, Sensordatenverarbeitung, moderne Tracking-Verfahren, Architektur von Multisensorsystemen, Einsatzbereiche, statistische und kombinatorische Verfahren sowie die Verarbeitung unscharfen Wissens.

Die Vermittlung methodisch-algorithmischer Grundlagen und ihre Veranschaulichung durch Beispiele und Demonstrationen aus unterschiedlichen Anwendungen stehen dabei im Mittelpunkt. Das Seminar bietet Systemingenieuren eine umfassende Einführung bzw. ein Update auf den neuesten Stand der Multisensordatenfusion.

Zudem vermittelt es Entscheidungsträgern grundlegende Informationen zur Beurteilung von Multisensordatenfusionssystemen.

Hintergrundinformationen

Taktisch-operationelle Erfordernisse und moderne Kommunikationstechnik führen zu einer immer engeren Vernetzung von Überwachungssensoren und in Datenbanken abgelegtem Kontextwissen. Entscheidungsträgern steht dadurch auf allen Führungsebenen eine bislang nicht bekannte Fülle von Einzeldaten zur Verfügung. Um dieses Informationspotential nutzbar zu machen, darf die realzeitnah einströmende Datenflut die handelnden Menschen jedoch nicht überfordern. Die Datenströme sind vielmehr ebenengerecht und anwendungsbezogen zu hochwertiger Information zu fusionieren.

Als anspruchsvolle Auswertetechnologie an der Schnittstelle zwischen Sensoren, Führungs- und Informationssystemen und den handelnden Menschen besitzt die Datenfusion großes technisches Innovationspotential und eine Schlüsselstellung für alle künftigen Überwachungs- und ISR-Systeme (Intelligence, Surveillance, Reconnaissance).

Zielgruppe

Das Training richtet sich an Ingenieure, Informatiker und Naturwissenschaftler aus Industrie, Behörden, Streitkräften und Forschungseinrichtungen.

Inhalte

1.Tag, 09:00 – 17:30 Uhr

Multisensorfusion: Aufgaben, Probleme, Begriffe

  • Wissenschaftlich-technische Motivation
  • Gliederung des Arbeitsgebiets
  • JDL-Modell der Datenfusion
  • Überblick über Technologien, Methoden, Algorithmen

BAYES-Methoden

  • Grundlegende Begriffe/ Konzepte
  • Moderne Tracking-Algorithmen
  • Sensor und Objektmodellierung
  • Quantitative Performance-Evaluierung
  • Demonstrationen

Sequential-Monte-Carlo-Methoden: Particle Filter

  • Filteralgorithmen für nicht-lineare Systemgleichungen, Randbedingungen
  • Vorteile, Grenzen, Anwendungen

Passive Ziellokalisierung und -verfolgung

  • Target Motion Analysis (TMA) für Winkel- und Frequenzmessungen
  • Observabilität
  • Fehlerschranken
  • Optimale Beobachterbahnen
  • Experimente

Multisensorielle Sicherheitsassistenzsysteme

  • Personenverfolgung
  • Gefahrstoffsensorik (chemisch, radioaktiv)
  • Personenverfolgung/ -klassifikation
  • Intelligente Zugangskontrolle

2.Tag, 08:30 – 17:30 Uhr

Bildgebende Sensorik als Fusionskomponente

  • Georeferenzierung
  • Zieldetektion
  • Mustererkennung
  • Fusion mit Radardaten
  • Fusion mit ESM-Daten
  • Anwendungen

Zielverfolgung für multistatische Anwendungen

  • Verdeckte Zielaufklärung
  • Nichtkooperative Fremdbeleuchtung
  • Beispiel: Passiv Radar (DAB / DVB-T)

Assignment-Verfahren für Multisensordatenfusion

  • Assignment: Lagrange Approach
  • Elektronisch, mechanisch scannende Sensoren
  • Endliche Sensorauflösung
  • Anwendung im Bereich Video-Processing

Luftraumüberwachung: 4000*4000 km², 3000 Objekte, 50 Sensoren

  • Verfahren eines operativen Multisensor-Tracking Systems
  • Zentrale Datenfusion
  • Leistungen
  • Anforderungen, Anwendungsbeispiele

Sensordatenfusion Fahrzeugumfelderfassung

  • Besondere Aspekte der Fusion
  • Fahrerassistenz
  • Fahrerloser Transport
  • Fuzzy-Technologien

Sensordatenverarbeitung für Bodenrobotik

  • Multisensor-Tracking mit Laser-Scannern
  • Simultaneous Localization and Mapping (SLAM)
  • Multiple Robots

3.Tag, 08:30 – 16:45 Uhr

Multisensorintegrationssystem für AWACS

  • AWACS Multi Sensor System: Anforderung, Leistung
  • Architektur: Tracker/ Sensorfusion
  • Aktive/ passive Information
  • Identifikiation, Klassifikation

Ein datenbankbasiertes Higher-Level-Fusion-System zur Anomalienerkennung

  • Ein prototypisches System zur Erkennung von Anomalien im Luftverkehr anhand von Verkehrsdatenströmen

Informationsfusion für die GMTI-Bodenaufklärung

  • Luftgestütze Bodenaufklärung
  • Topographische Information
  • Sensor-/ Zielmodelle
  • Straßenziele, Konvois

Sensordatenfusion für E/O-Sensoren

  • IR Search & Track
  • ATR
  • Autonome Flugkörper
  • Zieldetektion/-verfolgung
  • Stereo
  • Fusion mit Radardaten

Sensordatenfusion für interaktive Luft- und Satellitenbildauswertung

  • Aufklärung in multisensoriellen Bilddaten
  • Bildanalyse für Screening
  • Fusion von GIS
  • 3D Analyse in Laserhöhendaten
  • Operationsplanung

Voraussetzungen

Grundkenntnisse im Bereich Sensorik und Informationsverarbeitung sind hilfreich.

Referenten

Fraunhofer FKIE, Wachtberg-Werthoven

Priv.-Doz. Dr. W. Koch; Dr-Ing M. Brötje; Dr. J. Koller; M. Mertens; M. Schikora; G. Schüller; T. Röhling; Dr. M. Ulmke

Fraunhofer IOSB, Ettlingen

R. Gabler; S. Kuny

Airbus Defence and Space, Friedrichshafen

Dr. W. Konle

Airbus Defence and Space, Ulm

Dr. F. Opitz; Dr. M. Wiedmann

Atlas Elektronik GmbH, Bremen

E. Ruthotto

FusionSystems GmbH, Chemnitz

Dr. U. Scheunert

Veranstaltungshinweise

Das Training wird von unserem Kooperationspartner Carl-Cranz-Gesellschaft e. V. (CCG) eingenständig durchgeführt.

Ort: Fraunhofer FKIE, Fraunhofer-Str. 20, 53343 Wachtberg-Werthhofen

Bei Anmeldung erhalten Sie die Bestätigung und alle weiteren Informationen von CCG. Mit Ihrer Anmeldung willigen Sie ein, dass Ihre Anmeldedaten an CCG weitergegeben werden.

Preis

1.590,- Euro (umsatzsteuerfrei)

Die Carl-Cranz-Gesellschaft als eigenverantwortlicher Veranstalter ist vom Finanzamt Fürstenfeldbruck wegen Förderung der Wissenschaft und der Bildung von den Ertragsteuern freigestellt. Die Entgelte, die die Gesellschaft für ihre Lehrveranstaltungen erhält, sind gemäß §4 Nr. 22a UStG von der Umsatzsteuer befreit.

Mitglieder der CCG erhalten 10% Rabatt. Bei Anmeldung mehrerer Mitarbeiter einer Firma / Dienststelle zum gleichen Training erhält jeder Teilnehmer 10%. Studentenrabatte sind auf Nachfrage verfügbar. Die Rabatte sind nicht miteinander kombinierbar.

Download

Download Training_Multisensordatenfusion- Grundlagen und Anwendungen

Ähnliche Trainings

Copyright ESG Elektroniksystem- und Logistik-GmbH 2018. All rights reserved.