In letzter Zeit haben modellbasierte Schätz- und Regelverfahren gegenüber klassischen datengetriebenen Verfahren, bei denen kein Modellwissen mit einbezogen wird, immer mehr an Bedeutung gewonnen. Modellbasierte Verfahren haben den Vorteil, dass durch das im Modell verankerte Systemwissen mit deutlich weniger Messungen eine deutlich genauere und aussagekräftigere Regelung und Prädiktion erfolgen kann.

Im Rahmen dieses Seminars sollen Systeme aus den Bereichen Robotik, Telepräsenz, Lokalisierung und Medizintechnik sowie Sensor-Aktor-Netzwerke und Assistenzsysteme vorgestellt werden. Für die sich bei den jeweiligen Systemen ergebenden konkreten Problemstellungen sollen dann schwerpunktmäßig Lösungsansätze mittels innovativer modellbasierter Schätz- und Regelverfahren behandelt werden.

Das Seminar richtet sich an Diplom-Studierende ab dem 5. Semester, sowie an Master-Studierende.

Zum Erwerb eines Seminarscheines müssen folgende Leistungen erbracht werden:

  • Vortrag 15 Minuten (Blockveranstaltung mit je 3-4 Vorträgen)
  • Schriftliche Ausarbeitung (5 Seiten 2-Spaltiges Format)
  • Anwesenheit bei der Einführungsveranstaltung und den Vorträgen

Anrechenbarkeit

Im Diplomstudiengang:

Für die erbrachte Leistung wird ein benoteter Seminarschein vergeben.

Im Masterstudiengang:

Die erbrachte Leistung wird mit 3 LP angerechnet.

Anmeldung

Erforderlich sind Name, Studiengang (mit Angabe ob Master oder Diplom) und Matrikelnummer

  • Bei der Einführungsveranstaltung werden Hinweise zum Vortrag, zur Ausarbeitung und zum Seminarablauf gegeben
    • Es müssen alle angemeldeten Studenten anwesend sein
    • Die Themen, die nicht bereits vergeben wurden, werden an diesem Termin den nicht angemeldeten Studenten angeboten

Termine

  • Die Einführungsveranstaltung findet am Freitag, 25.10.2013 um 9:45 - 11:30 Uhr in Raum 137, Gebäude 50.20, statt.
  • Die Termine für die Abschlusspräsentationen werden während der Einführungsveranstaltung bekannt gegeben.
  • Die Anwensenheit zu allen Terminen ist erforderlich.


Themenbeschreibungen

Kriterien und Methoden der Stabilitätsanalyse stochastischer Systeme

Die Stabilitätsanalyse stellt ein wichtiges Werkzeug der Systemtheorie dar, um Schätzer oder Regler zu entwerfen. Ein Regler muss z. B. so ausgelegt sein, dass das geregelte Gesamtsystem stabil ist, d.h. der Zustand des Gesamtsystems (abhängig vom Anfangszustand) einen vorgebbaren Bereich nicht verlässt. Für deterministische Systeme wurden verschiedene Kriterien und Methoden zur Untersuchung der Stabilität entwickelt, wie z.B. Lyapunov‘s direkte und indirekte Methode. Diese Konzepte wurden ebenfalls auf stochastische Systeme erweitert, was die Einführung stochastischer Stabilitätskriterien notwendig machte. Im Rahmen dieser Seminararbeit sollen die wesentlichen Kriterien und Methoden der stochastischen Stabilitätsanalyse vorgestellt und an Beispielen verdeutlicht werden.

Geeignet als Ergänzung zur Vorlesung: Stochastische Informationsverarbeitung (SI)

Literatur:

  • Kozin, F., "A survey of stability of stochastic systems", Automatica, vol. 5, no. 1, pp. 95-112, 1969

Betreuer: Jörg Fischer

Interacting Multiple Model - Methode

Beim Tracken von bewegten manövrierenden Zielen oder Systemen mit mehreren unterschiedlichen Betriebsmodi greift man oft auf die Interacting Multiple Model (IMM) Methode zurück. Diese Methode zeichnet sich dadurch aus, dass das Filter für jedes mögliche Manöver und jeden möglichen Betriebsmodus ein (Zustandsraum-)Modell annimmt und die Schätzung des Systemzustands aus der gewichteten Kombination der Schätzungen auf Basis einzelner Modelle berechnet. In diesem Seminar soll die Idee und die Funktionsweise eines IMM-Trackers sowie die historische Entwicklung dieser Methode erarebitet und präsentiert werden.

Literatur

  • X. Rong Li, Vesselin P. Jilkov: "Survey of Maneuvering Target Tracking. Part V: Multiple-Model Methods", IEEE Transactions on Aerospace and Electronic Systems, Vol. 41, No. 4, Oct. 2005
  • Skriptum zur Vorlesung "Stochastische Informationsverarbeitung"

Betreuer: Maxim Dolgov

Schätzung von Rotation und Translation starrer Objekte mit Mixtures of Projected Gaussians

Viele Anwendung in der Robotik, Luft- und Raumfahrt sowie der Medizin erfordern es die Position und Orientierung von starren Objekten zu bestimmen. Beispielsweise soll die Ort und Ausrichtung eines Flugzeugs ermittelt werden. Dabei gilt es zu berücksichtigen, dass Sensoren nur verrauschte Daten liefern, aus denen dann eine möglichst gute Schätzung berechnet werden soll. Aufgrund der auftretenden Periodizitäten bei Rotationen sind konventionelle Filterverfahren für diese Aufgabe nur bedingt geeignet. Ein alternativer Ansatz besteht darin, Mixtures of Projected Gaussians zu verwenden, um Wahrscheinleichkeitsverteilungen auf den Quaternionen bzw. dualen Quaternionen zu definieren und so ein Filterverfahren zu entwickeln, das diese Periodizitäten besser behandelt. Im Rahmen dieser Seminararbeit soll ein solcher Ansatz betrachtet werden.

Literatur:

  • Wendelin Feiten, Muriel Lang, Sandra Hirche, "Rigid Motion Estimation Using Mixtures of Projected Gaussians", Fusion 2013

Betreuer: Gerhard Kurz

Verteiltes lösen zufälliger konvexer Programme

Zufällige konvexe Programme (Random Convex Programs; RCPs) sind konvexe Optimierungsprobleme, deren Nebenbedingungen zufällig sind und zur Berechnung einer Lösung zufällig erzeugt werden, Oft sind RCPs mit vielen solchen Nebenbedingungen versehen oder diese Nebenbedingungen sind auf unterschiedliche Systeme verteilt und vom jeweiligen System abhängig. Deshalb ist die Betrachtung eines Algorithmus zur verteilten Lösung von RCPs von Interesse. Im Rahmen dieses Themas sollen zunächst RCPs erarbeitet und vorgestellt werden, um dann einen Algorithmus zur verteilten Lösung zu präsentieren.

Literatur:

  • Carlone et al., "Distributed Random Convex Programming via Constraints Consensus", arXiv:1207.6226v1, 2012
  • Calafiore, Random Convex Programs, SIAM J. Optim, Vol. 20 No. 6, 2010

Betreuer: Igor Gilitschenski

Das Ensemble Kalman Filter

Für lineare System- und Messmodelle liefert das Kalman Filter optimale geschlossene Lösungen. Dies gilt aber nicht für nichtlineare Modelle, wo stattdessen häufig sample-basierte Filterverfahren zum Einsatz kommen. Ein Filter dieser Klasse ist das sogenannte Ensemble Kalman Filter (EnKF), welches insbesondere in der Wettervorhersage verwendet wird. Dieses verwendet eine Menge von Samples um die nichtlinearen Modelle auszuwerten und um den Systemzustand sowie dessen Unsicherheit zu repräsentieren. Im Zuge dieser Seminararbeit soll dessen Funktionsweise erarbeitet und vorgestellt werden.

Geeignet als Ergänzung zur Vorlesung: Stochastische Informationsverarbeitung (SI)

Literatur:

  • S. Gillijns and O. Barrero Mendoza and J. Chandrasekar and B. L. R. De Moor and D. S. Bernstein and A. Ridley, "What Is the Ensemble Kalman Filter and How Well Does it Work?", ACC, 2006

Betreuer: Jannik Steinbring

Systemidentifikation dynamischer Systeme mittels Subspace Identification

Bei der Systemidenfikation geht es darum Struktur und Parameter eines vorhandenen Systems auf der Grundlage von Systemausgabe- und -eingabedaten zu bestimmen. Die am meisten verbreitete state-of-the-art Methodenklasse zur Identifikation von linearen Systemen stellen die Subspace-Identification Methoden (SIM) dar. In dieser Arbeit geht es darum die Hernagehensweise und den mathematischen Hintergrund dieser Methodenklasse aufzuarbeiten und in einer Präsentation verständlich zu erläutern.

Literatur:

  • Peter van Overschee and B.L. de Moor, "Subspace Algorithms for the Stochastic Identification Problem", Automatica, Vol. 29, No. 3, pp. 649-660, May 1993
  • Peter van Overschee and B.L. de Moor, "Subspace Identification for Linear Systems: Theory - Implementation - Applications", Kluwer Academic Publishers, 1996

Betreuer: Christof Chlebek

Robuste Zustandsschätzung mit unteren und oberen Erwartungswerten

Kalman-Filtermethoden setzen gemeinhin voraus, dass auftretende Störeinflüsse durch Wahrscheinlichkeitverteilungen beschrieben werden. In vielen Anwendungssituationen ist es allerdings schwierig, die zugrundeliegenden Verteilungen zu bestimmen. Im Rahmen dieser Seminararbeit wird ein Verfahren untersucht, dass sich deutlich robuster gegenüber Fehlannahmen erweist. Dies wird dadurch erreicht, dass die nicht genau bestimmbaren Wahrscheinlichkeitsverteilungen durch untere und obere Erwartungswertfunktionale abgeschätzt werden.

Literatur:

  • A. Benavoli, M. Zaffalon, and E. Miranda, "Robust filtering through coherent lower previsions", IEEE Transactions on Automatic Control, 56(7):1567 -1581, July 2011.

Betreuer: Benjamin Noack

Meine Werkzeuge