direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Logo der TU Berlin

PJ Ambient Assisted Living Roboter

Modul: Ambient Assisted Living (BINF-SWT-AAL.W10)
Semester: Wintersemester 2010/11
Art: PJ (4 SWS / 6 LP)
LV-Nr.: 0435 L 756
Veranstalter: Prof. Albayrak, Holger Endert, Thebin Lee
Ort und Zeit: TEL 1118, Di. 12 - 14, ab 19.10.

---

Diese Veranstaltung wird online mit ISIS durchgeführt Bitte melden Sie sich dort an!

---

Ihre Anmeldung ist zunächst unverbindlich.

Gestalte deine Zukunft!

Immer mehr Funktionen werden in Alltagsgegenstände wie Kleidung, Möbel, Wohnräume und Büros eingebettet. Daraus ist das Ambient Assistend Living entstanden. Dieser Forschungsbereich hat das Ziel, den Menschen best möglich in einer modernen Technik orientierten Welt zu unterstützen. Mit Hilfe eines Smart Butlers können Services, die in der Wohnung der Zukunft integriert sind, ihren Nutzern bequem und einfach zur Verfügung gestellt werden. Um die Möglichkeiten einer solchen Umgebung in vollem Umfang nutzen zu können, bedarf es intelligenter Benutzerschnittstellen, die einen intuitiven und natürlichen Dialog mit den Geräten und Diensten ermöglichen.

 

Im Projekt sollen Dienste entwickelt werden, die Benutzer in ihrer alltäglichen Umwelt unterstützen. Für die Umsetzung steht ein Haushaltsroboter und ein intelligentes Hausumfeld zur Verfügung. Es sollen personalisierte und kontextsensitive Anwendungen realisiert werden, die ihre Umgebung wahrnehmen und beispielsweise erkennen, welche Hausbewohner sich in der Nähe aufhalten. In diesem Umfeld sollen sinnvolle, Nutzen bringende Dienste entwickelt werden.

Voraussetzungen

Um an diesem Projekt erfolgreich teilnehmen zu können solltet ihr die folgenden Voraussetzungen mitbringen: 

  • Programmieren können
  • Kreativität
  • Spaß an Teamarbeit
  • Opensource Framework Player and Stage

Sinnvolle ergänzende Kenntnisse die nicht vorausgesetzt werden aber hilfreich sind:

  • Robotik, Sensorverarbeitung
  • Sprachverarbeitung, Automatische Bilderkennung
  • Latex, Subversion
  • Interesse an der Gestaltung der Zukunft

Lernziele

  • Möglichkeiten und Nutzen von Ambient Assisted Living kennen
  • Einblick in die Funktionsweise autonomer mobiler Roboter bekommen
  • Grundlagen der Sensordatenverarbeitung kennen
  • Unterschiede zwischen RealWorld vs. Simulationen (Learning by doing)
  • Theorie in die Praxis umsetzen können
  • Diskutieren können: Was ist Intelligenz? Welche Ansätze gibt es, intelligentes Verhalten in Agenten zu realisieren?
  • Kontrollarchitekturen für Roboter programmieren können
  • Analytische Herangehensweise umsetzen
  • Erlernen und umsetzen von wissenschaftlichem Arbeiten

Szenario

Die Ziele dieses Projekts orientieren sich am RoboCup@Home Wettbewerb. Dieser definiert ein paar standardisierte Szenarien, bei denen Home-Roboter (Roboter für den Einsatz im Heimbereich) sich miteinander messen können. Dadurch ist es möglich, die Vor- und Nachteile bestimmter Ansätze im Praxis-Test direkt zu vergleichen. Nachfolgend werden die Szenarien sowie die Entwicklungsschwerpunkte näher erläutert, wobei für dieses Projekt Bezug auf die Phase 1 der Competition (Stage 1) genommen wird.

Allgemeine Ziele

Die allgemeinen Ziele der RoboCup@Home Initiave liegen momentan auf der Evaluation der grundlegenden Fähigkeiten, die ein Roboter benötigt, um im Heimbereich agieren zu können. Neben einer sicheren Lokalisierung und Navigation steht dabei die Interaktion mit dem Menschen und den Objekten der Wohnung im Vordergrund. Eine der Schwierigkeiten besteht darin, dass der Roboter oft auf Unbekanntes trifft. Dies beinhaltet neben den Räumlichkeiten auch unbekannte Personen und Objekte. Damit sind Roboter, die sich schnell ein Bild ihrer Umgebung machen können, klar im Vorteil.

Aus diesem Grund sind insbesondere Ansätze für das automatische Erstellen von Karten (Mapping) sowie von Objekt-Modellen ein wichtiger Bestandteil von Lösungen für den RoboCup@Home Wettbewerb. Prinzipiell gilt: Je autonomer der Roboter in diesen Umgebungen zurechtkommt, desto besser.

 

Follow Me

Dieses Szenario hat zum Ziel, den Roboter einer unbekannten Person für ca. 5 Minuten folgen zu lassen. Es soll dabei eine bestimmte Distanz zu der Person eingehalten werden (ca. 1m), und Kollisionen sollen selbstverständlich vermieden werden. Der Roboter wird entweder über Gesten oder über Sprache instruiert, muss dann eine Person erkennen, und anschließend ihr folgen können. Die folgenden Themenschwerpunkte müssen dafür bearbeitet werden:

  • Gesichtserkennung
  • Gestenerkennung
  • Spracherkennung
  • Lokalisierung
  • Navigation
  • Objekt-Erkennung (die unbek. Person)
  • Objekt-Tracking (die unbek. Person)

 

Fetch & Carry

In diesem Szenario muss der Roboter ein Objekt finden, und zu seiner Ausgangsposition zurück bringen. Das Objekt ist von der Startposition des Roboters nicht sichtbar. Das Team hat Einfluss auf die Wahl des Objekts und auf den Ort, an dem es platziert wird (es wird eine Liste von möglichen Positionen akzeptiert). Jedoch liegt die endgültige Entscheidung bei der Jury. Während des Szenarios darf das Team nur über natürliche Sprache mit dem Roboter interagieren.

  • Spracherkennung (inkl. deren Bedeutung)
  • Lokalisierung
  • Navigation
  • Objekt-Erkennung
  • Objekt Manipulation (Greifen)

 

Who is Who

Der Roboter muss drei ihm unbekannte Personen, die sich in der Heimungebung aufhalten, finden können. Diese Personen stehen immer an der gleichen Position, und sind dem Roboter immer zugewandt, sodass er deren Gesichter sehen kann. Das Szenario beinhaltet eine Erkennungs-Phase, in der der Roboter die unbekannte Person finden und deren Gesicht merken muss, und eine Wiedererkennungs-Phase, in der der Roboter die ihm nun bekannte Person benennen können muss. In beiden Phasen muss der Roboter durch Sprache kenntlich machen, dass er seine Ziele erfüllt hat (einander Vorstellen beim Erkennen, Grüßen beim Wiedererkennen).

  • Spracherkennung
  • Gesicht-Erkennung

 

Lost & Found

In diesem Szenario treten zwei Roboter gegeneinander an: Sie müssen drei Objekte in der Umgebung möglichst schnell finden (schneller als der Gegner). Ist ein Objekt erkannt, muss der Roboter durch Sprache kenntlich machen, dass er das Objekt gefunden hat. Die Objekte dürfen nicht verändert werden.

  • Sprachsynthese
  • Lokalisierung
  • Navigation (inkl. anderem Roboter ausweichen)
  • Objekt-Erkennung

 

Open Challenge

In der Open Challenge können eigene Schwerpunkte des Roboters präsentiert werden. Diese werden in einem Folienvortrag (3 Folien) und einer Live-Demo (max. 7 Minuten) einem Auditorium vorgestellt. Anschließend gibt es noch kurz Zeit für Fragen und Antworten.

Terminübersicht

Termin Thema Inhalte und Lernziele
19.10.2010 Organisatorisches, Ambient Assisted Living, Ãœberblick Darstellung des Inhaltes des Projektes
26.10.2010 Grundlagen Robotik, Gruppeneinteilung Themenvergabe Ziele im Haus der Zukunft generieren
02.11.2010 Kommunikation mit Sensoren der Roboter Schnittstellen der Roboter ansprechen
09.11.2010 AAL und Sprachbasierte Kommunikation Möglichkeiten, Nutzen und Probleme von AAL nennen können
16.11.2010 Gesellschaftlicher Kontext Wie sieht das Haus der Zukunft aus? Welche Dienste sind möglich? Was bedeutete das?
23.11.2010 Einführung in Verhaltensbasierte Robotik Grundlagen der verhaltensbasierten Robotik
30.11.2010 Prototyp Vorstellung der bisherigen Entwürfe und Implementierungen.
07.12.2010 Testen Sinn und Zweck von Zielen für Softwareprodukte verstehen und wie diese getestet werden können:

  • Sinn und Zweck von Tests
  • Testarten
  • Automatisiertes Testen von Software
  • Manuelles Testen von Software
  • Testen von Sicherheitsfunktionalitäten
14.12.2010 Kleiner Meilenstein Vorstellung des bisherigen Projektergebnisses
04.01.2010 Organisatorisches Ausblick auf Rest des Semesters
11.01.2010 Dienste Dienste designen, Dienste benutzerzentriert testen (Vorbereitung auf die Gruppenintegration).
18.01.2010 Gruppenintegration Die Ergebnisse der Gruppen werden zu einem Projekt integriert.
25.01.2010 Dienste Fehler beheben und testen
01.02.2010 Gruppenintegration Fehler beheben, testen und die Ergebnisse zu einem Projekt integriert.
08.02.2010 Gruppenintegration Die Ergebnisse der Gruppen werden zu einem Projekt integriert.
15.02.2010 Finaler Meilenstein Zusammenfassung der Projektarbeit vorstellen, mit gesammelten Erfahrungen und Bewertungen.

Prüfungsmodalitäten

Diese Lehrvranstaltung ist für "Bachelor" und "Diplom" der Informtik, technischen Informatik und Wirtschafts-Ingeniuer Wisseschaft vorgesehen.

Die Note im Projekt setzt sich aus mehreren Teilnoten zusammen, die unterschiedliche gewichtet in die Gesamtnote einfliessen:

  • Projekt umsetzung (50 %)
  • Abschlussbericht (30 %)
  • mündlicheRücksprache (20 %)

Diese Lehrveranstaltung kann in eine Prüfung in den Bereichen KI, KBS und WVA eingebracht werden.

Ansprechpartner

Holger.Endertdai-labor.de

Thebin.Leedai-labor.de