Intelligentes Verkehrssicherheitstraining für Kinder in Virtual Reality

Die Idee

Für eine effektive Verkehrserziehung müssen Kinder das erlernte theoretische Wissen praktisch trainieren und wiederholt auf unterschiedliche, reale Verkehrssituationen anwenden. Training im geeigneten Maße auf der echten Straße ist allerdings wegen etwa Kosten- und Sicherheitsgründen problematisch. Im Projekt SafeChild wird deswegen an einer Alternative geforscht, mit der Kinder in einer virtuellen Realität (VR) verschiedene Verkehrssituationen sicher und beliebig oft üben können. Ein intelligentes Tutor-System soll das Trainingsprogramm außerdem auf individuelle Bedürfnisse optimieren. Nähere Informationen zur technologischen Umsetzung finden Sie im Abschnitt Technologie.



Die Partner

Das Projekt wird am Center for Learning Technologies (CeLTech) im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) durchgeführt. Es wird im Rahmen des Software-Campus vom BMBF (Kennzeichen 01IS12050) gefördert und von CeLTech co-finanziert.






Das Projekt wird außerdem unterstützt durch die Deutsche Post AG sowie dem Landesvermessungsamt der Stadt Saarbrücken.



Falls Sie Interesse am Projekt haben, etwa als Forschungspartner oder Pilotschule, dann treten Sie mit uns in Kontakt. Falls Sie auf dem Gebiet Verkehrserziehung oder Verkehrssicherheit tätig sind, würden wir uns freuen, wenn Sie unsere Forschungsarbeit durch Teilnahme an der Online-Umfrage unterstützen würden.



Wissenschaftliche Fragestellung

Im SafeChild Projekt werden Verkehrserziehung für Kinder, Virtuelle Realität und intelligente Tutor-Systeme auf einzigartiger Art und Weise zusammengeführt. Daraus resultieren zahlreich wissenschaftliche Fragen, die im Rahmen des Projektes bearbeitet werden. Neben Fragen bezüglich Eignung und Nutzen der eingesetzen Hardware und des Interaktionsmodells, ist vor allem der Entwurf des intelligenten Tutor-Systems eine große Herausforderung. Um das Training auf den individuellen Lernenden anzupassen, müssen dessen Bedürfnisse zunächst aus den Interaktionsdaten mit dem System abgeleitet werden. Dafür reicht es nicht aus nur Fehlverhalten zu erkennen, sondern das System sollte in der Lage sein, daraus etwa fehlerhaftes oder fehlendes Wissen zu ermitteln. Die Menge an Interaktionsdaten, die Handlungsfreiheit des Lernenden sowie die zufallsbasierte Verkehrssimulation sind dabei alles Faktoren, die das entwickeln einer derartigen Methode erschweren.

Die Technologie

Das im SafeChild Projekt entwickelte System soll einerseits Trainingssituationen authentisch nachahmen, aber gleichzeitig auch kostengünstig sein, sodass es verbreitet eingesetzt werden kann. Aus diesem Grund werden hardwareseitig ausschließlich Komponenten aus der Unterhaltungselektronik eingesetzt, die in jedem Elektrofachhandel erhältlich sind. Für eine natürliche Eingabe wird die Microsoft Kinect Kamera eingesetzt, die Körpergestik erfasst und in Bewegung in der virtuellen Welt übersetzt. Angezeigt wird die Trainingsumgebung auf drei 3D Bildschirmen.

Auf Softwareseite dient eine virtuelle Stadt als Grundlage für die Trainingsumgebung. Neben 3D Modellen von Gebäuden und Straßenzügen beinhaltet das eigens für das Projekt entwickelte Programm auch eine Verkehrssimulation mit zahlreiche Einstellmöglichkeiten. In der virtuellen Stadt können dann Situationen wie in der realen Welt geübt werden, wie etwa das korrekte Verhalten beim Straßenübergang. Perspektivisch sollen für das Stadtmodell 3D Modelle einer echten Stadt (Saarbrücken) verwendet werden, dessen Grundmodelle vom Landesvermessungsamt der Stadt zur Verfügung gestellt wurden. An die virtuelle Stadt wird außerdem ein intelligentes Tutor-System (ITS) angebunden, welches das Verhalten des Kindes während des Trainings analysiert und auswertet. Dabei sollen individuelle Bedürfnisse wie etwa Schwächen oder Wissenslücken ermittelt werden, wodurch das Training dann für das jeweilige Kind optimiert werden kann. Einen Eindruck von der Technologie erhalten Sie in der folgenden Media Sektion.



Medien

Videos

Im Video sieht man zunächst die Kalibrierungsgeste, die zur Erkennung des Benutzers sowie der Kalibrierung der Körpergröße dient. Anschließend ist es möglich näher an das Setup heranzutreten und die Steuerung mit einer "Wisch"-geste zu starten. Die derzeitige Gestensteuerung basiert auf Körperneigung zur Fortbewegung sowie Schulterrotation zur Drehung in der virtuellen Welt. Zum Stoppen der Simulation sieht man am Ende die "Wink"-Geste.

Screenshots

Die Screenshots zeigen Eindrücke der Trainingsumgebung. Diese kann auf einen oder drei Bildschirmen angezeigt werden.

Demo

Mit der Webdemo können Sie sich einen eigenen Eindruck von der Trainingsumgebung machen. (Wird überarbeitet)

Publikationen

Gu, Yecheng, and Sergey Sosnovsky. "Recognition of student intentions in a virtual reality training environment."
Proceedings of the companion publication of the 19th international conference on Intelligent User Interfaces. ACM, 2014.
(PDF)

Kontakt

Center for Learning Technologies (CeLTech) im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI)
Alt-Moabit 91c
10559 Berlin

Operativer Projektleiter
Yecheng Gu
E-mail: yecheng.gu@dfki.de

Associate Director
Dr. Carsten Ullrich
E-mail: Carsten.Ullrich@dfki.de

© Center for Learning Technologies (CeLTech) im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI)