Jump to main content Jump to footer Skip navigation Jump to navigation start

XINU-Control

eXcellent Interface for Nonhaptic Use

Ziel des Forschungsprojekts XINU (eXcellent Interface for Nonhaptic Use) ist die Erstentwicklung eines Steuerungskonzepts für Komponenten der Gebäudeautomation, das ausschließlich über eine mit einem Kamerasystem versehene visuelle Bedienoberfläche Kommandos auf Basis von 3D Face Tracking (Gesichtsverfolgung), Mimik- und Gesichtserkennung umzusetzen vermag. Das Steuerungskonzept soll als Prototyp zusammen mit einer bestehenden State-of-the-Art Face Tracking Software-Bibliothek und handelsüblichen Aktuatoren aus der Gebäudeautomation in der Schule an verschiedenen Stellen direkt zum Einsatz kommen.

 

In der Höheren Technischen Lehranstalt in der Ungargasse (HTL W3U), der einzigen integrativen HTL dieser Art in Österreich, ist es nicht nur möglich, ein System zur visuellen Steuerung effektiv umzusetzen, sondern auch einen nutzbringenden Einsatz eines solchen Systems zu ermöglichen, das den speziellen Bedürfnissen in dieser Schulform entsprechend Rechnung trägt: Mit dem Einsatz eines solchen Systems soll Schüler/innen mit körperlichen Behinderungen ein möglichst reibungsloser Schulbesuch ermöglicht werden. In diesem Projekt helfen Schüler/innen ihren Mitschüler/innen mit modernster Wissenschaft, was nicht nur aus Sicht der Lehrinhalte ein großer Gewinn ist, sondern auch eine Verbesserung der Integration und die Thematisierung von Bedürfnissen bei körperlicher Behinderung ermöglicht.

 

Die Innovation liegt vor allem in der Erweiterung von Steuerungsprinzipien für Geräte der Gebäudeautomation auf Basis einer neuartigen Form der Kommunikation über die visuelle Bedienoberfläche. Die Forschung bezieht sich dabei nicht direkt auf die Entwicklung neuer Algorithmen der Gesichtspositionsverfolgung (Face Tracking) und Gesichtserkennung (Face Recognition), sondern auf die Untersuchung und Auswahl vorhandener Methoden, die für eine solche visuelle Steuerung geeignet scheinen, und auf die Entwicklung einer Metasprache und des dazugehörigen Befehlssatzes, mittels derer die registrierten Kopfbewegungen in entsprechende Steuerkommandos umgesetzt werden sollen. Dieses Grundprinzip ermöglicht auch eine Reihe weiterer spannender Anwendungsgebiete, z. B. für Mensch-Maschine-Interfaces in der Robotik. Roboter, die ausschließlich mit Kamerasystemen ausgestatten sind, können so direkt vom Anwender über reine Kopfbewegung gesteuert werden.

 

Dieses Forschungsprojekt ist stark anwendungsorientiert ausgelegt, damit eine Kooperation zwischen Schüler/innen und Wissenschafter/innen gewährleistet werden kann. Wichtig ist hier, im Rahmen der zeitlich und personell begrenzten Möglichkeiten (Schüler/innen arbeiten freiwillig neben ihren schulischen Herausforderungen, Teilzeit des Lehrpersonals etc.) praktische Ergebnisse vorweisen zu können, die man in das schulische Umfeld integrieren und vor Ort nutzen kann. Vor allem die Anwendbarkeit der Technologien soll in diesem Projekt untersucht werden, wobei die (körperlich eingeschränkten) Schüler/innen hier selbst aufgrund ihrer lebenslangen Erfahrung die Expert/innen sind. Die Grundlagenforschung zu diesem Projekt ist durch die Erfahrungen des Expert/innenteams gegeben und wird durch daraus entstehende, weiterführende Projekte abgedeckt werden.

This project is already completed.

Der Alternativtext wird in Kürze eingefügt
© OeAD

Research project
2. Ausschreibung


Project leader
Participating schools
Duration
01.10.2009 – 30.09.2011
YouTube is deactivated

We need your consent to use YouTube videos. For more information, see our Privacy Policy.

Vimeo is deactivated

We need your consent to use Vimeo videos. For more information, see our Privacy Policy.

OpenStreetMap is deactivated

We need your consent to use OpenStreetMap. For more information, see our Privacy Policy.

Issuu is deactivated

We need your consent to use Issuu. For more information, see our Privacy Policy.