Stuhl an Lampe: „Ausschalten!”
Mit der App „Reality Editor“ lassen sich steuerbare Alltagsgegenstände und ihre Funktionen nach Belieben miteinander verbinden und programmieren. Das Smartphone wird zur virtuellen Steuerungszentrale. Die App gibt’s schon zum Download, ist bislang aber kaum praktisch anwendbar.
Valentin Heun steht von seinem Bürostuhl auf und verlässt sein Büro. Kaum ist er durch die Tür, da schaltet sich wie von Geisterhand das Licht der Schreibtischlampe an seinem Arbeitsplatz aus. Die Kamera folgt dem Forscher des Massachusetts Institute of Technology Media Laboratory (MIT Media Lab) auf dem Weg durch das Bürogebäude zum Ausgang.
Vor der Tür wartet sein wohl temperierter Wagen: Wie der Zuschauer erfährt, hat die Klimaanlage bereits für das perfekte Wohlfühlklima für die Fahrt nach Hause gesorgt. Was Heun da im Film auf präsentiert, macht eine App namens „Reality Editor“ möglich, die er und sein Team von der „Fluid Interface Group“ des MIT Media Lab entwickelt haben.
Ganz ohne Cloud
Mittels dieser App hat Heun seinen intelligenten, mit Sensoren ausgestatteten Bürostuhl mit der smarten Schreibtischlampe und seinem Wagen vernetzt, man könnte auch sagen: die Dinge um ihn herum auf Feierabend programmiert. Verlässt er seinen Platz, geht das Licht aus und die Klimaanlage im Auto bekommt das Signal zum „Go“.
Die steuerbaren Alltagsgegenstände und Geräte in der Welt von Heun und seinem Team kommunizieren über gemeinsame Schnittstellen im eigenen Standard-Netzwerk miteinander. Via Reality Editor verbindet der Nutzer Geräte und Funktionen virtuell. Dabei braucht die Lösung nicht einmal eine zentrale Cloud, wie das sonst meist bei Lösungen funktioniert, die Geräte und Alltagsgegenstände im so genannten „Internet of Things (IoT)“ vernetzen. Sämtliche Daten zu Schnittstellen, Verbindungen und Funktionen sind im Objekt selbst gespeichert.
Virtuelle Steuerzentrale
Der User richtet die Smartphone-Kamera auf ein so genanntes „intelligentes“ oder „smartes“ Objekt, das mit einer Art QR-Code namens „FingerPrint“ versehen wurde. Der Reality Editor empfängt die Netzwerkadresse des Geräts, liest aus dem Code die Funktionen aus und übersetzt sie in eine grafische Bedienungsoberfläche. Das funktioniert mit Augmented-Reality-Technik. Der Touchscreen des Smartphones wird nun zur Steuerzentrale: Mit einem Fingerstrich lassen sich Geräte und Funktionen miteinander koppeln.
Die App ist für das iPhone und iPad bereits erhältlich, die Anwendungsmöglichkeiten sind mangels von Dingen, die sich tatsächlich schon damit ansprechen lassen, allerdings sehr begrenzt. Die Forscher haben aber ein Open Source Projekt namens „Hybrid Objects“ für Entwickler ins Leben gerufen.
Ein Beitrag von: