Saugroboter als Spion – so lässt sich das verhindern
So segensreich Erfindungen wie Staubsaugerroboter oder intelligente Kühlschränke sind, so groß ist die Gefahr des Datenmissbrauchs. Forschende aus Australien wollen mit einem innovativen Ansatz für mehr Privatsphäre in den eigenen vier Wänden sorgen.
Von Staubsaugerrobotern und intelligenten Kühlschränken bis hin zu Babyfonen und Lieferdrohnen – die intelligenten Geräte, die immer mehr Einzug in unsere Wohnungen und an unsere Arbeitsplätze halten, erfassen ihre Umgebung mit Kameras und machen so Videos und Bilder von unserem Leben. Roboterforschende haben einen neuen Ansatz entwickelt, der dabei helfen soll, die von Smart-Home-Geräten und Internet-of-Things-Technologie gesammelten Daten und Bilder zu schützen.
Wenn die smarten Geräte zu Spionen werden
Vor einiger Zeit wurde eine Frau von ihrem eigenen Saugroboter beim Gang auf die Toilette aufgenommen. Die Bilder wurden in sozialen Netzwerken geteilt. Das ist die Schattenseite der neuen, smarten Technik.
Die Welt der IoT-Geräte (Internet of Things) entwickelt sich ständig weiter, insbesondere durch den Einsatz von KI-Bilderkennungstechnologien. Diese Innovationen erweitern nicht nur die Funktionalität der Geräte, sondern machen deren Einsatz oft erst möglich. Bei Saugrobotern beispielsweise verbessert die Bilderkennung die Navigation und die Fähigkeit, Objekte zu erkennen. Dadurch wird verhindert, dass der Roboter versehentlich Gegenstände oder Kleidung aufsaugt oder über die Hinterlassenschaften von Haustieren fährt. Das könnte sowohl zusätzliche Arbeit als auch potenzielle Schäden verursachen.
Daten werden von echten Menschen überprüft
Was viele Nutzer – und selbst Tester – jedoch nicht wissen, ist die Rolle des Menschen im Trainingsprozess dieser KI-Systeme. Tatsächlich werden reale Daten, die im täglichen Betrieb anfallen, verwendet, um die KI-Modelle zu optimieren. Menschen überprüfen diese Daten manuell, um die KI bei der korrekten Identifizierung von Objekten zu unterstützen. Diese Praxis ist nicht auf Staubsaugerroboter beschränkt; auch die KI-Algorithmen hinter bekannten Assistenten wie Amazons Alexa und Apples Siri werden mit menschlicher Unterstützung trainiert. Echte Menschen sehen also, was Sie zuhause alles machen.
Der Einsatz von Geräten mit Kameras und Mikrofonen birgt daher das Risiko, dass Daten übermittelt oder von Mitarbeitern missbraucht werden können, zumal eine ausschließlich lokale Datenverarbeitung eher die Ausnahme ist. Die ständige Internetverbindung solcher Geräte erhöht zudem die Anfälligkeit für Hackerangriffe. Obwohl es in Deutschland gesetzliche Regelungen gibt, die die Aktivierung von Kameras kenntlich machen, bleibt der Schutz der Privatsphäre eine ständige Herausforderung. Ein australisches Forschungsteam möchte solch einen Datenmissbrauch nun erschweren.
So soll die Privatsphäre wiederhergestellt werden
Um die Privatsphäre wiederherzustellen, haben sich Forscherinnen und Forscher der Universität Sydney und der Queensland University of Technology in Australien speziell die Kameras intelligenter Haushaltsgeräte vorgenommen. Die neu entwickelten Kameras verarbeiten und verschlüsseln die Bilddaten so, dass sie bereits vor der Digitalisierung anonymisiert werden. Dieser Prozess stellt sicher, dass die erzeugten Bilder nur ein Minimum an erkennbaren Informationen enthalten, um die Privatsphäre bis zur Unkenntlichkeit zu schützen.
Diese Technologie ist besonders relevant für Geräte im „Internet der Dinge“ zu denen auch autonome Staubsauger gehören. Diese Geräte sind ständig mit dem Internet verbunden und bieten daher eine potenzielle Angriffsfläche für Hacker oder können durch menschliches Versagen kompromittiert werden. Neuartige Kameras erzeugen jedoch nur verzerrte Bilder, die zwar für die Aufgabenerfüllung der Roboter ausreichen, aber keine detaillierten visuellen Informationen liefern, die missbraucht werden könnten, um die Privatsphäre der Nutzer zu gefährden.
„Wenn wir an ‚Sehen‘ denken, denken wir an ein Foto, während viele dieser Geräte nicht die gleiche Art von visuellem Zugang zu einer Szene benötigen wie Menschen. Sie haben einen sehr eingeschränkten Bereich in Bezug auf das, was sie messen müssen, um eine Aufgabe zu erfüllen, indem sie andere visuelle Signale, wie Farbe und Mustererkennung, verwenden“, erläutert Adam Taras, der die Forschung im Rahmen seiner Abschlussarbeit durchführte.
So funktioniert die Technik im Detail
Das Forschungsteam konnte die Kamerabilder verschleiern, indem sie den Bildverarbeitungsprozess direkt in die Kameraoptik und die analoge Elektronik integriert hat, wodurch diese Prozesse vor potenziellen Cyberangriffen geschützt sind. „Unser Ansatz unterscheidet sich grundlegend von früheren Methoden, bei denen die Verschleierung der Bilder noch in der digitalen Verarbeitungseinheit der Kamera stattfand und somit Sicherheitslücken offenließ“, erklärt Dr. Don Dansereau, Taras-Betreuer am Australian Centre for Robotics and Digital Sciences Initiative.
Dansereau weiter: „Wir bringen den Schutzmechanismus direkt in die Hardware der Kamera, in die Elektronik, und erreichen damit ein noch nie dagewesenes Sicherheitsniveau“. Das Team hat sogar versucht, seine eigene Sicherheitsmaßnahme zu umgehen, indem es versuchte, die verschlüsselten Bilder wiederherzustellen. Sie haben diese Herausforderung an die wissenschaftliche Gemeinschaft weitergegeben und fordern andere Forscher auf, ihre Sicherheitsmaßnahmen zu überwinden.
„Selbst wenn sich jemand unbefugt Zugang zu diesen verschlüsselten Bildern verschaffen könnte, wären die Informationen so stark verschleiert, dass sie praktisch nutzlos wären, was die Privatsphäre der Nutzer wirksam schützt“, fügt Taras hinzu.
Lässt sich die Technik auch für andere Bereiche nutzen?
Nach Ansicht des Forschungsteams könnte ihr Ansatz auch zur Herstellung von Geräten verwendet werden, die an Orten eingesetzt werden können, an denen Datenschutz und Sicherheit ein Problem darstellen, wie z. B. in Lagerhäusern, Krankenhäusern, Fabriken, Schulen und Flughäfen. Zunächst hofft das Team jedoch, physische Kameraprototypen bauen zu können, um den Ansatz in der Praxis zu demonstrieren.
„Die derzeitige Robotertechnologie neigt dazu, die berechtigten Bedenken der Endnutzer hinsichtlich des Schutzes der Privatsphäre zu ignorieren. Das ist eine kurzsichtige Strategie, die den Einsatz der Robotik in vielen gesellschaftlich und wirtschaftlich wichtigen Anwendungen verlangsamt oder sogar verhindert. Unser neues Sensordesign nimmt den Datenschutz sehr ernst und ich hoffe, dass es von der Industrie aufgegriffen und in vielen Anwendungen eingesetzt wird“, sagt Professor Niko Suenderhauf, stellvertretender Direktor des QCR, der das Projekt beratend begleitete.
Ein Beitrag von: