In naher Zukunft könnten Sprachassistenten unseren Alltag weitgehend regeln. Sie steuern die Zimmertemperatur, kochen Kaffee, verbinden uns mit anderen. Eine neue, lokale Art der Datenverarbeitung soll dafür sorgen, dass die Privatsphäre dabei besser geschützt wird.
Alles ist eins, alles ist verbunden: Die Kaffeemaschine mit dem Lichtschalter mit der Heizung mit dem Türschloss – und all das mit dem Internet. Im Haus von Morgen genügt ein Sprachbefehl der Bewohner, um das Badewasser einzulassen, eine Geste, um den Fernseher zu bedienen. Wann sie das tun, was sie gucken, welche Wünsche sie äußern und Befehle sie geben – all das sind wertvolle Informationen für Konzerne wie Amazon und Google. Diese verwerten die Daten und verdienen damit Milliarden. Mit ihren Sprachassistenten Alexa und Co. kommen sie uns dabei so nah wie nie.
Es erscheint daher kaum verwunderlich, dass rund die Hälfte der Sprachassistenten, die bereits heute in den Haushalten stehen, von diesen beiden Unternehmen stammen. Dem Technologiemarkt-Analysten Canalys zufolge soll die Gesamtzahl solcher Geräte weltweit von derzeit rund 100 Millionen auf mehr als 300 Millionen bis zum Jahr 2022 zunehmen. Nahezu drei Viertel von ihnen wird mit Amazons oder Googles Technik ausgestattet sein, schätzen die Branchenexperten.
Datenschützern bereiten diese Zahlen Sorgen. Denn sobald die Alltagsassistenten per Stichwort (etwa „Alexa“ oder „Ok Google“) aktiviert werden, übertragen sie ungefilterte Aufnahmen inklusive Hintergrundgeräuschen in ihre jeweilige Cloud – zentralisierte, oft weit entfernte Serverstrukturen mit riesigen Speicherkapazitäten. Was dort mit den Daten passiert, bekommen die Nutzer nicht mehr mit.
„Niemand möchte, dass alle Dinge, die vor Ort passieren, eins zu eins irgendwo hin übertragen und dort gespeichert werden“, warnt Thomas Bendig, Forschungskoordinator am Fraunhofer-Verbund für Informations- und Kommunikationstechnologie in Berlin. Es sei unbedingt notwendig, dass solche Informationen beim Nutzer blieben.
In der Cloud würden die Daten etwa auch genutzt, um die maschinellen Lern-Algorithmen zu verbessern, „damit Alexa noch besser verstehen und reagieren kann“, teilt Amazon auf Anfrage mit. Und: „Wir erlauben unseren Kunden, der Datenverwertung für Trainingszwecke in den Alexa-Einstellungen zu widersprechen.“ An Dritte würden keine Sprachdaten weitergegeben. Im Dezember kam es nach einem Bericht des Magazins „c’t“ zu einer Panne: In auf Anfrage zugesandten Dateien fand ein Kunde ihm völlig fremde Aufzeichnungen, der Konzern sprach von einem „unglücklichen Fall“ infolge „eines menschlichen Fehlers“.
Es gibt längst Möglichkeiten, das Material der Nutzer auch vor Ort zu belassen. Eine Methode heißt Edge Computing – Rechenleistung am Rande (Edge) der Cloud. Die Daten werden dabei dezentral nah am Nutzer gesammelt und verarbeitet. „Das kann zum Beispiel der ganz normale Internetrouter übernehmen, den wir im Haus stehen haben“, erklärt Andreas Seitz, wissenschaftlicher Mitarbeiter am Lehrstuhl für angewandte Softwaretechnik der TU München – auch wenn handelsübliche Router bislang noch nicht dazu in der Lage seien.
Möglich sei aber auch, dass solche Prozesse direkt auf der Hardware ablaufen, auf der die Sprachassistenten installiert sind. Eine Firma, die diesen Weg geht, ist das Start-up Snips mit Sitz in Paris und New York. Snips stellt Sprachassistenz-Systeme für Geschäftskunden her, die diese in ihre Geräte einbauen können. Die Privatsphäre der Nutzer habe dabei oberste Priorität, betonen die Verantwortlichen.
„Es fühlt sich einfach falsch an, dass ein Konzern Zugriff auf ein Mikrofon hat, das in der eigenen Wohnung steht“, meint Snips-Mitgründer Rand Hindi. Die Speicher- und Rechenleistung, die zum maschinellen Verständnis der Sprachbefehle notwendig ist, liegt bei Snips deshalb nicht auf weit entfernten Serverfarmen, sondern auf den Geräten selbst, auf die die Geschäftskunden die Spracherkennung des Start-ups aufspielen. Stimme und Hintergrundgeräusche bleiben so an Ort und Stelle – ohne dass jemand ungewollt darauf zugreifen kann.
„Es gibt eine ganze Reihe von Unternehmen und Forschungsprojekten, die solche Ansätze verfolgen“, berichtet Bendig. Denn nicht nur für den Heimeinsatz ist Datenverarbeitung jenseits der Cloud attraktiv. Auch die Industrie ist längst aufmerksam geworden.
Neben dem Schutz von Informationen spielt für sie Geschwindigkeit eine Rolle. Bei intelligenten Maschinen müssten Rechenprozesse oftmals in Echtzeit ablaufen, sagt etwa Wolfgang Furtner, verantwortlich für Edge Computing beim Münchner Halbleiter-Hersteller Infineon. „Die Bandbreite und Reaktionszeit der Cloud ist auf Dauer aber einfach begrenzt, wenn jedes Gerät in der Industrie seine Daten dort verarbeiten lässt.“
Deutlich schneller gehe es, wenn sie vor Ort verrechnet und an die Maschinen zurückgespielt würden – vor allem, wenn die für die Cloud nötige Internetverbindung nicht schnell genug oder lückenhaft ist. Über Edge-Geräte ließen sich Daten zudem bündeln und anonymisieren, bevor sie in die Cloud gehen. Infineon liefert dafür die Hardware.
Wird Edge Computing die Cloud also bald ersetzen? Nein, sagt Seitz von der TU-München. „Edge Computing ist eine Erweiterung der Cloud, beide Welten sind miteinander verbunden.“ Gerade bei Künstlicher Intelligenz oder maschinellem Lernen benötige man riesige Rechenpower für die Verarbeitung enormer Datenmengen. „Diese Dinge in einem Edge durchzuführen und das zu lernen, ist unrealistisch“, sagt Seitz.
Informationen filtern, bündeln und nur das Nötigste an die Cloud senden – das können Edge-Geräte dennoch leisten, sind sich die Experten einig. Für die Privatsphäre wäre das schon ein Fortschritt. [Matthias Arnold]
Bildquelle:
- Medien_Maerkte_Artikelbild: © Phongphan Supphakank - Fotolia.com