Von Wolfgang Kerler
Jemand könnte mithören. Wer das schon immer befürchtet und daher einen Bogen um Sprachassistenten und Smart Speaker gemacht hat, wurde im vergangenen Jahr bestätigt. Gleich mehrfach.
Zuerst erwischte es Alexa. Im April 2019 berichtete Bloomberg , dass weltweit tausende Angestellte von Amazon und externen Subunternehmen die Mitschnitte von Gesprächen anhörten, die Nutzer mit dem Sprachassistenten geführt hatten. Die Klickarbeiter tippten deren Wortlaut ab, versahen ihn mit Kommentaren und vergrößerten damit den Datensatz von transkribierten Sprachaufnahmen, mit denen Alexas Algorithmen trainiert werden. Dass Alexa, die vor allem im smarten Lautsprecher Echo zum Einsatz kommt, alle Konversationen mitschneidet und diese auf Amazon-Servern gespeichert werden, war vielen Usern nicht bewusst. Erst recht nicht, dass fremde Menschen sie anhörten. Obwohl dieses Vorgehen in der Branche verbreitet war, wie sich noch herausstellte.
Im Juli 2019 legte der belgische Fernseh- und Radiosender VRT nach, indem er aufdeckte, dass auch Sprachbefehle, die der Google Assistant erhielt, systematisch aufgenommen, auf Servern abgelegt und dann von Mitarbeitern abgehört wurden. Dass es mit Siri von Apple ähnlich lief, enthüllte zwei Wochen später der Guardian . Im August sorgten auch Microsoft und Facebook für derartige Schlagzeilen.
Werde Mitglied von 1E9 – schon ab 3 Euro im Monat!
Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein.
Jetzt Mitglied werden!Selbst Gespräche zwischen Patienten und Ärzten wurden aufgenommen
Immer wieder starten Sprachassistenten eine Aufnahme, weil sie etwas fälschlicherweise als ihr Signalwort verstehen – „Hey Siri“, zum Beispiel. Daher landeten offenbar selbst privateste Informationen – von Gesprächen zwischen Patienten und Ärzten bis zu Aufnahmen von Menschen beim Sex – bei Leuten, die das nichts anging.
Inzwischen geben Amazon, Apple und Google ihren Nutzern zwar die Möglichkeit, Sprachmitschnitte zu verhindern und zu löschen. Das ändert aber nichts an zwei weiteren Probleme, die insbesondere Datenschützer bei den Assistenten der großen Tech-Unternehmen sehen.
Zum einen basieren Alexa, Siri und der Assistant auf der Cloud. Die Spracheingaben der Nutzer werden also an die Server von Amazon, Apple und Google geschickt und dort verarbeitet. Dadurch sollen die Programme auch auf Geräten mit sehr schwacher Hardware laufen. Zum anderen verfügen die Konzerne inzwischen über gewaltige Datensätze, mit denen sie die Künstliche Intelligenz ihrer Assistenten per maschinellem Lernen verbessern können, da ihnen Millionen von Nutzern ständig Audiodaten liefern. Dagegen kommen potenzielle Konkurrenten kaum an.
Mozilla setzt auch bei Sprachassistenten auf Open Source
Damit Nutzer nicht gezwungen sind, persönliche Daten an Technologie-Unternehmen weiterzugeben, und damit auch unabhängige Entwickler eine Chance haben, setzt sich Mozilla für die „Demokratisierung“ der Sprachassistenten ein. Das kleine Machine-Learning-Team des Firefox-Entwicklers, hinter dem eine gemeinnützige Stiftung steht, startete dafür das Projekt Common Voice und entwickelt die quelloffene Spracherkennungs-Engine Deep Speech.
„Es gibt kaum frei verwendbaren Datenbanken von Audioaufnahmen, die groß genug sind, um Spracherkennungssoftware zu trainieren“, sagt Kelly Davis, der das Machine-Learning-Team von Mozilla leitet, zu 1E9. Für Start-ups, die eigene Anwendungen entwickeln wollen, heißt das unter Umständen: Sie müssen für Trainingsdaten bezahlen. Besser gesagt: Hieß es.
Mit Common Voice stellt Mozilla inzwischen Datensätze für rund 30 Sprachen unter CC-0-Lizenz zur Verfügung. Jeder kann sie herunterladen. Für Englisch stehen zurzeit 30 Gigabyte beziehungsweise 780 Stunden an validierten Sprachaufnahmen bereit. Für Deutsch sind es neun Gigabyte beziehungsweise 325 Stunden. Es folgen Französisch, Walisisch, Bretonisch oder auch Türkisch. Common Voice ist schon jetzt die größte Open-Source-Datenbank ihrer Art – und sie wächst immer weiter. Nicht nur wird das Material für die enthaltenen Sprachen immer umfangreicher. Es kommen auch neue Sprachen hinzu – inklusive solcher, die für globale Konzerne eher uninteressant sind, weil sie von wenigen Menschen gesprochen werden und nur kleine Märkte eröffnen.
Jeder kann Trainingsdaten beisteuern und validieren
Im Vergleich zu den Datenmengen, die auf den Servern der Tech-Konzerne lagern, ist der Common-Voice-Pool zwar noch überschaubar. Dafür kommt er vollkommen transparent zustande – durch „Spenden“ und freiwillige Mitarbeit. „Wir bitten Menschen darum, bestimmte Sätze aufzunehmen, oder Aufnahmen zu überprüfen, in denen andere Menschen bestimmte Sätze vorlesen“, erklärt Kelly Davis.
Um die deutschsprachige Datenbank zu vergrößern, will Common Voice pro Tag 1.200 Aufzeichnungen und 2.400 bestätigte Aufnahmen bekommen. Es kostet nur wenige Minuten, um mitzuhelfen – zum Beispiel, indem man auf der Common-Voice-Webseite Sätze wie „Danach feierte sie einige Erfolge in Musicals und Revuen wie By Jupiter “ vorliest. Oder indem man überprüft, ob andere Freiwillige seltsame Sätze wie „Der Widerstand gegen Formänderung, genauer die Viskosität, kann allerdings beliebig groß sein“ korrekt eingelesen haben.
Die Trainingsdaten, die durch Common Voice gewonnen werden, machen noch keine Alternative zu Siri und Alexa. Daher stellt Mozilla mit dem frei verfügbaren Spracherkennungssystem Deep Speech eine Open-Source-Engine bereit, die gesprochene Sprache schneller als in Echtzeit in Text umwandelt – und vom Machine-Learning-Team laufend verbessert wird. Seit Version 0.6, die kürzlich veröffentlicht wurde, ist Deep Speech schlanker und effizienter geworden. Denn die Engine ist auch für den Einsatz auf Geräten mit schwacher Hardware gedacht.
Mit Deep Speech müssen keine Daten auf die Server eines Unternehmens geschickt werden. Die Verarbeitung erfolgt direkt auf den Geräten – und funktioniert so beispielsweise auf dem Raspberry Pi 4. „Wir wollen damit zeigen, dass Sprachassistenten, die die Privatsphäre der Nutzer schützen, tatsächlich möglich sind“, sagt Alexander Klepel, Strategic Partnership Lead in Mozillas Open Innovation Team, zu 1E9.
Deep Speech wird bereits von den Machern des nicht-kommerziellen Sprachassistenten Mycroft verwendet, der sowohl auf Mycroft-Smart-Speakern als auch auf Geräten wie dem Raspberry Pi läuft, sowie bei Leon, einem weiteren Open-Source-Projekt. Ein Deep-Speech-Modell, das Englisch versteht, ist von Mozilla bereits entwickelt und kann heruntergeladen werden. Modelle für andere Sprachen können von den Nutzern selbst trainiert werden. Das Start-up Iara Health arbeitet beispielsweise mit brasilianischen Sprachdaten und Deep Speech, um einen KI-Assistenten für den Gesundheitssektor zu entwickeln.
Hat die Open-Source-Bewegung eine Chance gegen Amazon & Co.?
Obwohl Alexa, Siri und der Google Assistant für Nutzer kostenfrei sind und auf immer mehr Geräten funktionieren, sagt Mozilla selbstbewusst, dass es bei Common Voice und Deep Speech um die Demokratisierung der Spracherkennung geht.
„Natürlich haben die großen Datenkonzerne viel Geld in Technologie investiert und beeindruckende Produkte entwickelt“, sagt Alexander Klepel. „Aber sie sind die einzigen, die die damit generierten Daten nutzen können. Das ist auch erstmal völlig in Ordnung. Doch das verhindert mehr Wettbewerb und es nimmt Leuten die Möglichkeit, Technologie nicht nur zu nutzen, sondern auch mit dieser Technologie zu arbeiten und darauf aufzubauen.“
Mozilla möchte das ändern und den Markt für unabhängige Entwickler und Projekte sowie für datensparsame Produkte zugänglich machen. Das meint „Demokratisierung“. Aber haben Entwickler, die mit den Common-Voice-Daten und Deep-Speech arbeiten, überhaupt eine Chance gegen Technologie-Konzerne? Kelly Davis, der die Machine-Learning-Unit leitet, sagt: ja.
„Dafür sind die Fortschritte bei den Spracherkennungs-Algorithmen verantwortlich, die in den letzten sechs oder sieben Jahren gemacht wurden“, erklärt er. „Davor war Spracherkennung nur eine Spielerei, inzwischen ist sie wirklich nützlich geworden.“ Außerdem könnten selbst kleine Teams mit kleinen Datenmengen inzwischen Anwendungen bauen, für die große Unternehmen früher Jahre gebraucht hätten. „Die Engines der Konzerne sind nur noch ein paar Prozent akkurater als das, was kleine Gruppen entwickeln können.“
Ohnehin müsse man keinen Markt domonieren, um Verbesserungen für Nutzer und unabhängige Entwickler zu erreichen, sagt Alexander Klepel. „Wenn wir es schaffen, genug Menschen auf ebenfalls verfügbare Technologie aufmerksam zu machen, die ihre Privatsphäre besser schützt“, erklärt er. „Dann werden sie solche Lösungen einfordern. Das kann die Standards in der ganzen Industrie verändern.“
Dann könnten auch die Menschen von den Vorteilen der Spracherkennung profitieren, die bisher Angst hatten, dass jemand mithört.
Titelbild: smartboy10 / Getty Images