Meta hat eine Sprach-KI veröffentlicht, die über 1.000 Sprachen spricht

Der Facebook-Konzern Meta hat ein KI-Modell freigegeben, das Text und Ton in über 1.000 Sprachen übersetzen kann. Zudem kann es über 4.000 Sprachen identifizieren. Das Modell ist als Open-Source-Projekt verfügbar und soll helfen, aussterbende Sprachen zu konservieren.

Von Michael Förtsch

Heute am 25. Mai ist Handtuchtag. An diesem Tag gedenken Fans dem Schriftsteller Douglas Adams, der vor 40 Jahren zunächst das Hörspiel The Hitchhiker’s Guide to the Galaxy ins Radio gebracht hat und anschließend die Romanreihe Per Anhalter durch die Galaxis in die Regale von Nerds rund um die Welt. In der Saga verschlägt es den Briten Arthur Dent durch eine Verkettung bizarrer Zufälle durch das halbe Universum und quer durch die Zeit. In seinen Büchern erdachte der bekennende Apple-Fan Adams zahlreiche schräge, aber zuweilen auch faszinierende Ideen für Technologien… im weitesten Sinne. Die wohl bis heute bemerkenswerteste? Der Babelfisch, ein kleiner Fisch den Arthur Dent in sein Ohr gesteckt bekommt, und der ihm hilft, alle Sprachen des Universums zu verstehen.

Der fiktive Fisch war seit jeher für viele Entwickler eine Inspiration. Der einstige Übersetzungsdienst von Yahoo trug sogar seinen Namen. Außerdem arbeiteten zahlreiche Start-ups über die Jahre an Übersetzungsprogrammen und dedizierten Gadgets, die live eine Sprache in eine andere übertragen sollen. Doch bislang waren alle ziemlich begrenzt in ihren Fähigkeiten und oft nur für eine Handvoll Sprachen geeignet. Ein KI-Modell vom Facebook-Konzern Meta könnte das nun ändern.

„Viele Sprachen der Welt sind vom Verschwinden bedroht, und die Grenzen der derzeitigen Spracherkennungs- und -generierungstechnologie werden diesen Trend noch beschleunigen“, heißt es im Blogpost zur Vorstellung des Massively Multilingual Speech – kurz MMS – getauften Modells. Laut den Entwicklern von Meta könne MMS Text in 1.100 Sprachen in gesprochene Worte und umgekehrt übertragen. Über 4.000 Sprachen könne das Modell zudem zielsicher identifizieren, wenn auch nicht unbedingt akkurat verstehen.

Das Modell ist frei

Für die Erstellung von MMS nutzte Meta frei verfügbare Datenbanken mit Spracharchiven. Außerdem erstellte das Team selbst Ressourcen für das Training der KI. Denn „die größten vorhandenen Sprachdatensätze decken höchstens 100 Sprachen ab“. Daher baute Meta ein Dataset mit Lesungen des Neuen Testaments in über 1.100 Sprachen. Denn die Bibel wurde in unzählige verschiedene Sprachen übersetzt und bildete dadurch eine der besten Arbeitsgrundlagen für ein solches KI-Projekt. Über 32 Stunden an gesprochenen Worten pro Sprache konnten so erzeugt werden. Weitere Aufzeichnungen religiöser Texte konnten zumindest die Erkennungsfunktion ausdehnen.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Laut den Meta-Entwicklern soll das Modell Nutzern unter anderem dabei helfen, verschiedenste Anwendungen, Dienste oder Nachrichtenquellen in ihrer präferierten Sprache zu nutzen und sich besser im Ausland zurechtzufinden. Es soll ohne große Hürden möglich werden, Menschen zu verstehen, die eine andere Sprache sprechen. Diese Optionen sollen so vielen Menschen wie möglich zugänglich sein. Daher gab Meta das Modell als Open-Source-Software frei – es kann auf Github in zwei Modellvarianten heruntergeladen werden –, wodurch es von jedem genutzt, adaptiert und weiterentwickelt werden kann.

Außerdem soll das Modell der Forschungsgemeinde helfen, Sprachen zu konservieren, die auszusterben drohen. Mittels Audiodateien und Transkripten kann das Modell mit weiteren Sprachen fortgeschrieben werden. Je mehr Audiodaten und Transkripte vorhanden sind, umso besser für den Erkennungs- und Übersetzungsdienst. Auch Meta selbst wolle MMS aktiv weiterentwickeln, „den Umfang erweitern, um noch mehr Sprachen zu unterstützen, und uns auch der Herausforderung stellen, mit Dialekten umzugehen, was für bestehende Sprachtechnologien oft schwierig ist“.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

2 „Gefällt mir“