Werbung

| Gesellschaft

200 Stunden Dialekt für Alexa und Siri

Die beiden Hochschulen ZHAW und FHNW riefen vor einem Jahr zu einer Datensammlung von Schweizer Dialekten in der gesamten Deutschschweiz auf. Dabei kamen rund 150'000 Sprachaufnahmen mit gegen 200 Stunden Material zusammen. Mit den digitalisierten Dialekten können wichtige Computerprogramme trainiert werden.

Chatbots und Sprachassistenten wie Siri oder Alexa verstehen gesprochenes Schweizerdeutsch nur schlecht. Das liegt am Mangel an Audiodateien, die nötig sind, um diese Systeme zu trainieren. Für grosse Technologiefirmen wie Google, Apple oder Amazon ist der Schweizer Markt zu klein, um eine Lösung zu entwickeln, die Schweizerdeutsch versteht. Das soll sich ändern. «Wir wollen Schweizer Dialekte sammeln und digitalisieren», sagt Mark Cieliebak vom ZHAW-Centre for Artificial Intelligence (CAI). Manfred Vogel von der FHNW ergänzt: «Diese Daten werden wir anschliessend verwenden, um einem Algorithmus basierend auf künstlicher Intelligenz beizubringen, schweizerdeutsche Sprache zu verstehen und automatisch in hochdeutschen Text umzuwandeln».

200 Stunden aus 150'000 Sprachnachrichten

Nun kamen im Gesamten rund 150'000 Sprachnachrichten zusammen. «Dies entspricht rund 200 Stunden Audiomaterial. Am Meisten davon kam aus dem Kanton Zürich. Dieser Kanton ist auch der bevölkerungsreichste. Bern lieferte rund 16'000 Aufnahmen und aus Luzern kamen rund 3'000 Aufnahmen», sagt Manuela Hürlimann, Projektleiterin der ZHAW. Damit werden die Programme nun gefüttert.

Starke Verbesserung

Dank dem neuen Material konnten die Sprachassistenten schon erheblich verbessert werden. «Wenn die Menschen langsam und einzeln sprechen, dann transkribieren die Programme schon fast fehlerlos. Es gibt noch einige Probleme bei speziellen Wörtern. Die grösste Hürde ist jedoch, auch wenn man Englisch spricht, wenn mehrere Menschen gleichzeitig sprechen. Da liegt noch das grösste Verbesserungspotenzial», so Hürlimann.

Werbung

neo1 - Mein Radio
00:00
-00:00