Ein neuer Patentantrag Apples beschreibt ein System, in dem iPhones, AirPods oder „intelligente Brillen“ über Bewegungssensoren Gesichtsbewegungen aufzeichnen. Das könnte zum Lippenlesen verwendet werden.

Erhalten die Apple Airpods Max bald eine Sensorik, die ihnen das Lippenlesen ermöglicht?  (Foto: Apple)

Ein bereits im Januar dieses Jahres eingereichter Patentantrag des Technologiekonzerns aus dem kalifornischen Cupertino lässt aufhorchen. Darin beschreiben die Ingenieure des Unternehmens ein System, mit dem festgestellt werden kann, ob „Bewegungsdaten“ mit einem Wort oder einem Satz übereinstimmen.

Analyse der Mundpartie mit Sensoren

Dabei wird immer wieder Siri referenziert und anhand von einfachen Sprachbefehlen wie „Hey Siri“, „Skip“ oder „Next Song“ dargestellt, wie all diese Eingaben dank eines Algorithmus, der die Mundpartie des Benutzers analysiert, verbessert werden könnten.

Wie Apple Insider zuerst berichtet hat, sieht Apple ohnehin ganz offensichtliche Probleme mit Spracherkennungssystemen wie Siri. Stimmen können durch Hintergrundgeräusche verzerrt werden. Zudem würden Sensoren, die ständig die Stimmen ihrer Nutzenden überwachen, eine Menge Strom und Rechenleistung verbrauchen.

Es ergibt daher nur wenig Sinn, etwa die Kamera eines Geräts zu verwenden. Ebenso wenig würde Apple das Mikrofon zu diesem Zweck wählen, denn das sei viel zu leicht „durch unerwünschte Reize“ zu irritieren.

Bewegungssensorik könnte Siri das Lippenlesen beibringen

Infrage käme viel eher einer der Bewegungssensoren im Smartphone oder etwa ein Gyroskop in AirPods oder einer vage angedeuteten „intelligenten Brille“. Wichtig ist schlicht eine Sensorik, die in der Lage ist, Bewegungen des Mundes, des Halses oder des ganzen Kopfes aufzuzeichnen. Dann soll eine KI feststellen, ob eine dieser Bewegungen auf menschliche Sprache hindeuten könnte.

Die Geräte könnten laut Patentantrag subtile Bewegungen der Gesichtsmuskeln, Vibrationen oder Kopfbewegungen erkennen. Am Ende könnte ein autonomes Lippenlesesystem entstehen.

Für diese Art von System bräuchte Apple allerdings eine ganze Menge Daten darüber, wie Menschen ihre Mundwerkzeuge benutzen. Apple spricht von einem „Erstsprachenmodell“, das auf Beispieldatensätzen trainiert werden müsste.

Zu guter Letzt sei noch der Hinweis erlaubt, dass Apple ständig viele Patente anmeldet. Die meisten davon werden niemals oder zumindest bislang nicht in Produkte umgesetzt. So könnte es natürlich auch dem nun vorgestellten Lippenleser gehen.

Quelle: https://t3n.de/news/apple-patent-kann-siri-bald-lippen-lesen-1568329/