FM4-Logo

jetzt live:

Aktueller Musiktitel:

Fingerabdruck überlagert mit Audio Hüllkurve

CC0 Public Domain

Erich Moechel

Facebook plant Lauschangriff auf die Wohnzimmer

Das neueste Patent des Internetkonzerns beschreibt, wie eine Smartphone-App Audiodaten aus TV-Programmen und die Reaktionen der Zuseher an Facebook weitergibt. Die Zuseher werden über einen digitalen „Stimmabdruck“ sicherer als mit Fingerprints identifiziert.

Von Erich Moechel

Die neueste Patentschrift von Facebook verrät, was wohl als eines der nächsten „Features“ kommen wird. Über eine Smartphone-App wird nicht nur der TV-Ton mitgeschnitten und automatisch analysiert. Erhoben wird auch, welche Individuen im Raum sind und deren Reaktionen auf das jeweilige Programm, vor allem aber die Werbespots. Zur sicheren Identifizierung der Personen wird eine ursprünglich von der NSA entwickelte Technologie zur Sprecheridentifikation benutzt.

Dieser digitale „Stimmabdruck“ ist nicht nur treffsicherer als Fingerabdrücke, sondern auch ganz einfach automatisch und von Ferne abzunehmen. Der NSA genügten ein paar Audiobotschaften und abgefangene Telefonate, um die Stimme Osama Bin Ladens von da an sicher zu identifizieren. Dasselbe gilt für Facebook, es ist also nur eine Frage kurzer Zeit, bis die ersten Facebook-Apps mit diesem „Feature“ der Sprachbiometrie aufwarten werden.

Text

public domain

„Ein Online-System analysiert Inhalte von TV-Ausstrahlungen, die von Individuen in einem Haushalt gesehen werden“. Aus der Einleitung zur Facebook-Patentschrift

Wie Stimmbiometrie funktioniert

Dass es sich bei der Kerntechnologie, die dem Patent zugrunde liegt, um Sprachbiometrie handelt, verschweigt die Patentschrift konsequent. Auch das Wort Biometrie kommt im Text nicht vor und wie der „Identifikator des Individuums, das mit dem Smartphone assoziiert ist“ aussieht, wird auch nicht näher erläutert. Das ist nämlich der digitale Stimmabdruck. Wie beim Fingerabdruck wird ein bestimmtes Set von Parametern erfasst, das sind in diesem Fall akustische Muster, die aus Größe und Umfang des Rachenraums usw. resultieren.

In den USA plant die US-Heimatschutzbehörde DHS bereits Zugriff auf „externe Biometriedaten“ , also Gesichtserkennung und Sprachbiometrie, von den Internetfirmen.

Dazu kommen Verhaltensdaten wie Stimmlage, Betonung und die gesamte Sprechweise der Person samt auffälligen Eigenheiten, etwa in welchem Rhythmus Sprachpausen eingesetzt werden. Deshalb fällt „Speaker Recognition“ - also der digitale Stimmabdruck - unter Verhaltensbiometrie, eben anders als der Fingerprint, dem sprachbiometrische Methoden in allen Belangen überlegen sind. Zum einen enthält gesprochene Sprache weitaus mehr distinktive Elemente als die individuellen Kreuzungen von Linien bei einem Fingerabdruck. Der „Voice Identifier“ kann zudem über jedes handelsübliche Mikrophon auch von Ferne abgenommen werden und zwar, ohne dass die so abgegriffene Person das überhaupt bemerkt.

Text

public domain

Der Trigger für den Start des Mitschnitts und der Audioanalyse sind Töne im Ultraschallbereich, die mit einem Werbespot ausgestrahlt werden. Wie die Abnahme des Stimmabdrucks ist auch diese Überwachungsaktion für die Benutzer nicht wahrnehmbar

Mitlauschen im Wohnzimmer

Verbaut sind diese Mikrophone natürlich in den omnipräsenten Smartphones und nicht ganz überraschend läuft darauf eine Facebook-App. Die zeichnet die Umgebungsgeräusche laufend auf, und erstellt daraus einen „Geräuschabdruck“, um Rauschen und Störungen herauszurechnen, also auszublenden. Dann werden die Stimmabdrücke der Personen im Raum abgegriffen, mit einer Datenbank bei Facebook abgeglichen und dem jeweiligen Profil des Benutzers hinzugefügt.

Erst im Februar hatte Facebook ein Patent auf „Augen-Tracking“ angemeldet, das enorm sensible „implizite“ Verhaltensdaten erfasst, die Einstellungen und mentale Dispositionen der Benutzer verraten.

Damit weiß Facebook, welche Personen vor einem Fernseher versammelt sind. Da auch der Fernsehton aufgezeichnet wird, lässt sich auf die gleiche Weise verifizieren, welche Sendung bzw. welcher TV-Kanal in diesem Haushalt gesehen wird. Dazu werden Äußerungen und Kommentare aller Personen aufgezeichnet, Hinzukommende werden ebenso registriert. In der Patentschrift ist das als System für TV-Broadcaster und vor allem für Werber dargestellt, die solchermaßen den „Impact“ ihrer Werbung messen können.

Ganz neue Datenkategorien für Facebook

Den weitaus größten Nutzen wird allerdings Facebook selbst aus den erhobenen Daten ziehen können und das gleich mehrfach. Über diese individuellen Stimmabdrücke kann der Konzern in Hinkunft alle Benutzer in allen Audios und Videos sicher identifizieren. In der Datenwirtschaft sind solcherart verifizierte Benutzerprofile die teuerste Handelsware, zudem kommt Facebook so an Verhaltensdaten was die TV-Nutzung betrifft.

Grafik

Public Domain

Dieses Diagramm zeigt die die einzelnen Komponenten zur Verarbeitung dieser Daten im Facebook-System. Linkerhand ist das Benutzerprofil der betreffenden Person, ganz unten ist das „Impression Module“, das vom Output aller sechs Module getriggert wird. „Impression“ bedeutet hier nicht etwa „Page Impressions“ also Klicks, sondern beinhaltet die Reaktion des Benutzers auf bestimmte Inhalte, die er/sie gerade im Fernsehen sieht.

Das ist eine völlig neue Datenkategorie, die Facebook bis jetzt nicht erheben konnte. Die Frage dabei ist nur, wie eine solche App den Benutzern unterzujubeln ist, denn aus der Patentschrift geht nicht wirklich hervor, welche möglichen Vorteile die Benutzer selbst aus dieser Anwendung ziehen könnten. Das „Augen-Tracking“ via Smartphone - auch da hat Facebook eine ganze Serie von Patenten angemeldet bzw. wurden sie schon erteilt - soll den Benutzern laut Patentschrift ja als Smartphone-Fernsteuerung mit den Augen verkauft werden.

Verhaltensdaten und sichere Identifikation

Auch in diesem Fall werden weniger biometrische, als vielmehr Verhaltensdaten erfasst. Augen-Tracking basiert auf Bewegungsmessungen der Pupille, die genaue Berechnungen ermöglichen, auf welchen Punkt des Displays und vor allem wie lange der Benutzer darauf schaut. Auf diese Weise werden nicht nur Vorlieben des Benutzers sichtbar gemacht, sondern auch seine individuellen Verhaltensmuster. Zum Beispiel, wenn ein Benutzer zwar länger auf den Eingabeknopf blickt, ihn am Ende aber doch nicht drückt.

Neue Patente zeigen, dass Facebook nicht nur massenhaft Benutzerdaten an Dritte weitergibt, sondern auch, wie der Konzern in fremden Netzen nach Nutzerdaten jagt

Diese Daten sind das begehrteste Gut von Marken- und Marktstrategen, die sich für sämtliche Parameter rund um jede Kaufentscheidung interessieren - besonders dann, wenn diese Kaufentscheidung letztlich doch nicht gefallen ist. Um diese Daten erfassen zu können, ist allerdings spezielle Hardware nötig, nämlich eine hochauflösende Kamera auf der Benutzerseite und dazu Infrarot-LEDs. Die legen ein Netz aus 30.000 unsichtbaren Bildpunkten über das Gesicht des Benutzers und machen dadurch 3D-Gesichtserkennung möglich, die dadurch nicht mehr mit Fotos des Besitzers auszutricksen ist.

Bometrischer Overkill gestartet

Sachdienliche Informationen, Metakritiken et al. sind über dieses Formular verschlüsselt und anonym beim Autor einzuwerfen. Verbindungen via TOR-Netz willkommen. Wer eine Antwort will, gebe tunlichst eine Kontaktmöglichkeit an.

Apple setzt diese Technologie bereits auf dem iPhone X ein, mit dem Asus Zenfone 5Z wird auch das erste Android-Smartphone mit dieser Anwendung in Kürze auf den Markt kommen. Es dürfte also nicht mehr lange dauern, bis diese Technologie in alle Smartphones der gehobenen Klasse eingezogen ist. Für stimmbiometrische Anwendungen ist hingegen bereits alles Nötige seit Jahren verbaut, denn mehr als ein Standardmikrophon wird dafür nicht gebraucht.

Im Grunde fehlt Facebook also nur eine Marketingidee mit sogenannten „Incentives“ für die Benutzer, dass sie die entsprechende App auch installieren. Auch hier gilt die Faustregel des Zeitalters der Datenökonomie: Der Weg in die Datenhölle ist mit „Customer Convenience“ asphaltiert. Und: In diesem Fall sogar mit Flüsterasphalt.

Aktuell: