FM4-Logo

jetzt live:

Aktueller Musiktitel:

Datenbrille

APA/dpa/Philipp von Ditfurth

Erich Moechel

Sicherheit durch Geheimhaltung für EU-„Hochrisikoprojekte“

Unter den Sicherheitsauflagen der Kommission für EU-geförderte Projekten mit künstlicher Intelligenz steht Geheimhaltung an oberster Stelle. Keines der vier geförderten Projekte gibt bekannt, woher die Abermillionen Datensätze stammen, die für das Training der Software nötig sind.

Von Erich Moechel

Unter die neue Großregulation der Union für digitale Dienste fällt auch die Künstlіche Intelligenz (KI). KI-Anwendungen vor allem im Gesundheitsbereich und bei der Strafverfolgung bergen erhebliches Gefährdungspotenzial, wenn etwa eine KI berechnet, wie wahrscheinlich eine Person ein Verbrechen begehen wird. KI-Projekte in diesen Sektoren werden von Kommission wie Parlament deshalb als regulationsbedürftige „Hochrisikoprojekte“ eingestuft.

Während also eine Regulation erst ansteht, ist mit „Darlene“ seit Juni bereits das dritte solche von der Kommission geförderte KI-Projekt gestartet, das durch Analyse „massiver Datensätze kriminelle Aktivitäten voraussagen und verhindern“ soll. Auf Anfrage von ORF.at versicherte die EU-Kommission, jedes KI-Projekt werde von einem „permanenten Ethik-Monitoring“ begleitet. Im Sicherheitsbereich gälten noch strengere Anforderungen, zum Beispiel „die Geheimhaltung bestimmter Ergebnisse“.

Dokument EU Kommission

EU Kommission

Im Wording der Beschreibung unterscheidet sich „Darlene“ kein bisschen von den anderen gleichgelagerten KI-Projekten des Horizon2020-Programms. Sie alle wirken, als hätte sie die gleiche Künstliche Intelligenz verfasst.

Geheimhaltung als Sicherheitsmaßnahme

„Projektanträge im Bereich Sicherheitsforschung - wie auch andere, die sensitive Bereiche betreffen, unterliegen einer speziellen Sicherheitsüberprüfung“ heißt es in der Anfragebeantwortung der Kommission. „Diese Überprüfung kann - ähnlich wie die Ethikeinschätzung - dazu führen, dass für das Projekt angemessene Sicherheitsauflagen verlangt werden, die für die Förderung erfüllt werden müssen“, so die Kommission weiter. Als Musterbeispiel für solche „Sicherheitsauflagen“ führt die Kommission die „Geheimhaltung bestimmter Ergebnisse“ an. Gerade diese Auflagen werden augenscheinlich strikt befolgt.

Weder bei „Darlene“, noch bei den gleichgelagerten Projekten „Infinity“ oder „Aida“ werden Sicherheitsmaßnahmen, Datenschutz oder Ethik auch nur erwähnt. Dabei benötigen alle solchen Anwendungen von vornherein riesige Datensätze, um die Künstliche Intelligenz zu trainieren, allerdings ist nirgendwo davon die Rede, woher diese Daten stammen. Das ist nicht nur dem frühen Stadium dieser Projekte geschuldet, diese Vorgehensweise hat offenbar Methode. Ein viertes solches KI-Projekt, das im Rahmen des Horizon2020-Programms der Kommission gefördert und bereits abgeschlossen wurde, erweist sich nämlich auch nach drei Jahren als geradezu mustergültig intransparent.

Mustergültige Intransparenz

Das Projekt Insikt hat nach eigenen Angaben bereits ein Produkt fertig, das unter Strafverfolgern offensiv vermarktet wird.

Von dem von Oktober 2017 bis März 2020 geförderten Projekt „Insikt“ ist kein einziges „Deliverable“ - was etwa „Zwischenresultat“ oder „Teilergebnis“ bedeutet - öffentlich einzusehen. Dabei bietet das spanische Start-Up „Insikt Intelligence“, das aus dem Forschungsprojekt hervorgegangen ist, sein Produkt „Inviso“ bereits für "Strafverfolger an. „Unsere ‚Actionable Intelligence Services‘ werden bereits von vielen Organisationen benutzt, um Ermittlungen zu erleichtern und die Welt zu einem besseren Ort zu machen,“ heißt es auf der Website des Unternehmens dazu.

Nähere Informationen zu dieser „Intelligence Platform“, die massenhaft Daten aus Sozialen Netzwerken verarbeitet, gibt es allerdings nicht. Auf der Website finden sich auch keinerlei Angaben über den Firmensitz, zumal es gar kein Impressum gibt, ebenso fehlt eine Datenschutzerklärung, dafür enthält die Site vier Tracker, die allesamt zu Google führen. Auf mehrere Anfragen von ORF.at in der vergangenen Woche gab es bis zum Redaktionsschluss diese Artikels keinerlei Reaktion.

Augmented Reality für EU-Strafverfolger

Airbus Industries

Beim Motto des „Flagship Project“ Infinity mit „User-Driven-Design“, sind offenbar die Alliterationen samt Großbuchstaben mit den Verfassern bzw. der künstlichen Intelligenz durchgegangen: INFINITY. IMMERSE. INTERACT. INVESTIGATE

„Unauffällige Datenbrillen“

Im EU-Ministerrat wird gerade eine Resolution beschlussfertig, die von Europol ihren Ausgang nahm. Chatanbieter sollen verpflichtet werden, Generalschlüssel zur Überwachbarkeit von E2E-verschlüsselten Chats anzulegen.

Das Projekt „Darlene“ - das Akronym steht für „Deep Augmented Reality Law Enforcement Ecosystem“ - kombiniert „mächtige Algorithmen für Machine Learning, Sensor-Informations-Fusionstechniken, 3D-Rekonstruktion, tragbare Technologie und personalisierte und kontextgebundene Anleitungen mit Augmented Reality“. Letztere wird über „leichte, leistbare und unauffällige Datenbrillen“ dargestellt. An welchem Datenmaterial diese mächtigen Algorithmen trainiert werden und welcher Art diese Sensoren sind, deren Informations-Output zusammengeführt wird, bleibt unerwähnt.

In ihrer Antwort betont die EU-Kommission, dass „Forschungskativitäten nicht mit dem tatsächlichem Einsatz“ solcher Technologien „verwechselt werden sollten“, zumal es ja die Aufgabe von Forschung sei, „Ideen und Lösungen zu entwickeln, die noch nicht existieren.“ Daneben könnten die Resultate auch so geartet sein, dass sie Maßnahmen zur Regulation zur Folge hätten, so die Kommission. In allen drei neuen KI-Projekten ist allerdings nicht von abstrakter Forschung, sondern von Produktentwicklung die Rede.

Der aktuelle Stand des Brüsseler Geheimniskrams

Rüstungskonzerne, staatliche Forschungsinstitute und Polizeibehörden haben aus unbekannten Quellen Abermillionen personenbezogene Datensätze als Lernmaterial für neuronale Netze akquiriert. Letzteres ist die Technologie hinter der „künstlichen Intelligenz“, die im besten Fall Intelligenz simulieren kann und riesige Datenmengen zu Trainingszwecken braucht. Daraus sollen KI-Programme werden, die wiederum andere personenbezogenen Datensätze prozessieren sollen und errechnen, wer wie wahrscheinlich einen Terroranschlag begehen und wo das nächste Verbrechen stattfinden wird.

Beim derzeitigen steinzeitlichen Entwicklungsstand dieser Technologie, die es noch gar nicht wirklich gibt, sind solche Annahmen nicht optimistisch, sondern ahnungslos. Die hier analysierten vier Projekte sind nämlich keine Hochrisikoprojekte mehr, sondern solche Fälle, in denen jeder Leiter eines betroffenen Technikteams vom Auftraggeber eine Risikoübernahme mit ausdrücklicher Haftungsbefreiung für sein Team verlangen muss. Die EU-Kommission finanziert das alles, findet Geheimhaltung vor der Öffentlichkeit eine adäquate Sicherheitsmaßnahme und verweist ansonsten auf einen ominösen Ethikrat, dessen Mitglieder zwar nicht bekannt sind, der aber grünes Licht für diese Projekte gegeben hat.

Hier ist der RSS-Feed für diesen Blog. Sachdienliche Informationen, Metakritiken et al. sind über dieses Formular verschlüsselt und anonym beim Autor einzuwerfen. Wer eine Antwort will, gebe tunlichst eine Kontaktmöglichkeit an.

mehr Netzpolitik:

Aktuell: