FM4-Logo

jetzt live:

Aktueller Musiktitel:

Leinwand mit Köpfen im Schattenriss davor

Lea Blagojevic

ELEVATE FESTIVAL

Wir und KI

Am Elevate Festival in Graz geht es im Diskursprogramm viel um Machtfragen und das Maschinenlernen. Zu Gast ist auch Andre Wolf von Mimikama.

Von Maria Motter

Noch schaut die Heidi eher gruselig aus: Sie ist vom KI-Modell „Sora“ generiert und tanzt im Video ungeschickt. Mit ihrem Vorbild, der Heidi aus dem Roman von Johanna Spyri oder jener aus dem japanischen Zeichentrick hat sie nicht viel gemein. Am Elevate Festival in Graz zeigt Andre Wolf vom Verein Mimikama Samstagvormittag Beispiele für KI-generiertes Bildmaterial. „Error 404: Reality Not Found“ heißt sein Workshop.

Elevate - Festival für Musik, Kunst und politischen Diskurs, 28.2. bis 3.3.2024 in Graz.

Das Elevate Festival findet noch bis morgen Sonntag statt. Vor der nächsten Clubnacht wird am Elevate tagsüber im Heimatsaal bei freiem Eintritt diskutiert und informiert. Auf dem Programm stehen große Fragen, die in Podiumsdiskussionen und Workshops auf konkrete Gebiete heruntergebrochen werden. Es geht um Macht, die menschliche Vorstellungskraft und Verhältnisse, und die manifestieren sich gerade besonders deutlich am zweitliebsten ständigen Wohnsitz vieler, dem Internet. Andre Wolf von Mimikama beschäftigt sich seit Jahren mit sozialen Medien und den Inhalten, die dort geteilt werden.

radio FM4: Was kommt mit den neuen Möglichkeiten von KI auf uns zu?

Andre Wolf: Die Optik wird immer besser. Es werden auch noch neue Sachen hinzukommen, über die wir bisher noch gar nicht so sehr nachgedacht haben, wie z. B. die sogenannte KI-Inzucht. KI funktioniert aufgrund von Trainingsmaterial. Was ist, wenn die KI von KI die Realität lernt? Das ist das Problem. Sprich: Die jetzigen KI-generierten Bilder enthalten schon teilweise Fehler. Was ist, wenn die als Trainingsmaterial genommen werden?

Wie viel schwieriger ist es jetzt in den letzten Monaten für dich als Profi geworden, Informationen, die in sozialen Medien geteilt werden, auf ihre Richtigkeit zu überprüfen?

Es ist nicht grundsätzlich viel schwieriger geworden. Das Problem ist schlichtweg immer die Masse. Wir kennen das aus den USA 2018: Da hieß es „Flood the zone with shit“. Es wird einfach unheimlich viel an Zeug, an Nachrichten hinausgestreut, die einfach nicht stimmen, die manipulativ sind, die letztendlich problematisch sind, und Menschen sind irritiert.

Dann hört man immer so Sprüche wie „Ja, man weiß ja nicht mehr, wem man glauben soll, die sagen ja alle irgendwas Falsches." Manipulative Falschmeldungen haben damit am Ende gewonnen: Sie wollen irritieren und das Vertrauen erschüttern – beispielswiese das Vertrauen in seriöse Quellen und in klassische Medien.

Andre Wolf

Mimikama

Andre Wolf von Mimikama

Das heißt, es wird möglichst viel komisches Zeug in die Welt gebracht und gar nicht so sehr wunderbar gestaltete KI-Bilder?

Aktuell ist es tatsächlich die Masse. Den perfekten Fake, die perfekte Falschmeldung gibt es in dem Sinne noch nicht. Wir haben immer noch die Möglichkeiten, KI-Fälschungen oder KI-Bilder zu entlarven, auch wenn sie wirklich hochqualitativ sind. Weil wir Tools wie die Bildersuche haben, um zu schauen, was hinter einem Bild steckt. Wir haben auch noch immer die Möglichkeit, auf Plausibilität zu prüfen. Die Bilder beinhalten häufig auch noch kleine Fehler am Rande.

Wir wissen auch im Moment noch gar nicht, wie wir KI wirklich einsetzen sollen, muss man dazu sagen. Viele Bilder werden nur aus Spaß generiert, um sie zu zeigen. So ein großes Phänomen ist es noch nicht, dass KI für Falschmeldungen genutzt werden. Aber – jetzt kommt das große Aber - wir sind jetzt im Superwahljahr 2024.

Erste Politiker:innen haben schon ihre Sujets herausgebracht, wo KI-erzeugte Grafiken genutzt werden. Das wird natürlich noch häufiger werden, weil mit einer KI kann ich alles Denkbare visualisieren und dementsprechend auch Szenen von nicht-existenten Szenen erschaffen.

Was hatte ich gesehen? Ein Politiker hat einen Stau (per KI, Anm.) erzeugt und damit auf eine schlechte Verkehrspolitik hinweisen wollen. Ein deutscher Politiker hat beispielsweise Bilder von aggressiven Migranten erzeugt – aus Mangel an echten Bildern. All das ist schon dagewesen. Die Qualität war zwar – glücklicherweise – noch unterirdisch. Aber die kann natürlich besser werden.

Wie ist das in Österreich? Gibt es aktuelle Beispiele, wo du sagst, da müssen wir näher hinschauen?

Grundsätzlich ja. Das Beispiel mit dem Stau stammt aus Österreich. Da ging es ums Burgenland und die Verkehrspolitik von Doskozil. Da hat jemand von einer anderen Partei – es spielt keine Rolle, welche – ein Bild erzeugt mit einem Massenstau und aggressiven Menschen. Interessanterweise hat die KI vierspurige Straßen innerhalb einer kleinen Stadt gezaubert. Also jede Seite ist vierspurig. Daran erkennt man diese Maßlosigkeit der KI, dass sie nicht die Realität kennt und dass das natürlich ein künstlich generiertes Bild ist. Aber was ist, wenn das Bild so perfekt ist, dass es überzeugend wirkt? Das ist immer das Problem und die große Angst, die wir haben.

Aktuell: