fake news cover
Foto: Sergey Zolkin, Unsplash / Collage: jetzt.de

Was passiert, wenn jeder Mensch der Öffentlichkeit mit ein paar Klicks suggerieren könnte, das etwas passiert ist, unabhängig davon, ob es tatsächlich passiert ist? Diese Frage stellt sich Aviv Ovadya (31) , früher Berater von Firmen wie Google oder Amazon. Vor zwei Jahren ließ er seinen Beruf ruhen, um sich voll und ganz der Bekämpfung eines Phänomens zu widmen, dass er selbst die „Infokalypse“ nennt: Eine Erosion der Wahrheit, ausgelöst durch moderne Technologien. Während andere noch über den Einfluss von Fake-News auf den Wahlausgang in den USA debattieren, blickt Ovadya nach vorne – und beschreibt in Vorträgen, Artikeln und Interviews ungeahnt bedrohliche Manipulationsmöglichkeiten. Internationale Krisen, ausgelöst durch Videomanipulationen, in denen Staatschefs einem anderen Land den Krieg erklären, ein von Botarmeen und Fake-Petitionen verzerrter Diskurs – und Anrufe von künstlichen Intelligenzen, die mit der Stimme eines Bekannten nach Kontodaten fragen. Aviv arbeitet heute als Cheftechnologe am Center for Social Media Responsibility an der Universität Michigan, welches sich genau mit diesen Themen auf wissenschaftliche Art beschäftigt. Wir haben mit ihm über die Infokalypse, die Verantwortung der großen Tech-Unternehmen und seinen trotz all der dystopischen Gedanken ungebrochenen Optimismus gesprochen.

jetzt: Aviv, in der öffentlichen Sphäre hat es schon immer Menschen gegeben, die ihre eigene Version der Wahrheit durchsetzen wollten. Wo genau liegt die neue Dimension, die laut dir für eine „Infokalypse“ sorgen könnte?

Aviv Ovadya: Nicht alles, was große Veränderungen mit sich bringt, muss auf den ersten Blick radikal neu erscheinen. Bevor wir die Autos hatten, gab es eben Pferde und Kutschen, man kam schon von Ort zu Ort. Aber das Auto hat diese Mobilität wortwörtlich beschleunigt, und seine Erfindung hat den Städtebau, unseren Alltag und die Weltwirtschaft für immer verändert. Und genau so ist es auch mit den neuen Informationstechnologien. Sie haben den Informationsfluss radikal verändert und beschleunigt, ihn in eine völlig neue Größenordnung katapultiert. Egal ob Russen, mazedonische Teenager oder verrückte Verschwörungstheoretiker: Sie alle hätten früher auch schon versuchen können, Einfluss auf die Öffentlichkeit zu gewinnen – in unserer heutigen Online-Umgebung haben sie aber plötzlich diese gigantischen Möglichkeiten, ohne dass irgendeine Form von checks and balances zwischengeschaltet wäre. 

Aviv Ovadya, Chief Technologist am Center for Social Media Responsibility der Universität Michigan

Aviv Ovadya, Chief Technologist am Center for Social Media Responsibility der Universität Michigan

Foto: Katherine Fang

„Je unwahrer die Nachricht, desto höher die Verbreitung“

Viele würden jetzt aber auch sagen: Ist doch toll, dass jeder im Netz publizieren kann. Sollte man das nicht auch als Bereicherung empfinden? Ist das nicht Meinungspluralismus in Reinform, bei dem sich die Wahrheit am Ende durchsetzt?

Ich glaube nicht, dass sich die Wahrheit durchsetzt, zumindest nicht im momentanen System. Momentan haben wir es mit vielen Akteuren zu tun, für die der Faktor Wahrheit keinerlei Bedeutung zum Erreichen ihrer Ziele hat. Das ist kein Meinungsaustausch, sondern eine Schlacht. Und ich glaube, dass diese Schlacht gerade auf einem Spielfeld stattfindet, auf dem die Anti-Wahrheits-Fraktion einen systematischen Vorteil hat.

Wie ließe sich diese Schieflage korrigieren?

Wir müssen das Spielfeld so verändern, dass Fakten belohnt werden, nicht Übertreibungen, Lügen und Hasspropaganda. Als ich mich 2016 damit auseinandergesetzt habe, hatte ich das Gefühl, das gilt: Je unwahrer die Nachricht, desto höher die Verbreitung. Unwahrheiten gibt es seit Menschengedenken, aber sie wurden noch nie so sehr belohnt wie heute.

Kommen wir mal auf Videomanipulationen und die sogenannten „Deep Fakes“ zu sprechen. Dabei handelt es sich um verhältnismäßg einfach zu fabrizierende Videos, in denen zum Beispiel Gesichter von Hollywood-Schauspielerinnen in Pornos montiert wurden. Die gleiche Technologie könnte  deiner Meinung nach zu echten internationalen Krisen führen. Wie liefe das ab?

Das ist ganz einfach zu beschreiben: Videos und Tonaufnahmen haben eine enorme Kraft, Dinge in Bewegung zu bringen. Viele Proteste, Aufstände, Skandale der vergangenen Jahre wurden durch massenhaft geteilte Videos initiiert oder zumindest angefeuert. Auch wenn in manchen Fällen damit tatsächlich Missstände enttarnt wurden, hat es sich oft um gezielt verbreitete Fakes gehandelt. Und hier wird die Technik immer raffinierter: Stellen wir uns einmal vor, in einem künftigen Präsidentschaftswahlkampf würde plötzlich eine Aufnahme kursieren, auf der einer der Kandidaten mit einem Mafia-Boss verhandelt. Und ein paar Tage später taucht dann eine fast gleiche Aufnahme auf, nur vom gegnerischen Kandidaten. Und dann noch von allen anderen. Es ist heute bereits möglich, so etwas künstlich herzustellen, bald kann das absolut jeder. Woher soll der Bürger, die Öffentlichkeit, dann noch wissen, was wahr ist?

„Was wir heute noch Echokammern nennen, könnten bald vollkommen abgeschlossene Öffentlichkeiten sein“

Glauben Menschen alles, was man ihnen zeigt?

Man kann Menschen von absolut allem überzeugen, so lange es ihr Weltbild bestätigt. Das ist die eine Gefahr. Durch die neuen Audio- und Videomanipulationsmöglichkeiten wird sich dieses Problem wesentlich verschlimmern. Bald wird es möglich sein, mit einfachsten Mitteln einem Politiker jedwede Aussage in den Mund zu legen und einen „Videobeweis“ davon zu veröffentlichen. Was wir heute noch Echokammern nennen, könnten bald vollkommen abgeschlossene Öffentlichkeiten sein, die ganz und gar in ihrer eigenen, zurechtmanipulierten Wahrheit leben. Die andere Gefahr ist, dass bald sehr viele Menschen zu der Überzeugung kommen werden, dass keine Art von Beweis echte Gültigkeit hat. Dass jede Art von Beleg gefälscht sein könnte. Also das genaue Gegenteil: Sie glauben gar nichts mehr.

...was dann zu einem Zustand führt, den du als „Realitäts-Apathie“ bezeichnest.

Ja, das sehen wir heute schon. In vielen Konfliktregionen, zum Beispiel in Syrien, ist die öffentliche Wahrnehmung so durchsetzt von den unterschiedlichsten „Wahrheiten“, dass die Menschen sich apathisch abwenden. Das Gleiche gilt in autoritären Regimen, deren Bürger gar nicht mehr wissen wollen, was nun stimmt oder nicht. Oder schauen wir mal darauf, wie viele Leute verunsichert sind, ob Impfungen sinnvoll sind - alles nur wegen beharrlicher Desinformation, die ein „irgendwas ist ja vielleicht dran“-Gefühl erzeugen. Weil so viele widersprüchliche Informationen im Umlauf sind, erwarten sich viele von niemandem mehr eine realistische Sicht auf die Sachlage und trauen am Ende höchstens noch dem, was ihre engsten Freunde sagen. 

Wobei ja selbst darauf dank neuer technischer Mittel kein Verlass mehr ist, wie du in einem Text in der Washington Post beschreibst. Darin warnst du unter anderem vor einem gezielten Einsatz von modulierten Stimmaufnahmen für kriminelle Zwecke.

Ja, es ist bereits jetzt möglich, über eine simple Sprachaufnahme Stimme und Tonfall eines Menschen zu analysieren und die Daten anschließend dazu zu verwenden, diese Stimme neue Botschaften sprechen zu lassen. Das wird sehr wahrscheinlich bald auch in Echtzeit und ohne großen Aufwand möglich sein. Das hat dann nicht nur für die Manipulation der Öffentlichkeit schlimme Folgen, sondern auch im Sicherheitsbereich. Ich nenne das „laser phising“: Stell' dir vor, dein Handy klingelt, am Ende der Leitung die künstliche Stimme deiner Freundin, die zum Beispiel nach einem Paypal-Passwort fragt - auch hier wird man möglicherweise bald nicht mehr unterscheiden können, was real ist.

„Wir sollten auf keinen Fall unseren Sinn dafür verlieren, was real ist und was nicht“

Ein weiterer von dir eingeführter Begriff ist die sogenannte „polity simulation“. Dabei wird Personen vorgegaukelt, dass ein öffentliches Interesse für etwas besteht, besonders Politkern. Zum Beispiel durch eine Fake-Petition mit tausenden täuschend echten Unterzeichnern. Ist das bereits passiert?

Es ist bereits vorgekommen, dass öffentliche Stellungnahmen gegenüber Entscheidungskräften manipuliert worden sind. Viele Kommentare auf Parteiseiten, unter Zeitungsartikeln oder auf allen möglichen Plattformen stammen nicht länger von echten Menschen. Bots können bereits jetzt die öfffentliche Wahrnehmung einer Debatte erheblich beeinflussen und Themen nach vorne bringen, sodass Politiker das Gefühl haben, auf sie eingehen zu müssen. Und die Möglichkeiten, diese Bots glaubwürdiger erscheinen zu lassen, werden mit jedem Tag besser. Stellen wir uns nur mal vor was wäre, wenn künstliche Identitäten plötzlich auch Anrufe bei politischen Behörden tätigen könnten, wenn sich ganze Protestbewegungen faken ließen?

Angesichts all dieser Entwicklungen: Wie soll man sich verhalten, wenn man nicht in Realitäts-Apathie verfallen will?

Wir sollten auf keinen Fall unseren Sinn dafür verlieren, was real ist und was nicht. In vielen Situationen ist ja genau das das Ziel der ganzen Verwirrungstaktiken: Die Leute zum Aufgeben zu bringen, sie in genau diese Apathie zu befördern. Alles, was ich hier erzähle, sollte niemanden resignativ stimmen, sondern eher motivieren, diese Tendenzen so gut wie möglich einzudämmen.

Du arbeitest als Cheftechnologe für das Social Media Responsibility Center an der Universität Michigan, das auch für mehr digitales Verantwortungsgefühl sorgen will. Wie reagieren Unternehmen und Politik auf deine Prognosen? 

Es hat sich durchaus etwas getan: In meinem Feld gibt es viele Stimmen, die ihre Besorgnis lautstark äußern. Mittlerweile ist das Thema auch in der Politik und bei den Unternehmen angekommen – zumindest nach den Erfahrungen aus dem Jahr 2016, der Debatte um Fake-News, den Vorwürfen an Facebook und so weiter. Für die Themen, die bereits Realität sind, gibt es also zumindest schon ein offenes Ohr. Aber es ist umso schwerer, Menschen für künftige Risiken zu sensibilisieren. Hier würde ich sagen: Wir sind nicht im Geringsten auf all das vorbereitet. Und ich versuche natürlich, weiter Überzeugungsarbeit zu leisten, Lösungen zu finden. Wobei man hier vielleicht gar nicht von Lösungen sprechen sollte, eher von Maßnahmen, welche die beschriebenen Auswirkungen verringern könnten.

„Es muss jemanden geben, der sagt: Nein, das können wir nicht auf den Markt bringen, weil es die nächsten Wahlen gefährdet“

Du forderst ja zum Beispiel sogenannte „Societal Impact Review Boards“ in Unternehmen, eine Art Expertengremium, das vor möglichen Negativeffekten von Technologien warnen soll. Exisitiert so etwas bereits in Ansätzen?

An sich schon, allerdings vorrangig im Bereich der Datensicherheit. Dort gibt es bereits hauseigene Experten, die ihrem Unternehmen im Falle eines Falles sagen: Nein, diese Technologie können wir nicht auf den Markt bringen, das ist zu gefährlich für die Daten. Genau das sollte bald ebenso für gesellschaftliche Aspekte gelten. Es könnte jemanden geben, der sagt: Nein, das können wir nicht auf den Markt bringen, weil es die nächsten Wahlen gefährdet. Solche Praktiken sollten sich in den Unternehmen durchsetzen.

Wie überzeugt man Unternehmen von solchen Ideen?

Natürlich ist das nicht einfach. Die Mentalität vieler Entwickler speist sich ja aus diesem Internet-Pioniergeist: Erst einmal nach vorne preschen. Das ist auch ihr gutes Recht, und natürlich bringen uns die neuen Technologien in vielerlei Hinsicht auch voran. Die Unternehmen wollen ihre neuen Ideen auf den Markt bringen, Geld verdienen. Aber gleichzeitig will auch niemand sein Unternehmen in einen Skandal verwickelt auf der Titelseite der New York Times sehen. Viele Firmenchefs müssen sich heutzutage für die schlechten Auswirkungen ihrer Plattformen entschuldigen: Oh, das wussten wir nicht, oh, das tut uns jetzt aber leid. Wenn diese Firmen schon vorher eine Art Anti-Entschuldigungs-Division, also die Impact Boards, von denen ich spreche, in ihrem Haus gehabt hätten, wäre es vielleicht nie so weit gekommen.

Was hältst du von einer Regulierung durch die Politik?

Das halte ich nur bedingt für die richtige Maßnahme – ein vehementer Zwang könnte nach hinten losgehen . Es sollte aber zumindest Druck von politischer Seite geben, eine Warnung: Eure Technologie gefährdet die Gesellschaft. Wenn ihr das nicht selbst hinbekommt, müssen wir eben regulierend eingreifen.

„Ich mag zwar pessimistisch klingen, aber ich weiß auch: Wir können viel gegen all das tun“

Liegt die Verantwortung also am Ende nur bei den Unternehmen?

Nein! Auch die Politik und die Zivilgesellschaft selbst stehen in der Pflicht, diese Themen auf die Tagesordnung zu heben. Auch Forscher an Universitäten müssen aufpassen, schließlich entstehen viele der Technologien genau dort. Auch hier muss mehr Verantwortungsgefühl herrschen, was mögliche gesellschaftliche Auswirkungen und das Verringern der Risiken betrifft.

Nach allem was du erzählt hast: Wie behältst du deinen Optimismus?

Ich will nunmal nicht die Realität aufgeben, das wäre doch absurd. Ich bin ja noch recht jung. Ich mag zwar recht pessimistisch klingen, aber ich weiß ja auch: Wir können viel gegen all das tun. Mittlerweile gibt es ein Problembewusstsein in allen Bereichen der Gesellschaft, das vor zwei Jahren noch nicht einmal im Ansatz vorhanden war. Ich und viele andere Menschen spüren, dass wir als Individuen und als Gesellschaft immer dümmer werden, wenn alles so weitergeht. Das kann ja keiner wollen. Vielleicht lässt sich das mit betrunkenem Autofahren vergleichen. Wir werden immer besoffener. Und ich will dafür sorgen, dass wir uns zumindest nicht weiter volllaufen lassen. Und dafür, dass wir am Ende keinen Unfall bauen.

Mehr zu Fake-News und Fakten im digitalen Zeitalter: