TikTok wird mit KI-generierten Videos überschwemmt: In vermeintlichen Straßenumfragen werden Schwarze und Migranten als Kriminelle dargestellt. Das erreicht teils Millionen Menschen.

Ein Video aus der Vorstadtidylle: Ein schwarzer Mann sitzt auf einer Bank im Park und genießt eine Tafel Schokolade. Ein Polizist kommt zu ihm und sagt lachend: "Vorsichtig! Nicht, dass du in deinen Finger beißt." Ein weiteres Video: Eine schwarze Mutter ruft ihre Kinder. "Los, Leute. Wir müssen eure Cousins treffen." In der nächsten Szene steht die Familie im Zoo vor einem Affenhaus und winkt durch die Scheibe.

Verbreitet werden diese Videos vor allem auf der beliebten Social-Media-Plattform TikTok oder bei Instagram. Sie werden immer wieder anonym gepostet und benutzen rassistische und antisemitische Stereotype. "Wir werden mit so vielen Inhalten in kurzer Zeit konfrontiert, dass wenig Raum zur bewussten Verarbeitung bleibt", sagt Pia Lamberty. Sie forscht zu Desinformation im Netz. "Insofern können solche problematischen Inhalte unbewusst auch ihre Wirkung entfalten, weil wir zu wenig Pausen zum Reflektieren haben."

Zur Person Pia Lamberty ist gemeinsam mit Josef Holnburger Geschäftsführerin beim Center für Monitoring, Analyse und Strategie (CeMAS) und forscht als Psychologin seit Jahren dazu, warum Menschen an Verschwörungserzählungen glauben und welche Konsequenzen dieses Weltbild mit sich bringt.

Diese Clips erreichen teils millionenfach Zuschauer und verbreiten Vorurteile in großer Reichweite. "Je stärker die Inhalte verbreitet werden und die Desinformationsblase verlassen, desto größer ist die Wirkung." Die Affen in diesen Videos würden zur Entmenschlichung schwarzer Menschen genutzt.

Es sei eine Reproduktion kolonialer Stereotype getarnt als satirischer und angeblich humorvoller Clip. "Die Menschen, die sowieso schon eine ähnliche Haltung haben, werden darin bestärkt. Darüber hinaus macht hier auch die Dosis das Gift: Je mehr solcher Narrative auf Social Media stattfinden, desto mehr tragen sie zur Normalisierung von Hass und Hetze bei und können Einstellungen verändern."

Menschenverachtende Videos

In einem anderen KI-Clip steht ein angeblicher Journalist neben einem jungen, schwarzen Mann mit löchrigem T-Shirt: "Möchten Sie den Deutschen die Jobs wegnehmen?", fragt der Reporter. "Nein, ich nehme Bürgergeld und Mercedes", so die Antwort. Die Kommentare auf das Videos zeigen, dass nicht alle Nutzer verstehen, dass es sich um KI-Videos handelt. "Ab ins Schlauchboot. Schickt ihn nach Hause", schreibt ein Nutzer. Eine andere Nutzerin: "Was ist nur los mit unsere Deutschland?" Die Videos transportieren ein Gefühl der Angst, so Pia Lamberty. Sorge vor Überfremdung, vor Migration und Abstieg.

"Solche Fake-Umfragen sind oft dazu da, um Ressentiments zu schüren und an Ängsten und Wut der Bevölkerung anzudocken, um diese dann weiter zu verstärken", sagt Lamberty. Die Aussagen und die Umfragen scheinen echt, sind aber frei erfunden. "Eine gespaltene Gesellschaft ist labiler gegen Bedrohungen. Insofern wird versucht, solche Prozesse zu verstärken." Diese Umfrage-Videos sind keine Seltenheit. Sie sind aber nur ein kleiner Teil der großen Masse an KI-generierten Videos. Viele der Clips sollen lustig sein oder unterhalten. Doch auch die menschenverachtenden Clips werden gezeigt und weltweit verbreitet.

Gefälschte Straßenumfragen

Besonders verstörend seien gefälschte Straßenumfragen, in denen KI-generierte Stimmen vorgeben, Deutschland sei "nicht mehr deutsch". Bei den Clips fehle oft der Hinweis, dass sie Fakes sind. Experten schätzen, dass mit der neuen Google Bild-KI zahlreiche solcher Videos erstellt werden. "Die Plattformen übernehmen zu wenig Verantwortung für Inhalte, die bei ihnen verbreitet werden. Oft passiert zu wenig oder es wird zu spät gehandelt", sagt Pia Lamberty.

Die Bildqualität ist sehr hoch und lässt sich kaum noch von echten Videos unterscheiden. In einem Supermarkt wird ein indischer Mann gefragt, ob er bar oder per Karte zahlen will. Er kippt einen Topf mit Essen auf den Tisch und sagt: "Ich zahle mit Chicken Tikka Masala Pay."

Tech-Plattformen sind ein Problem

Was ist hier die Rolle der Plattformen? Warum reagieren sie nicht ausreichend auf die Videos? Plattformen seien Teil des Problems, so Beobachter. Der Konzern Meta habe seinen Algorithmus vor kurzem so verändert, dass stärker Inhalte von unbekannten Konten in die Timelines der Nutzer geraten. Damit erreichen gefakte KI-Clips auch die Menschen, die den Konten gar nicht folgen.

"Wir sehen ja auch in der letzten Zeit eine Tendenz, sich aus Regulierung mehr und mehr rauszuziehen. Das wird dann gerne mit dem vermeintlichen Schutz der freien Rede begründet. Das finde ich gerade in diesen unsicheren Zeiten sehr problematisch", sagt Lamberty. "Generell finde ich es wichtig, dass die Plattformen hier ihrer Verantwortung nachkommen. Dazu braucht es auch politischen Druck."

Haftungsausschluss: Das Urheberrecht dieses Artikels liegt beim ursprünglichen Autor. Die erneute Veröffentlichung dieses Artikels dient ausschließlich der Informationsverbreitung und stellt keine Anlageberatung dar. Bei Verstößen kontaktieren Sie uns bitte umgehend. Wir werden bei Bedarf Korrekturen oder Löschungen vornehmen. Vielen Dank.