Wie relevant das Thema künstliche Intelligenz (KI) für die deutsche Wirtschaft ist, zeigt eine neue Studie der Unternehmensberatung KPMG. Die Analysten hatten im März 650 Entscheidungsträger aus 18 Branchen befragt, wie sie zum Einsatz der Technologie in ihrer Firma stehen.
Das Ergebnis zeigt einen deutlichen Trend: Nannten im vergangenen Jahr 55 Prozent der Teilnehmer die Software „entscheidend für ihr Geschäftsmodell und die künftige Wertschöpfung“, stieg der Wert in diesem Jahr auf 91 Prozent. Angesichts des großen Optimismus planten außerdem 82 Prozent, ihre KI-Budgets zu erhöhen – 51 Prozent sogar um 40 Prozent oder mehr.
Die Entwicklung überrascht. Denn in den vergangenen Monaten waren viele Modelle immer wieder in die Kritik geraten. So musste etwa Googles Gemini aufwendig überarbeitet werden, weil es selbst auf einfache Anfragen mit übertrieben politisch korrekten Antworten reagierte – etwa indem es Bilder von schwarzen Päpstinnen oder asiatischen Wehrmachtssoldaten generierte – die es so natürlich nie gab.
Experten kritisierten damals einen „digitalen Paternalismus“, auch Google gab damals zu, seine künstliche Intelligenz „viel zu vorsichtig“ eingestellt zu haben. Der Grund: Die Software lernt anhand von Trainingsdaten aus dem Internet. Diese jedoch bilden oft kein genaues Bild der Realität ab – und die Anbieter versuchen deshalb, mit menschlichen Eingriffen eine weniger voreingenommene KI zu erschaffen. Bisher kam es jedoch immer wieder zu ebenso verzerrten, unverhältnismäßig an den Zeitgeist angepassten Antworten.
Hat sich die KI seitdem grundlegend verbessert? Wie verlässlich – oder wie politisch ist die künstliche Intelligenz, die zunehmend die Handlungsweise der Unternehmen beeinflusst, noch?
Zumindest Google gibt sich schon einmal geläutert. Auf Anfrage heißt es dieses Mal lediglich, Gemini sei „darauf ausgelegt, den Anweisungen und Anpassungen unserer Nutzer*innen bestmöglich zu folgen. Gemini soll somit Vorgaben befolgen, ohne dabei eigene Meinungen oder Überzeugungen zu vertreten.“ Weiter: „Eine Ausnahme besteht, wenn Nutzer*innen dies ausdrücklich anweisen.“
Die Sorge vor zu viel Wokeness, also jener übertriebenen politische Korrektheit, scheint jedoch weiterhin ein Thema zu sein. Nicht nur für Google, auch in der Politik. Erst vor wenigen Wochen erließ das Weiße Haus unter Präsident Donald Trump ein Dekret, nach dem die Modelle Vielfältigkeitsstandards nicht mehr bedingungslos erfüllen sollten.
„Die künstliche Intelligenz wird eine entscheidende Rolle dabei spielen, wie Amerikaner lernen, sich informieren, ihr tägliches Leben organisieren“, heißt es in dem Papier. „Wenn aber ideologische Voreingenommenheit in die Modelle eingebaut ist, wird die Qualität der Ergebnisse beeinträchtigt.“
Der renommierte Informatiker und Dozent Björn Ommer von der Münchner Ludwig-Maximilians-Universität geht davon aus, dass die neue Richtlinie grundsätzlich einen Anti-Wokeness-Effekt auf die Modelle haben dürfte. Jedoch könnte dieser auch kleiner ausfallen als erwartet. Mit dem neuen US-Präsidenten haben viele Tech-Konzerne ihre Diversitäts-Richtlinien gelockert. Allerdings bedeute das noch nicht, dass Unternehmen auch die Software automatisch risikofrei einsetzen können.
Anti-Woke-KI mit großen Problemen
Die Entwicklung schlug bei der KI-Plattform von Tech-Milliardär Elon Musk übrigens auch schon ins Gegenteil um. Dessen KI-Modell „Grok“ äußert sich unter anderem auch antisemitisch, erstellte gewaltverherrlichende Bilder und bezog sich in Antworten teilweise auch auf Tweets von Musk selbst. Die gerade als „anti-woke“ beworbene Anwendung bringt also ebenso Probleme.
„Die Wirklichkeit ist nicht neutral“, sagt Ommer. „Deshalb wird jedes KI-Modell dazu gebracht, sein Trainingsmaterial, also tausende Internet-Seiten, zu überprüfen und auszugleichen. Wer ungefiltert das Internet in die KIs übertragen würde, bekäme nur Unfug als Ergebnis.“ Aber: „Es kommt in diesem Prozess immer wieder zu einer Überkompensation. Ganz eliminieren lässt sich die Voreingenommenheit daher nicht.“
Außerdem handle es sich bei nahezu allen Angeboten am KI-Markt um US-amerikanische Anbieter. Politische Grundwerte der europäischen Länder könnten durch die Veränderungen dort „vereitelt“ werden, sagt Ommer. Das deutsche Gleichstellungsgesetz könnte etwa gegenüber US-Regelungen einen untergeordneten Platz in der Entwicklung einnehmen.
Eine Chip-Fabrik für Europa wäre deshalb vorteilhaft, meint Ommer. Die Prozessoren aus eigener Herstellung würden zwar gefördert, doch an einem entsprechenden Projekt in Dresden wird noch bis mindestens 2026 gearbeitet. Verliert Europa deshalb den Anschluss auf dem globalen KI-Markt?
Für die Unternehmen zeigte sich diese Abhängigkeit bereits kürzlich bei der Einführung des neuen Modells GPT-5 vom Anbieter OpenAI. „Es wurde besonders bemängelt, dass die Firmen nicht mehr gefragt wurden, welches Modell sie verwenden möchten“, sagt Ommer. „Dabei hatten sich die Unternehmen auf eine bestimmte Version eingestellt und teils elaborierte Personas erstellt. Mit dem neuen Modell funktionierte dann vieles nicht mehr so, wie man es aus der Erfahrung kannte.“ Es sei jedoch auch noch nicht zu spät, die Fortschritte aus anderen Ländern einzuholen.
„Chaostheorie“ und „Fairwashing“ neue Herausforderung
Auch der Tech-Experte Mario Herger zweifelt daran, dass die neuen Neutralitäts-Versprechen der KI-Anbieter die Firmen in Deutschland grundsätzlich positiv betreffen werden. So könne jede Veränderung der Modelle „unerwartete Konsequenzen“ haben. „Wie bei der Chaostheorie, wo der Flügelschlag eines Schmetterlings in England einen Taifun in China auslöst“, sagt Herger. Und: „Die Systeme degradieren damit und werden schlechter.“
Ein Resultat lasse sich laut der KI-Expertin Maria Sukhareva bereits beobachten. Auf der Karriere-Plattform LinkedIn verweist Sukhareva auf sogenanntes „Fairwashing“, das das neue GPT-Modell „OSS“ betreffe. Weil es übertrieben politische Korrektheit vermeiden will, antworte das Modell nun einfach gar nicht mehr auf heikle Fragen.
Statt sich etwa bei politischen Themen klar zu positionieren, reagiere die Software inzwischen vielmehr mit methodischen Hinweisen zur Frage selbst. „Das Modell ist in seiner Vorgehensweise so überoptimiert“, schreibt die Expertin mit knapp 20.000 Follower auf der Plattform, „dass es die eigentliche Frage komplett ignoriert und stattdessen darüber faselt, ob sie überhaupt gestellt werden sollte.“
Unternehmen könnten Standards übergehen
Auch deshalb sieht die Unternehmensberatung KPMG das KI-Problem der Firmen nicht gelöst. Während fast alle Betriebe die künstliche Intelligenz stärker integrieren wollen, gebe es gleichzeitig „Nachholbedarf bei der Steuerung, ethischen Leitplanken und Schulung“. Sprich: Die Unternehmen würden die Software zwar grundsätzlich einsetzen, die Kompetenz der Programme aber vielleicht zu hoch einschätzen. Ein vertrauensvoller KI-Einsatz, so KMPG, bleibe weiterhin die „zentrale Herausforderung“.
Nicht in allen, aber in einigen Bereichen kann das zu einer Gefahr werden. In einer Bitkom-Umfrage aus dem März gaben 86 Prozent der befragten Firmen an, die KI bereits im Kundenkontakt einzusetzen, 54 Prozent planten den Einsatz in Marketing und Kommunikation, „Allgemein beim internen Wissensmanagement“ wollten in Zukunft 37 Prozent die KI nutzen.
Problematisch: Immerhin sechs Prozent planten eine Integration in ihre Rechts- und Steuerabteilungen. Experte Ommer jedoch rechnet nicht damit, dass Software hier bald Menschen ersetzen dürfte und warnt sogar vor der Verletzung ethischer Standards: „Im Moment ist nicht erkennbar, dass sich etwa juristische Aspekte an Bots outsourcen lassen“. Vielmehr sei eine Regelung wie beim autonomen Fahren ratsam: „Die KI macht dann lediglich Vorschläge, Menschen treffen die Entscheidungen. Sie halten gewissermaßen noch das Steuer in der Hand.“
Was bringt die Zukunft? Der Digitalverband Bitkom geht davon aus, dass die Hersteller trotz sich ändernder politischer Rahmenbedingungen weiterhin handlungsfähig bleiben dürften. Dies zeigten zumindest die aktuellen Entwicklungen am Markt, die auf große Innovationsbereitschaft der KI-Anbieter hindeuteten. Risiken wie problematische Abhängigkeit oder Kontrollverlust bestünden aus Sicht des Vereins „nur in sehr begrenztem Maße“.
Welche politischen Tendenzen bei neuen Modellen wie dem kürzlich vorgestellten GPT-5 entstehen könnten, sei übrigens noch nicht abzusehen. „Erste Tests deuten darauf hin“, heißt es von Bitkom aber schon, „dass auch GPT-5 eher dazu neigt, sich kritisch zu äußern.“
Ob zu woke oder zu wenig korrekt – für Unternehmen bleibt die Frage nach der Verlässlichkeit von KI ungelöst. Neutralität ist das Versprechen der Anbieter, doch die Praxis zeigt: Ganz ohne ideologische Schlagseite wird es auch künftig nicht gehen. Dieser Artikel wurde für das Wirtschaftskompetenzzentrum von WELT und Business Insider erstellt.
Felix Seifert ist Redakteur im Ressort Wirtschaft und Innovation. Er schreibt unter anderem über die Themen Karriere, Verbraucher, den Standort Deutschland, Mittelstand und Immobilien.
Haftungsausschluss: Das Urheberrecht dieses Artikels liegt beim ursprünglichen Autor. Die erneute Veröffentlichung dieses Artikels dient ausschließlich der Informationsverbreitung und stellt keine Anlageberatung dar. Bei Verstößen kontaktieren Sie uns bitte umgehend. Wir werden bei Bedarf Korrekturen oder Löschungen vornehmen. Vielen Dank.