Nicht die Fälschung selbst ist das Problem, sondern ihre Glaubwürdigkeit
- Nahed Hatahet

- vor 21 Stunden
- 7 Min. Lesezeit
Artikel von Nahed Hatahet, Digital & AI Transformation Expert erschienen in der Online und Print Ausgabe 04/2026 der IT-Welt
Vor 40 Jahren haben wir in der IT begonnen Prozesse, ganze Märkte, Kommunikation und Zusammenarbeit zu digitalisieren. Mit künstlicher Intelligenz beginnt eine neue Phase: Wir digitalisieren nicht mehr nur Wirklichkeit. Wir können sie inzwischen auch simulieren und inszenieren. Wenn also Stimmen, Bilder, Gesichter, Emotionen und Rollen täuschend glaubwürdig imitierbar werden, dann geht es nicht mehr nur um die Frage der Sicherheit, Deepfakes oder Desinformation. Es geht um eine viel tiefere Frage: Wem können wir in digitalen Räumen künftig überhaupt noch trauen?

Bild © Leonardo AI
Am 27. August 2010 wurde Wolfgang Beltracchi, einer der wohl bekanntesten Kunstfälscher unserer Zeit, in Freiburg festgenommen. Das Besondere an Beltracchi war, dass er nicht einfach Bilder von berühmten Malern kopierte – vielmehr hat er neue Bilder erfunden und perfekt inszeniert. Er hat damit die perfekte Fälschung und die passende Illusion dazu erschaffen, indem er multidisziplinär gefälscht hat. Er hat nicht nur das Bild, sondern vor allem auch den Rahmen, die Farben mit entsprechend passenden Pigmente selbst hergestellt und sogar den passenden Staub besorgt.
Die Fälschungen wurden von Beltracchi mit Unterstützung seiner Frau darüber hinaus aus kunsthistorischer Sicht auch zeitlich perfekt positioniert. Er hat mit seinen Illusionen die größten Kunstkenner der Welt wahrhaftig hinters Licht geführt und damit auch bloßgestellt. Das interessante dabei ist, dass die Fälschung eines Bildes selbst sekundär war. Der Erfolg seiner Täuschungen lag vielmehr im interdisziplinären Umfeld und auch in der kapitalistischen Gier seiner Abnehmer. Fälschungen sind und waren keine Erfindung des digitalen Raums. Neu ist heute etwas anderes. Was im Kunstmarkt lange ein spektakulärer Ausnahmefall war, wird im Zeitalter generativer künstlicher Intelligenz nun zur skalierbaren Fähigkeit.
Der Beltracchi-Effekt
Die IT der vergangenen Jahrzehnte hat analoge Prozesse digitalisiert und somit die Wirklichkeit abgebildet und optimiert. Außerdem wurde die Kommunikation beschleunigt und die globale Vernetzung ermöglicht. Der aktuelle Wandel geht darüber hinaus und es werden nicht mehr nur Abläufe digitalisiert. Mit künstlicher Intelligenz wird die Herstellung von Wirklichkeit selbst ermöglicht. Genau darin besteht der Bruch zur analogen Fälschung. Aus einem singulären handwerklichen Akt wird eine industrielle, kostengünstige und vor allem stark skalierbare Produktionslogik, die jeder von uns einfach nutzen kann. Das bezeichne ich als den Beltracchi-Effekt.
Der Bruch: Aus dem Einzelfall wird Infrastruktur
Mit den Möglichkeiten generativer künstlicher Intelligenz können heute Texte, Bilder, Videos, Stimmen, Tonfall, Avatare und Emotionen erstellt werden. Nicht nur einzelne Inhalte, sondern vielmehr können alle diese Mittel gemeinsam abgestimmt genutzt und billig produziert werden. Damit lassen sich ganze Wirklichkeiten erzeugen, die eben nicht nur täuschend echt sind, sondern im Kontext eine Illusion erschaffen. Wahrhaftig beeindruckend und vor allem sehr glaubwürdig. Diese können mit einem positiven Hintergedanken genutzt werden, wie zum Beispiel für Marketingkampagnen. Aber eben auch um Fälschungen in Form von Deepfakes in Umlauf zu bringen, um Desinformation zu erzeugen.
Das eigentliche Problem: künstliche Glaubwürdigkeit
Wie uns die Geschichte zeigt – Menschen haben immer schon gelogen, gefälscht, Unwahrheiten verbreitet, Massen für die eigenen Zwecke manipuliert und missbraucht. Das ist in Wirklichkeit nichts Neues und daher auch nicht das eigentliche Problem. Die UNESCO und auch das World Economic Forum in seinem Global Risks Report 2025, warnen meiner Meinung nach vor dem eigentlichen Grundproblem und bringen es auf den Punkt „crisis of knowing“. Mit künstlicher Intelligenz kann man heute Glaubwürdigkeit sehr einfach synthetisch erzeugen. Es kann dadurch ein sehr trügerisches Gefühl von Nähe entstehen und vor allem Vertrautheit. Eine höchst subtile und dadurch sehr gefährliche Art der digitalen Manipulation. Kostengünstig, schnell und mit einer hoher Reichweite millionenfach produzierbar.
Natürlich wird nicht alles sofort ununterscheidbar sein und werden. Die Frage, die wir uns dennoch unbedingt stellen müssen: Was passiert eigentlich, wenn künstlich generierte Glaubwürdigkeit zur eigentlichen Krise wird? Müssen wir uns nicht damit beschäftigen, wem wir online eigentlich begegnen? Welche Signale können wir noch authentisch lesen? Wem können wir im digitalen Raum noch vertrauen, wenn alles als glaubwürdig erscheinen mag? Was bedeutet das in Bezug auf Wahrheit und Macht? Wer erzeugt in Zukunft eigentlich die Wirklichkeit und wem nutzt Verunsicherung? Wenn Maschinen nicht nur rechnen, sondern Realitäten überzeugend simulieren, verschiebt sich Kontrolle und Macht.
Menschliche Verwundbarkeit als Angriffsvektor
Deepfakes wie Avatare oder Voice-Clones funktionieren nicht primär, weil Menschen uninformiert oder gar leichtgläubig sind. Deepfake-Betrug zielt nicht auf Dummheit. Sie funktionieren in Wirklichkeit dort wo Bindung, Fürsorge, Stress, Autorität oder Zeitdruck aktiviert werden. Er zielt vor allem auf menschliche Nähe, Gewohnheiten und Vertrauen. Mittels künstlicher Intelligenz noch dazu maßgeschneidert, perfekt personalisiert und zugeschnitten auf die zutiefst menschlichen Emotionen seiner Zielgruppen und Opfer. Konkret sind das Kinder, Jugendliche, Eltern, Familien, Seniorinnen und Senioren. Die Gesellschaft steht dabei vor einem großen gesellschaftlichen Prüfstand. Die neue Qualität synthetischer Fälschungen liegt nicht nur in ihrer visuellen oder akustischen Qualität und der perfekten Illusion, sondern vor allem in ihrer emotionalen Plausibilität. Kinder und Jugendliche suchen Orientierung an sozialen Signalen. Eltern und Familien sind stark emotional beeinflussbar. Ältere Menschen werden durch die perfekte Fälschung selbst und vor allem durch Autorität in die Irre geführt.
Die Angreifer nutzen dabei künstliche Intelligenz, um während eines Angriffs in Echtzeit zu agieren. Durch diese Personalisierung wirkt es erst authentisch und es wird damit die gewünschte Emotion beim Opfer aktiviert. Diese Angriffe zielen auf Angst und Liebe ab, also genau das, was Menschen bewegt und handeln lässt.
Gefälschte Menschen und die Frage nach kollabierendem Vertrauen
Wir leben in einer Zeit in der gefälschte Menschen millionenfach in Umlauf gebracht werden und mit diesem Phänomen kollabiert somit auch das Vertrauen. Diese Entwicklung wird vor allem auch die Vertrauenslogik unserer Gesellschaft massiv verändern und beeinträchtigen. Dies betrifft nicht zuletzt vor allem die öffentliche Kommunikation. Die Pressekonferenz, die es nie gegeben hat und Panik auslöst. Die politische Rede, so glaubwürdig, dass Menschen diese für echt halten werden, sekundenschnell über soziale Medien weltweit verbreitet. Die Polizei, die Botschaften verkündet und ihre Autorität benutzt, ebenfalls künstlich produziert. Korrupte Regierungen und Machtmenschen, die bewusst diese Möglichkeiten zur Massenmanipulation von Meinungen nutzen, dadurch Wahlen beeinflussen und Demokratien zerstören.
Gefährdet sind aber vor allem auch Berufsgruppen, deren Arbeit grundlegend auf Vertrauen basiert. Der Fake-Kundendienstanruf, passend inszeniert zu einer realen Anfrage von vor ein paar Tagen. Die Illusion der Legitimationsprüfung beim Anlegen eines neuen Bankkontos. Ein Anruf von der gefälschten Rechtsberaterin, die Druck macht und dringend Informationen benötigt. Oder der inszenierte Arzt, der auf Grund eines schweren Unfalls eines Familienmitglieds nun dringend Geld benötigt, um die notwendige Operation durchführen zu können – persönlich und emotional. Die Szenarien und Möglichkeiten, um Menschen zu täuschen sind mehr oder weniger endlos. Wo man früher vertrauen konnte, ist das heute einfach nicht mehr der Fall. In dieser neuen von uns geschaffenen Welt, in der man alles in Frage stellen muss, kollabiert im Endeffekt das Vertrauen.
Echtheit als neue Leistung und sichtbares Signal
Viele Organisationen arbeiten aktuell mit Signalen, die bisher auch durchaus als ausreichend glaubwürdig galten. Mit den erörterten künstlich generierten Möglichkeiten der perfekten Fälschung und deren Bühne haben wir Menschen uns eine neue digitale Umwelt geschaffen. In dieser neuen Welt verpuffen diese veralteten Signale des Vertrauens und gelten schlichtweg einfach nicht mehr. Ganz im Gegenteil. Es werden genau diese alten Signale nun als Waffe verwendet, um eben Menschen damit ein Vertrauen vorzugaukeln und diese in die Irre zu führen. Wenn also perfekte Fälschungen dazu führen, dass die bestehenden gesendeten Signale nicht mehr für Vertrauen stehen können, braucht es konkret neue sichtbare Zeichen.
Vertrauen darf in Zukunft nicht mehr nur kommuniziert werden, es braucht Aufklärung und muss nachvollziehbar werden. Echtheit ist dafür die neue Zauberformel und das ist auch die neue Leistung für alle, die auf Basis von Vertrauen weiterarbeiten wollen. Wer also in Zukunft überleben will, muss Echtheit ausweisen können und seine Kommunikation, Leistungen und Angebote dahingehend optimieren. Einfach nachweisbar und transparent für den Konsumenten und alle Zielgruppen, die man erreichen will. Das alles hat wenig damit zu tun, dass wir alle mit Werkzeugen versuchen, Fälschungen aufzudecken. Sicherlich wird es das auch in Zukunft weiter benötigen. Es ist aber nun mal nicht die Lösung. Nur wer in seiner Strategie auf Echtheit als einer der neuen Leistungen des 21. Jahrhunderts setzt, wird auch langfristig überleben können.
Die falsche Antwort wäre jetzt technischer Aktionismus
Selbstverständlich wird und gibt es bereits viele Werkzeuge („Detection-Tools“) und andere technische Möglichkeiten. Die Hersteller dieser Tools prophezeien und versprechen damit sehr subtil, dass man das Deepfake-Phänomen technisch in den Griff bekommen könnte. Unternehmen werden dadurch in den Glauben versetzt, damit tatsächlich besser Fälschungen aufdecken zu können. Eine Illusion für sich. Natürlich ist es wichtig, dass man Werkzeuge zur Erkennung von synthetischen Fälschungen und Inszenierungen einsetzt. Es ist aber nicht die endgültige Lösung und eben nur ein Tropfen auf dem berühmten heißen Stein. Es ist ein rein technischer Aktionismus, der durchaus nötig ist. Mehr ist es auch schon nicht. Was es jetzt braucht, neben Werkzeugen zur Erkennung von Fälschungen, ist der Mensch.
Der Mensch selbst, dessen Aufklärung, dessen kritischer Zweifel an scheinbar Echtem und vor allem eine gewisse digitale Mündigkeit in der gesamten Gesellschaft, ist bei weitem die bessere Lösung und beste Ergänzung zu einer rein technischen Sichtweise. Die Konsequenz daraus ist, dass Echtheit künftig strategisch gestaltet, abgesichert und für Menschen nachvollziehbar gemacht werden muss. Es braucht damit klare Verifikationswege, definierte Mechanismen zur Eskalation, Mehrkanalbestätigung, Schulung, Governance, dokumentierte Echtheitssignale und ein neues Bewusstsein für eine Vertrauensarchitektur. Wir werden somit nicht daran vorbeikommen, die Menschen in den Mittelpunkt zu stellen, diese abzuholen und aufzuklären. Nur so können wir uns bestmöglich vor Machtmissbrauch und Manipulation schützen. Das fängt vor allem bei der Bildung und Ausbildung unsere Kinder an. Es endet nicht zuletzt bei einer breiten Aufklärungsinitiative für alle Menschen unserer Gesellschaft, insbesondere Seniorinnen und Senioren.
Kunst als zeitloses und interkulturelles Mittel zur Aufklärung
Kunst gibt nicht das Sichtbare wieder, sondern macht sichtbar. Besser als der wunderbare Paul Klee kann man das gar nicht vermitteln. Kunst ist und war immer schon ein sehr wertvolles, zeitloses und interkulturelles Mittel zur Aufklärung von Menschen. Wer sich in unserer heutigen Zeit für Vertrauen einsetzen will und sich um Echtheit in der Gesellschaft kümmert, wird auch gesehen werden. Jedem Unternehmen und auch dem politischen System möchte ich daher nahelegen, in Kunstprojekte zu investieren. Nicht zuletzt, um seine Marke zu positionieren. Vor allem aber um zu vermitteln, dass man für Vertrauen und Echtheit steht.
Kunst kann also dabei helfen zu verstehen, wie Bilder wirken, wie Wahrnehmung gelenkt wird, wie Deutung entsteht und wie leicht Überzeugung mit Wahrheit verwechselt werden kann. Aufklärung und Kunst sind daher mehr als eine reine Medienkompetenz im engeren Sinn. Heute bedeutet es, die Urteilskraft der Gesellschaft unter den Bedingungen künstlicher Glaubwürdigkeit zu stärken. Nach 40 Jahren IT ist das die eigentliche Aufgabe der kommenden Jahre: das Digitale wieder überprüfbar zu machen und dabei beim Menschen zu beginnen.
Quelle: Erschienen in der Online sowie Print Ausgabe der IT-Welt, Ausgabe 04/2026 | 29.04.2026 | Autor: Nahed Hatahet




Kommentare