14 min Zuletzt auktualisiert: 02.09.2024

Deepfake: Gefahren und Maßnahmen für Unternehmen

Was ist Deepfake?

Unter dem Begriff Deepfake versteht man Bilder, Videosequenzen oder Audioaufnahmen, die durch Einsatz von Künstlicher Intelligenz gezielt manipuliert werden. Sie stellen Menschen dar, die Dinge tun oder äußern, die sie in Wirklichkeit nie ausgeführt oder gesagt haben. Das Kofferwort Deepfake kombiniert die Wörter „Deep Learning“ (eine KI-Lernmethode) und „Fake“ (Fälschung), da bei der Erstellung der Fälschungen Algorithmen des Deep Learning zum Einsatz kommen. Genauer gesagt werden zwei konkurrierende Algorithmen genutzt. Der eine Algorithmus wird als „Generator“ bezeichnet und der andere als „Diskriminator“. Der Generator erzeugt die gefälschten digitalen Inhalte und fordert den Diskriminator Algorithmus auf zu entscheiden, ob der Inhalt echt oder künstlich ist. Jedes Mal, wenn der Diskriminator den Inhalt korrekt als echt oder gefälscht identifiziert, teilt er diese Information mit dem Generator, um die Qualität des nächsten Deepfakes zu verbessern.

Welche Arten von Deepfakes gibt es?

Geschichtsfälschung

In den vergangenen Jahren sind verschiedene Methoden entwickelt worden, die es mit Hilfe von künstlicher Intelligenz ermöglichen, Gesichter in Videos zu manipulieren. Diese Verfahren lassen sich in drei Hauptkategorien unterteilen: 

  • Beim Face Swapping wird das Gesicht einer Person durch das einer anderen ersetzt, wobei der Ausdruck der ursprünglichen Person erhalten bleibt. Dafür wird eine Technik namens Autoencoder verwendet, die in gängigen Softwarebibliotheken verfügbar ist. Durch diese Methode lernen neuronale Netze, relevante Informationen über Mimik und Beleuchtung aus einem Gesichtsbild zu extrahieren und daraus ein neues Gesichtsbild zu generieren. Mit den derzeitigen kommerziellen Grafikkarten können Modelle mit hoher Bildauflösung erstellt werden, die auch in Echtzeit für Face Swapping genutzt werden können. Dafür sind nur wenige Minuten Video einer Zielperson in hoher Qualität erforderlich, die verschiedene Gesichtsausdrücke und Perspektiven enthalten.
  • Das Face Reenactment ermöglicht es, Bewegungen des Kopfes, Mimik und Lippenbewegungen einer Person zu manipulieren. Dies erfolgt durch die Erzeugung eines 3D-Modells des Gesichts der Zielperson aus einem Videostream, das dann vom Manipulator kontrolliert werden kann, um realistische Gesichtsausdrücke zu erzeugen.
  • Die Synthese von Gesichtsbildern beinhaltet die Erstellung von neuen, nicht real existierenden Personen. Die aktuell gebräuchlichen Verfahren beschränken sich noch auf Einzelbilder, können aber bereits hochauflösende und detailreiche Nahaufnahmen erzeugen.

Manipulation von Stimmen

Text-to-Speech (TTS) und Voice Conversion (VC) sind entscheidend für die Erzeugung manipulierter Stimmen oder Audioinhalte. TTS-Verfahren wandeln einen gegebenen Text in eine Audiodatei um, die sich sowohl für den Menschen als auch für eine automatische Spracherkennung wie das einer Zielperson anhört. BenutzerInnen können einen Text eingeben, der vom TTS-System in eine Audiodatei umgewandelt wird, wobei der Inhalt des erzeugten Signals dem des eingegebenen Textes entspricht und die sprecherischen Merkmale idealerweise einer von den BenutzerInnen festgelegten Zielperson entsprechen. Auf der anderen Seite ermöglichen VC-Verfahren die Umwandlung eines Audiosignals in die Stimme einer Zielperson. BenutzerInnen können dem VC-System ein Audio-Signal geben, das dann in ein manipuliertes Audio-Signal umgewandelt wird. Das erzeugte Audio-Signal hat den gleichen Inhalt wie das ursprüngliche Signal, unterscheidet sich jedoch in der sprecherischen Charakteristik.

Damit diese Techniken funktionieren, müssen sie zunächst mit Trainingsdaten gefüttert werden. Je nach Angriffsart variieren die benötigten Daten, aber allen gemeinsam ist die Notwendigkeit von Audiodaten der Zielperson in hoher und konstanter Qualität. TTS- und VC-Verfahren werden normalerweise durch komplexe neuronale Netze realisiert, daher sind für das Training mehrere Stunden Audiomaterial der Zielperson erforderlich, um eine hohe Qualität zu erzielen. Es gibt allerdings Ansätze, die benötigte Datenmenge zu reduzieren, indem große Datenbanken anderer Personen als Hilfsdaten verwendet werden. Aktuelle Forschung konzentriert sich auf Methoden, die nur wenige Sekunden Audiomaterial der betroffenen Zielperson benötigen und keinen erneuten Trainingsprozess erfordern, obwohl dies derzeit auf Kosten der Ausgabequalität geht.

Textfälschung

Methoden zur Texterzeugung, die auf tiefen neuronalen Netzen beruhen, sind dank fortschrittlicher KI-Modelle, umfangreichen Textdatenbanken und hoher Rechenleistung in der Lage, umfangreiche und kohärente Texte zu verfassen. Bei diesen Texten kann oft nicht sofort festgestellt werden, ob sie von einem Menschen oder einer Maschine erstellt wurden. Häufig genügen wenige Einführungswörter, aus denen das Modell eine plausible Textfortführung generiert. So können Nachrichten erstellt, Blogbeiträge verfasst oder Chat-Antworten produziert werden. Die Ressourcen, die für das Training dieser Systeme und die Nutzung der leistungsstarken Modelle benötigt werden, liegen derzeit noch über dem, was im Endverbraucherbereich üblich ist. Aus diesem Grund greifen Privatnutzer auf öffentlich zugängliche Cloud-Dienste zurück. Es wird erwartet, dass mit der Weiterentwicklung der Technologie, diese vermehrt in Chatbots oder Social Bots eingesetzt wird, um fiktive GesprächspartnerInnen auf Basis der gegebenen Eingabe zu simulieren.

Wie kann man Deepfakes erkennen?

Die folgenden 7 Hinweise könnten darauf hindeuten, dass Sie es mit einem Deepfake zu tun haben:

  1. Logik überprüfen: Sie sollten vor allem darauf achten, ob Sie Unstimmigkeiten oder Fehler in der Darstellung im Bild feststellen können. Da es maschinenproduziert und möglicherweise mit einem falschen, fehlerhaften oder unvollständigen Datensatz trainiert wurde, kann es passieren, dass das erstellte Bild unlogische Elemente enthält, obwohl es insgesamt kohärent erscheint. 
  2. Kontext überprüfen: Beachten Sie auch den logischen Kontext eines Medienprodukts. Wenn eine prominente Persönlichkeit in einem Video auftritt und etwas völlig Anderes oder Unlogisches behauptet, als sie es normalerweise tut. Auch wenn bestimmte Aussagen im Gesamtzusammenhang keinen Sinn ergeben oder widersprüchlich erscheinen, kann dies ein Hinweis auf ein Deepfake sein. Besonders bei Werbung für riskante Produkte mit scheinbar berühmten Personen sollten Sie vorsichtig sein! 
  3. Unscharfe Bereiche: Gibt es im Bild oder Video Bereiche, die unnatürlich wirken, weil sie zu scharf oder unscharf sind? Wenn ja, sollten Sie genauer hinschauen. Betrachten Sie auch den Hintergrund der Aufnahme genau. Stimmen Helligkeit, Sättigung oder Schärfe mit dem Vordergrund überein? Wenn nicht, könnte dies ein Hinweis auf ein Deepfake sein. 
  4. Fehlerhafte Perfektion: Wenn ein Gesicht zu glatt und zu perfekt erscheint, sodass es unnatürlich wirkt, könnte dies ebenfalls auf ein Deepfake hinweisen. Achten Sie auch auf unnatürliche Bewegungen. 
  5. Quellenprüfung: Überprüfen Sie die Zuverlässigkeit der Webseite, die den Medieninhalt bereitstellt. Handelt es sich um eine offizielle Seite? Ziehen Sie gegebenenfalls weitere Quellen zur Rate. Durch genaue Recherche können Sie eine gefälschte Aufnahme entlarven. 
  6. Training: Im Internet gibt es verschiedene zuverlässige Quellen, die legal erstellte und harmlose Deepfakes zeigen. Studieren Sie diese, um zu lernen, wie Deepfakes aussehen und sich beim Sprechen oder Lächeln verhalten. Dies kann Ihnen dabei helfen, andere Deepfakes zu erkennen. 
  7. Technologie verwenden: Verschiedene Werkzeuge ermöglichen es, Medieninhalte auf ihre Echtheit zu überprüfen. Sie können beispielsweise den kostenlosen DeepFake-o-meter verwenden.

Was sind die Gefahren von Deepfakes für Unternehmen?

Deepfakes können zwar positive Anwendungen haben, etwa durch das Erzeugen digitaler Stimmen für Menschen, die ihre eigene verloren haben, oder das Aktualisieren von Filmmaterial, wenn SchauspielerInnen ihre Texte vergessen, anstatt diese Szenen neu drehen zu müssen. Allerdings besteht das erhebliche Risiko der böswilligen Nutzung und digitaler Gewalt, insbesondere in Anbetracht der immer weiter zunehmenden Verfeinerung dieser Technologie. Mithilfe von Apps und Programmen für die Erstellung von Deepfakes, wie zum Beispiel Fakeapp oder Deepfacelab können heutzutage auch technisch versierte Laien mediale Identitäten manipulieren. Dies führt auch für Unternehmen zu einer Vielzahl von Bedrohungsszenarien, welche Schäden verursachen, die in die Millionen gehen können:

  • Sicherheitsverletzungen: Deepfakes können dazu dienen, biometrische Sicherheitssysteme durch gefakte Videoanrufe zu überwinden. Gesichts- und Stimmerkennungssysteme sind potenzielle Ziele, die durch Deepfakes manipuliert werden können, was das Risiko von Sicherheitsverletzungen und Datendiebstählen erhöht.
  • Finanzieller Betrug: Durch den Einsatz von Deepfakes kann es zu betrügerischen Handlungen kommen, wie beispielsweise dem sogenannten CEO-Fraud. Hierbei nutzen AngreiferInnen Deepfakes, um sich als hochrangige Führungskräfte auszugeben und Mitarbeitende dazu zu bringen, nicht autorisierte Finanztransaktionen durchzuführen.
  • Diskreditierung: Deepfakes können genutzt werden, um Desinformationen oder schädliche Gerüchte über ein Unternehmen oder seine Führungskräfte zu verbreiten. Dies kann zu erheblichen Rufschädigungen und Diskreditierungen führen und den Verlust des Vertrauens bei KundInnen und InvestorInnen nach sich ziehen.
  • Reputationsschaden: Personen können durch das Einfügen ihrer Gesichter auf fremde Körper zu Opfern von Deepfakes werden. Solche manipulierten Bilder, die sie etwa in pornografischen Handlungen zeigen, welche nicht der Realität entsprechen, können den Ruf der Betroffenen und den des Unternehmens erheblich schädigen.
  • Desinformationskampagnen: Mit Deepfakes können etwa in der Politik Desinformationskampagnen durchgeführt werden. Manipulierte Videos oder Audioaufnahmen können zudem zur Verbreitung falscher Geschäftsinformationen genutzt werden, was die Marktstabilität und das Vertrauen in das Unternehmen negativ beeinflussen kann.
  • Erpressung und Cybermobbing: Deepfakes können auch in Erpressungsszenarien oder Cybermobbing eingesetzt werden. Mitarbeitende oder Führungskräfte könnten zum Ziel von schädlichen Angriffen oder Erpressungsversuchen werden, wie etwa gefälschte Inhalte in der Pornografie. Auch hier können sowohl Frauen als auch Männer zum Opfer werden. 
  • Rechtliche Konsequenzen: Die Verwendung von Deepfakes kann auch rechtliche Konsequenzen nach sich ziehen, insbesondere wenn Urheberrechte oder Persönlichkeitsrechte verletzt werden. Unternehmen könnten gezwungen sein, Ressourcen für rechtliche Auseinandersetzungen und zur Wiederherstellung ihres Rufs aufzuwenden.

Wie kann ich mein Unternehmen vor Deepfake-Betrügen schützen?

  • Verwendung von Anti-Fake-Technologien: Unternehmen sollten verlässliche Mittel zur Identifizierung von Deepfake-Angriffen nutzen, wie beispielsweise auf künstlicher Intelligenz basierende Erkennungssoftware, die den Betrug in Echtzeit feststellt. Andere Technologien wie das Hinzufügen von Wasserzeichen können ebenfalls zur Aufdeckung von Manipulationen eingesetzt werden.
  • Schulung und Sensibilisierung: Die Sensibilisierung von Mitarbeitenden, Management und AktionärInnen für die Gefahren von Deepfakes kann dazu beitragen, das Risiko eines Angriffs zu verringern. Durch gezielte Schulungen können Mitarbeitende lernen, Deepfake-basierte Social-Engineering-Angriffe zu erkennen.
  • Implementierung starker Sicherheitsprotokolle: Grundlegende Sicherheitspraktiken können überraschend effektiv gegen Deepfake-Videos sein. Beispielsweise könnten automatisierte Überprüfungen in Zahlungsprozesse integriert werden, um Betrug zu verhindern.
  • Einsatz von Blockchain: Die Verwendung einer dezentralen Speicherung, wie Blockchain, kann eine Option zur Bekämpfung von Deepfakes sein. Sie kann beispielsweise zur Authentifizierung und Überprüfung von Video- oder Audiodokumenten genutzt werden.
  • Zero-Trust-Ansatz für Online-Inhalte: Es sollte grundsätzlich Misstrauen gegenüber Online-Inhalten herrschen. Web-Tools können dabei helfen, Desinformationen zu erkennen.
  • Entwicklung einer Reaktionsstrategie: Unternehmen sollten einen Plan zur Reaktion auf Deepfakes haben, einschließlich klarer Zuständigkeiten und erforderlichen Maßnahmen.
  • Einführung neuer Sicherheitsstandards: Das Hinzufügen mehrerer Prüfungen zu Prozessen wie Videoanrufen, bei denen Deepfakes eine Rolle spielen könnten, kann helfen, Angriffe zu erkennen, bevor sie Schaden anrichten.
  • Schutz der Nutzerdaten: Die Einschränkung der Reichweite von Beiträgen in sozialen Medien und der Schutz von Nutzerprofilen kann dazu beitragen, Bilder vor Missbrauch durch Deepfakes zu schützen.

Fazit

Deepfakes stellen sowohl eine faszinierende technologische Entwicklung als auch eine ernstzunehmende Bedrohung dar. Sie können Gesichter in Videos austauschen, Bewegungen und Ausdrücke manipulieren, Stimmen und Texte imitieren und sogar neue, nicht existierende Personen erschaffen. Während sie in einigen Bereichen positive Anwendungen haben, kann ihre bösartige Nutzung zu Sicherheitsverletzungen, finanziellem Betrug, Reputationsschäden und rechtlichen Konsequenzen führen. Für Unternehmen ist es daher von entscheidender Bedeutung, Technologien zur Erkennung von Deepfakes einzusetzen, ihre Mitarbeitenden zu sensibilisieren, starke Sicherheitsprotokolle zu implementieren und fortschrittliche Technologien wie die Blockchain zu nutzen, um sich vor diesen Bedrohungen zu schützen.

Unsere Auszeichnungen

Comenius-Siegel-2024 DBA Siegel

Unsere Partner


lawpilots GmbH
Am Hamburger Bahnhof 3
10557 Berlin
Deutschland

+49 (0)30 22 18 22 80 kontakt@lawpilots.com
lawpilots GmbH hat 4.6345575261236 von 5 Sternen 2634 Bewertungen auf ProvenExpert.com