Skip to content

Unternehmen setzen auf Foto- und Audioverifizierung zur Kundenidentifikation

  • Unternehmen setzen auf Foto- und Audioverifizierung zur Kundenidentifikation
  • Banken und Finanzdienstleister rüsten sich gegen Missbrauch durch generative KI

Unternehmen, die Fotos oder Audio zur Verifizierung der Identität ihrer Kunden verwenden, bereiten sich auf die Gefahr durch mittels generativer KI erstellte Täuschungen vor. Deepfakes, also täuschend echt wirkende, künstlich erzeugte Bilder oder Videos, sind bereits seit einiger Zeit in den sozialen Medien, bei Wahlen und im öffentlichen Sektor ein Thema.

Doch mit dem Fortschritt der Technologie, die künstliche Intelligenz nutzt, um Stimmen und Bilder realistischer denn je nachzuahmen, zielen Betrüger mit Deepfakes nun auch auf Unternehmen ab. „Es gab immer betrügerische Anrufe. Aber die Fähigkeit dieser [KI-]Modelle, die tatsächlichen Stimmuster einer Person so nachzuahmen, dass sie jemandem am Telefon Anweisungen geben kann, etwas zu tun – diese Art von Risiken ist völlig neu“, so Bill Cassidy, Chief Information Officer bei New York Life.

Banken und Finanzdienstleister gehören zu den ersten Zielen der Betrüger. Kyle Kappel, US-Leiter für Cyber bei KPMG, betont, dass sich dieses Feld sehr schnell entwickelt. Ein Beispiel für die schnelle Entwicklung ist die kürzliche Vorstellung einer Technologie durch OpenAI, die eine menschliche Stimme aus einem 15-Sekunden-Clip nachbilden kann. OpenAI gab an, die Technologie nicht öffentlich zugänglich zu machen, bis mehr über potenzielle Missbrauchsrisiken bekannt ist.

Die Sorge besteht darin, dass Betrüger KI-generierte Audiodateien nutzen könnten, um Sprachauthentifizierungssoftware, die von Finanzdienstleistern zur Kundenverifizierung eingesetzt wird, zu täuschen und so Zugang zu deren Konten zu erhalten. Die Chase Bank wurde kürzlich durch eine KI-generierte Stimme getäuscht. Die Bank erklärte jedoch, dass Kunden für Transaktionen und andere finanzielle Anfragen zusätzliche Informationen bereitstellen müssen.

Deepfake-Vorfälle im FinTech-Sektor stiegen 2023 im Vergleich zum Vorjahr um 700%, so ein aktueller Bericht der Identitätsverifizierungsplattform Sumsub. Unternehmen arbeiten daran, zusätzliche Sicherheitsmaßnahmen zu implementieren, um sich auf die Welle von Angriffen vorzubereiten, die durch generative KI angetrieben werden.

Cassidy arbeitet beispielsweise mit der Venture-Capital-Gruppe von New York Life zusammen, um Startups und neue Technologien zu identifizieren, die darauf ausgelegt sind, Deepfakes zu bekämpfen. Alex Carriles, Chief Digital Officer der Simmons Bank, ändert einige Protokolle zur Identitätsverifizierung. Früher gehörte dazu, dass Kunden Fotos ihrer Führerscheine hochluden. Da Bilder von Führerscheinen nun jedoch leicht mit KI generiert werden können, arbeitet die Bank mit dem Sicherheitsanbieter IDScan.net zusammen, um den Prozess zu verbessern. Anstatt ein vorhandenes Bild hochzuladen, müssen Kunden ihre Führerscheine nun über die App der Bank fotografieren und Selfies machen.

Nicht alle Banken sehen eine unmittelbare Gefahr. Amy Brady, CIO der KeyBank, sagt, ihre Bank sei bei der Einführung von Sprachauthentifizierungssoftware technologisch hinterhergehinkt. Angesichts des Risikos durch Deepfakes betrachtet sie dies im Nachhinein als Glücksfall. Brady gibt an, dass sie die Einführung von Sprachauthentifizierungssoftware auf Eis legt, bis es bessere Werkzeuge zur Enttarnung von Nachahmungen gibt. „Manchmal zahlt es sich aus, ein Nachzügler zu sein“, sagte sie.

Quelle: Eulerpool Research Systems