Unabhängiges Magazin für Wirtschaft und Bildung

27. September 2024

Search form

Search form

Beunruhigende Möglichkeiten beim Thema Deepfakes

Beunruhigende Möglichkeiten beim Thema Deepfakes© Pexels/ Cottonbro

Sprind, die deutsche (Vorzeige)Agentur für Sprunginnovation schreibt neue Projekte im Bereich Identifikation sogenannter Deepfakes und gesicherte Integrität in digitalen Welten aus. Ein Fokus betrifft auch KI.

(red/czaak) Die rasante Entwicklung digitaler Technologien in den letzten Jahren hat sowohl faszinierende als auch beunruhigende Möglichkeiten eröffnet. Das betrifft insbesondere die Bereiche synthetische Inhalte und Deepfakes. Diese immer hoch-entwickelteren KI-generierten Audio-, Bild- und Videoinhalte sind mittlerweile so realistisch, dass sie von echten Aufnahmen kaum zu unterscheiden sind.

Mit dem Anstieg der Leistungsfähigkeit von Systemen und Sprachmodellen (Anm. Generative KI) basierend auf künstlicher Intelligenz (KI) und maschinellem Lernen (ML) verbessert sich nicht nur die Quantität, sondern auch die Qualität von Deepfakes rasant. Das birgt Gefahren – für Vertrauen, Sicherheit und die Wahrnehmung von Realität in unserer Gesellschaft.

Leistungsfähigkeit von Systemen und Sprachmodellen verbessert Qualität von Deepfakes
Die Bemühungen zur Bekämpfung von Deepfakes konzentrieren sich aktuell hauptsächlich auf zwei Bereiche. Einmal, die Erkennung (Detection) mit der Entwicklung von KI-Algorithmen zur Identifizierung von Deepfakes. Und dann die Prävention (Prevention) mit der Implementierung von Authentifizierungsmechanismen für digitale Inhalte.

Trotz erheblicher Fortschritte in diesen Bereichen bleiben signifikante Herausforderungen wie die Generalisierbarkeit und Skalierbarkeit von KI-Deepfake-Erkennungssystemen und die Etablierung eines manipulierungsrestistenten Standards für Bild-Metadaten bestehen.

Etablierung eines manipulierungsrestistenten Standards für Bild-Metadaten
Sprind startet nun in Deutschland ein neues Unterstützungs-Programm (Anm. „Funke“) mit der (herausfordernden) Zielsetzung einen umfassenden Prototyp zu entwickeln, der reaktive Maßnahmen zur Erkennung und/oder präventive Maßnahmen zum Schutz vor Bild-Deepfakes beinhaltet und in bestehende digitale Infrastrukturen integriert werden kann.

Der Prototyp muss demonstrieren, wie Bild-Deepfakes zuverlässig erkannt und authentifiziert werden können. Das gesamte System kann KI-gestützt arbeiten und muss sich kontinuierlich an neue Deepfake-Techniken anpassen können. Am Ende sollen mindestens drei unterschiedliche Anwendungsfälle (z.B. Social Media, Nachrichtenportale, Videokonferenzsysteme) abgedeckt werden. Skalierbarkeit und Anpassungsfähigkeit an verschiedene digitale Plattformen sollten möglich sein.

Das Anforderungsprofil und die Umsetzung der Ausschreibung
Das Programm bzw. „Funke“ läuft über einen Zeitraum von 13 Monaten. Wie gewohnt unterstützt eine Jury aus Expert:innen Sprind bei der Bewertung der Bewerbungen und wählt bis zu 14 Teams aus, die zur Teilnahme der ersten Stufe zugelassen werden. Teams, die an diesem „Funke“ teilnehmen, sind voll und ganz gefordert.

Sprind unterstützt daher auch hier intensiv wie individuell und dazu gehört die Finanzierung der Teams mit bis zu 350.000 Euro in Stufe 1 des Funkens. Nach sieben Monaten bewertet die Jury wieder und entscheidet, wer das größte Sprunginnovationspotential hat und welche Teams sich bis zum Schluss des Funkens in einer zweiten Stufe beweisen können. Diese Phase wird dann mit bis zu 375.000 Euro pro Team finanziert. Bewerbungen werden bis zum 18. Oktober 2024, 18:00 Uhr (CET) entgegengenommen.

Links

red/czaak, Economy Ausgabe Webartikel, 20.09.2024