Die rasante Entwicklung digitaler Technologien in den letzten Jahren hat sowohl faszinierende als auch beunruhigende Möglichkeiten eröffnet, insbesondere im Bereich synthetischer Inhalte und Deepfakes. Diese hoch-entwickelten KI-generierten Audio-, Bild- und Videoinhalte sind mittlerweile so realistisch, dass sie von echten Aufnahmen kaum zu unterscheiden sind.
Mit dem Anstieg der Leistungsfähigkeit von Systemen und Sprachmodellen basierend auf künstlicher Intelligenz (KI) und maschinellem Lernen (ML) verbessert sich nicht nur die Quantität, sondern auch die Qualität von Deepfakes rasant. Das birgt Gefahren – für Vertrauen, Sicherheit und die Wahrnehmung von Realität in unserer Gesellschaft.
Derzeit konzentrieren sich die Bemühungen zur Bekämpfung von Deepfakes hauptsächlich auf zwei Bereiche:
00:00
Der Prototyp muss demonstrieren, wie Bild-Deepfakes zuverlässig erkannt und authentifiziert werden können. Das gesamte System kann KI-gestützt arbeiten und sich kontinuierlich an neue Deepfake-Techniken anpassen können. Am Ende des Prozesses sollen mindestens drei unterschiedliche Anwendungsfälle (z.B. Social Media, Nachrichtenportale, Videokonferenzsysteme) abgedeckt werden. Skalierbarkeit und Anpassungsfähigkeit an verschiedene digitale Plattformen sollten möglich sein.
Der Funke läuft über einen Zeitraum von 13 Monaten. Eine Jury aus anerkannten Expert:innen hat Ende Oktober zwölf Teams ausgewählt, die zur Teilnahme der ersten Stufe zugelassen werden.
Teams, die an diesem Funke teilnehmen, sind voll und ganz gefordert. Die SPRIND unterstützt deshalb intensiv und individuell. Dazu gehört die Finanzierung der Teams mit bis zu 350.000 Euro in Stufe 1 des Funkens. Nach sieben Monaten kommt die Jury wieder zusammen, um den Zwischenstand zu bewerten und darüber zu entscheiden, welche Herangehensweisen das größte Sprunginnovationspotential haben und welche Teams sich bis zum Schluss in der Funkens in einer zweiten Stufe beweisen können, die mit bis zu 375.000 Euro pro Team finanziert wird.
Multi-modal Deepfake Detection
ImVerif
FAU/secunet-solution
ReaLGuard
Content Transparency Archive (CTA): Verifiable Metadata
AI Robotic (VeriDeep)
Neuraforge
Valid - Trusted Information
Cinematic Context Aware AI Image Detection
DeepShield - The Disruptive Preventer
DeepFOCAS: DeepFake detection using Observable, Contextual, Accessible, and Semantic information
ClyraVision
Sie haben weitere Fragen? Dann können Sie uns gern unter challenge@sprind.org kontaktieren.