top of page

VAARHAFTs KI-Strategie: Proprietäre Computer-Vision-Forensik statt LLMs

2. Okt. 2025

- Team VAARHAFT

VAARHAFT nutzt proprietäre Computer-Vision-Forensik für die Echtheit von Bildern und Dokumenten.

(KI generiert)

Ein Finanzmitarbeiter nahm an einem Videomeeting teil, sah vertraute Gesichter auf dem Bildschirm und genehmigte eine Überweisung über rund 25,6 Millionen US-Dollar. Erst später bestätigten Ermittler, was im Rückblick offensichtlich war. Die Führungskräfte waren synthetisch geklont, der Call war ein Deepfake. Der 2024 aus Hongkong gemeldete Fall zeigt, wie schnell Bild- und Video-Manipulation in reale Verluste umschlagen kann (Financial Times). In dieser Welt agieren unsere Kunden. Sie wirft eine direkte Frage zu unserem Ansatz auf: Baut Vaarhaft eigene KI-Modelle? Ja. Sind es Large Language Models? Nein. Wir entwickeln proprietäre Computer-Vision-Forensik, denn Bilder und Dokumente erfordern andere KI als Text.

Das Problem: Warum Bilder und Dokumente andere KI als Text benötigen

Large Language Models lernen Muster in Tokens. Sie glänzen beim Schlussfolgern über Text und beim Generieren von Sprache. Bild- und Dokumentenforensik verlangt etwas völlig anderes. Die Erkennung beruht auf feinen Pixel- und Sensorsignalen wie Kompressionsartefakten, Demosaicing-Mustern, Rückerfassungsspuren und Bearbeitungsdiskontinuitäten.

Darum ist die Frage nicht akademisch. Wenn ein Fraud-Team versucht, ein Textmodell für eine Echtheitsanalyse auf Pixel-Ebene einzusetzen, übersieht es forensisch relevante Signale. Zudem fällt die Lokalisierung manipulierter Bereiche schwer, etwa in Form von Heatmaps, auf die ein Prüfer oder Schadenbearbeiter reagieren kann. Unsere Kunden benötigen schnelle, evidenzbasierte Antworten darauf, ob ein Bild KI-generiert oder bearbeitet wurde, ob ein Dokument zusammengefügte Elemente enthält und ob Herkunftsdaten die Geschichte stützen. Diese Arbeit gehört in die Computer-Vision-Forensik, nicht in Large Language Models.

Warum Vaarhaft proprietäre Computer-Vision- und Forensik-Modelle baut

Wir entwickeln und trainieren unsere eigenen Modelle, weil sich die Risikolandschaft wöchentlich wandelt und Standardlösungen selten die forensische Tiefe liefern, die Versicherer, Banken und Marktplätze benötigen. Erstens ist domänenspezifisches Training unverzichtbar. Wirksame Detektoren lernen an Daten, die reale Manipulationen, Rückerfassungsversuche und Anti-Forensik abbilden.

Zweitens sind Robustheit und Erklärbarkeit ebenso wichtig wie reine Genauigkeit. Fraud-Operations brauchen Heatmaps auf Pixel-Ebene, interpretierbare Konfidenzwerte und reproduzierbare Reports statt Blackbox-Urteilen. Drittens passt sich die Bedrohung an. Neue Generatoren, neue Upscaler und neue Rückerfassungstricks tauchen fortlaufend auf. Inhouse-Modelle ermöglichen kontinuierliches Retraining, Härtung und Monitoring. Und viertens ist Datenschutz Teil des Designs. Unsere Modelle werden in Deutschland entwickelt, in Deutschland gehostet und arbeiten nach DSGVO-Prinzipien. Wir verwenden keine Kundendaten oder Medien zum Training und löschen eingereichte Dateien nach der Analyse. Kunden erhalten belastbare Beweise, ohne die Datenhoheit abzugeben.

Was proprietäre Modelle in realen Workflows ermöglichen

Zweckgerichtete Forensik erschließt Fähigkeiten, die generische KI nicht erreicht. Unsere Detektoren trennen KI-generierte von kamerabasiert aufgenommenen Inhalten, kennzeichnen softwarebasierte Edits und visualisieren verdächtige Bereiche auf Bildern und Dokumenten mit Heatmaps auf Pixel-Ebene. Sie lesen Metadaten aus, extrahieren und verifizieren C2PA Content Credentials, sofern verfügbar, und kombinieren diese mit Reverse-Image-Signalen, um zu prüfen, ob ein Upload bereits anderswo im Web erschienen ist. Herkunftsnachweise ersetzen die Detektion nicht. Sie ergänzen sie. Eine vertiefende Einordnung zu Nutzen und Grenzen von Provenance finden Sie in unserem Erklärstück (C2PA unter dem Mikroskop).

Diese Fähigkeiten fließen in praxisnahe Tools, die Risk-Teams in bestehende Prozesse integrieren können. Für schnelle Echtheitschecks von Schadenfotos und hochgeladenen Dokumenten nutzen Sie die Bild- und Dokumentenanalyse unserer Modelle in Fraud Scanner. Für eine sichere Erfassung, wenn zweifelsfrei feststehen muss, dass ein Anspruchsteller eine reale dreidimensionale Szene statt eines Bildschirms oder Ausdrucks fotografiert, führt unsere SafeCam Web-App nach der Aufnahme eine mehrstufige Verifikation durch und blockiert Rückerfassungen. Zusammen reduzieren Detektion und sichere Erfassung sowohl Betrug als auch False Positives bei minimaler Reibung für Nutzer.

Signale, Standards und Regulierung, die das Modell-Design prägen

Die Vertrauensinfrastruktur im Ökosystem verbessert sich. Content-Provenance über C2PA findet zunehmend Verbreitung in Kameras, Kreativtools und Plattformen, was Prüfern hilft zu erkennen, ob ein Bild eine kryptografisch signierte Entstehungshistorie trägt. Dennoch wird für einen Großteil der risikobehafteten Medien, die Ihre Teams sehen, kein Herkunftsnachweis vorliegen. Angreifer signieren ihre Arbeit nicht. Deshalb bleibt forensische Detektion neben Provenance-Checks essenziell. Unsere Sicht entspricht der Branchenpraxis. Nutzen Sie Provenance, wenn sie vorhanden ist. Erkennen Sie Manipulationen, wenn sie fehlt. Und korrelieren Sie stets beide Signale.

Auch Regulierung beeinflusst das Design. Der EU AI Act, die EU-KI-Verordnung, führt Transparenz- und Governance-Anforderungen für KI-Systeme ein. Für Authentizitäts-Tools, die Underwriting oder Compliance informieren, begünstigt die Betonung von Nachvollziehbarkeit und Risikomanagement erklärbare Outputs und auditierbare Prozesse. Eigene Modelle zu bauen ermöglicht uns eine End-to-End-Umsetzung dieser Prinzipien von der Datenverarbeitung bis zur Report-Erstellung.

Kurze praktische Empfehlungen für Risk-Teams

  • Priorisieren Sie bei jedem Echtheitscheck von Bildern oder Dokumenten Erklärbarkeit auf Pixel-Ebene und die Extraktion von Provenance-Metadaten. Achten Sie auf klare Regionskarten und maschinenlesbare Content Credentials, wo verfügbar.
  • Fragen Sie Anbieter nach Benchmarks und Evaluation. Die Teilnahme an Challenges zur Messung von Manipulationserkennung und -lokalisierung hilft, Generalisierung über einzelne Datensätze hinaus zu belegen.
  • Kombinieren Sie proaktive Capture-Kontrollen mit reaktiver forensischer Detektion, um sowohl Betrug als auch False Positives über Schadenfälle, Onboarding und Marktplatz-Uploads hinweg zu reduzieren.

Fazit

Baut Vaarhaft also eigene KI-Modelle? Ja. Und es sind keine LLMs. Bild- und Dokumentenforensik ist kein Textproblem. Sie ist eine Disziplin der Computer Vision, in der Pixel-Signale, Metadaten und Herkunft zusammenlaufen. Proprietäre Modelle halten uns auf Augenhöhe mit Angreifern, liefern umsetzbare Heatmaps und PDF-Reports und erfüllen mit Entwicklung und Hosting in Deutschland die Erwartungen an die DSGVO. Wenn Sie sehen möchten, wie Forensik auf Pixel-Ebene und sichere Erfassung in eine mehrschichtige Verteidigung gegen Deepfakes, Rückerfassungen und bearbeitete Dokumente passen, erkunden Sie die oben genannten Tools oder kontaktieren Sie unser Team, um Ihren Workflow durchzugehen.

bottom of page