KI-Videoerkennungstools

Haben Sie in den letzten Tagen seltsame Videos auf WhatsApp oder Instagram gesehen? Ein Tiger, der einen schlafenden Menschen aufnimmt, ein Leopard, der durch die Straßen von Lucknow streift, Leoparden, die in Pune in Wohnhäuser eindringen, oder ein Video eines Tigers, dem jemand Alkohol gibt. Haben Sie sich darüber gewundert, Angst gehabt oder es sofort weitergeleitet? Warten Sie… all diese Videos sind gefälscht. Sie wurden nicht von einer echten Kamera aufgenommen, sondern von KI erstellt.

Heutzutage sehen AI-generierte Videos in sozialen Medien so echt aus, dass normale Menschen leicht getäuscht werden. In den letzten sechs Monaten haben sich AI-Video-Generator-Apps wie Sora, Kling und Luma erheblich verbessert. Man gibt einen einzigen Satz ein und erhält in nur 10-15 Sekunden ein extrem realistisch wirkendes Video. Daher gibt es jetzt viele gefälschte Videos von Tigern, Leoparden, Bären, Hunden und Hasen.

Wie man gefälschte Videos erkennt

Es gibt mehrere Anzeichen dafür, dass ein Video möglicherweise gefälscht wurde:

  1. Schlechte Qualität. Wenn die Qualität des Videos extrem niedrig ist, sollten Sie skeptisch sein. Heutzutage können selbst einfache Handys Videos in 4K bei Nacht aufnehmen. Warum also könnte ein Video so verschwommen sein?
  2. Gefälschte CCTV-Aufnahmen. Um Täuschungen zu verbergen, werden diese Videos oft im Stil von CCTV-Aufnahmen präsentiert, wobei anstelle eines Datums nur Zahlen geschrieben werden. Auch der Ton ist meist von schlechter Qualität.
  3. Übermäßig perfektes Aussehen. Wenn die Haut zu glänzend ist, die Augen und die Nase perfekt erscheinen und die Haare oder Kleidung unnatürlich bewegen, ist die Wahrscheinlichkeit hoch, dass das Video KI-generiert ist. Emotionen der Augen und Details des Gesichts werden von KI häufig nicht korrekt wiedergegeben.
  4. Beobachten Sie Hände und Körper. KIs haben Schwierigkeiten, Hände und Körper korrekt darzustellen. Wenn jemand springt oder läuft, kann es zu Unstimmigkeiten in Schatten, Licht und Körperstrukturen kommen.
  5. Fehlende oder sich ändernde Details. Erinnern Sie sich an das Video von Hasen, die auf einem Trampolin springen? Plötzlich verschwindet ein Hase oder verändert seine Form. Solche Unregelmäßigkeiten sind oft erkennbar.
  6. Nur 6-10 Sekunden lange Videos. Längere Videos erfordern erhältliche Kosten. Daraus entsteht, dass die meisten kostenlosen, viralen AI-Clips nur wenige Sekunden lang sind.
  7. Sora-Wasserzeichen. Videos, die von OpenAI’s Sora erstellt werden, zeigen ein “Sora”-Wasserzeichen, das möglicherweise verdeckt oder verschwommen ist.
  8. Die fundamentalste Frage: Ist es wirklich möglich? Ein Tiger, der auf der Straße sitzt und Alkohol bekommt – ist das überhaupt möglich? Wenn Sie diese Frage stellen, können 90% der gefälschten Videos sofort erkannt werden.

Die Polizei von Nagpur hat bereits eine Mitteilung an eine Person herausgegeben, die aufgrund des alkoholisierenden Tiger-Videos Gerüchte verbreitet hat. Auch die Videos von Leoparden in Pune wurden von den Behörden als gefälscht eingestuft. Die KI wird zunehmend intelligenter. In Zukunft werden diese Videos noch echter wirken. Daher sollten wir uns antrainieren, vor dem Weiterleiten eines Videos einige Sekunden innezuhalten, um die oben genannten Aspekte zu überprüfen, bevor wir es teilen. Andernfalls könnten wir unbeabsichtigt falsche, angstmachende Informationen verbreiten.