Autor: Amruta Durve
Beitrag von: BBC Marathi
In den letzten Tagen haben Sie vielleicht Videos gesehen, die einen Tiger zeigen, der einen schlafenden Menschen davonträgt, oder einen Leopard, der in Lucknow aufgetaucht ist. Auch in Pune gibt es solche Videos.
Diese Videos, die Sie möglicherweise über soziale Medien gesehen oder weitergeleitet haben, sind nicht echt. Ihr Social-Media-Feed wird zunehmend von KI kontrolliert, und der Algorithmus beeinflusst den Inhalt, der Ihnen präsentiert wird.
Die Videos von Leoparden, Tigern, Bären und Hunden, die Sie sehen, sind oft mit Unterstützung von KI erstellt worden. Was können Sie also tun, um sich nicht täuschen zu lassen?
Die Entwicklung von KI-generierten Videos
In den letzten sechs Monaten haben sich die KI-Video-Generatoren, also Apps, mit denen KI-Videos erstellt werden können, erheblich verbessert. Viele dieser Apps sind für die Öffentlichkeit zugänglich geworden, was zu einer Zunahme der durch KI generierten Inhalte geführt hat.
Unser Artikel befasst sich mit Inhalten auf sozialen Medien. Bei der Veröffentlichung eines Beitrags fragen wir um Ihre Zustimmung, da entsprechende Webseiten Cookies und andere Technologien nutzen. Bevor Sie zustimmen, sollten Sie die Datenschutzrichtlinien der sozialen Medien lesen und auf „Zustimmen und Fortfahren“ klicken, um den Inhalt zu sehen.
Wachsende Verbreitung realistischer Fake-Videos
Es gibt viele Videos, die sehr realistisch erscheinen, und die Anzahl dieser täuschend echten Videos wird voraussichtlich weiter zunehmen. Dies liegt daran, dass KIs aus ihren Fehlern lernen und zudem mit großen Datenmengen trainiert werden. Die Verbesserungen in diesen KI-Systemen werden auch in Zukunft schnell fortschreiten.
Wie erkennt man KI-generierte Videos?
Hier sind einige Punkte, die Sie beachten sollten, um KI-Videos zu identifizieren:
Videoqualität
Eine schlechte Bildqualität oder ein verschwommenes Video können Anzeichen dafür sein, dass es sich um ein KI-Video handelt. Heutige Smartphones verfügen selbst über Kameras, die in 4K aufnehmen können, und selbst Nachtaufnahmen sind klar. Wenn ein Video nicht dieser Qualität entspricht, kann das eine Frage aufwerfen.
Vortäuschen von Überwachungskameras
Um die mangelhafte Bildqualität zu vertuschen, werden KI-Videos häufig als Aufnahmen von Überwachungskameras dargestellt. Viele virale Videos erscheinen in diesem Format, wobei oft willkürlich Zahlen für Datum und Uhrzeit angegeben werden. Auch die Audioqualität solcher Videos ist häufig schlecht.
Schillernde Farben und unnatürliches Aussehen
Ein weiteres Indiz für ein gefälschtes Video könnte ein übertrieben schillerndes Bild sein, wie etwa Menschen mit übermäßig glänzender Haut oder seltsam bewegenden Haaren oder Kleidung. Achten Sie auch auf die Mimik der Personen im Video und die Bewegungen der Augen – Unnatürlichkeiten sind oft ein Hinweis auf Künstlichkeit.
Fehlende Details
In KI-Videos gibt es oft amüsante oder unerwartete Elemente, sodass man sich so sehr darauf konzentriert, dass man die kleinen Unstimmigkeiten übersieht. Ein Beispiel ist ein Video mit Kaninchen auf einem Trampolin, in dem ein Kaninchen plötzlich verschwindet oder sich seine Größe ändert.
Kurze Clips
Ein weiteres Erkennungsmerkmal ist die Länge dieser Clips. KI-generierte Videos sind oft nur wenige Sekunden lang. Das liegt daran, dass längere Videos kostenpflichtig sind und in kostenlosen Versionen oft nur sehr kurze Clips erlaubt sind.
Wasserzeichen
Wenn ein Video mit der OpenAI-App Sora erstellt wurde, trägt es ein Wasserzeichen. Wenn Sie in einem Video den Namen „Sora“ sehen, handelt es sich um ein KI-Video. Oft versuchen die Viralschreiber, dieses Wasserzeichen mit Schnittsoftware zu verbergen, was manchmal zu unschönen unscharfen Stellen im Video führt.
Physikalische Fehler
Obwohl die KI in der Lage ist, viele Dinge genau zu imitieren, hat sie häufig Schwierigkeiten mit physikalischen Gesetzen in Fotos und Videos. So gibt es beispielsweise Schwierigkeiten bei der Darstellung von Licht und Schatten im Bild, was bei einem angeblichen Leoparden in Pune beobachtet wurde.
Skepsis gegenüber der Realität
Eine wichtige Überlegung beim Ansehen eines Videos ist: Ist es wirklich möglich, dass dies geschieht? Ein Beispiel könnte ein Tiger sein, der im öffentlichen Raum betrunken gemacht werden soll. Bevor Sie ein solches Video weiterverbreiten, sollten Sie darüber nachdenken.
Die Polizei von Nagpur hat rechtliche Schritte gegen eine Person eingeleitet, die ein solches Video auf sozialen Medien gepostet hat, das erwiesenermaßen gefälscht war. Verbreiten Sie keine Angst seitenden Videos; dies kann Konsequenzen für Sie haben.
Durch den Fortschritt der KI sind Deepfakes leichter zu erstellen geworden. Diese Bilder und Videos werden weiterhin lebensnaher werden und es wird schwieriger werden, zwischen Wahrheit und Fiktion zu unterscheiden. Daher ist es wichtig, sich neue Gewohnheiten anzueignen. Seien Sie vorsichtig bei weitergeleiteten Videos, die Sie auf WhatsApp sehen, und bei Telefonanrufen zu Angeboten.
Veröffentlicht von Collective Newsroom für die BBC.











