Erpressung durch DeepFake?

HeyHo,

Wie viele eben mitbekommen haben ist ja gerade EM, und ich war traurig als Österreich durch die Türkei ausgeschieden ist. Daher habe ich mich heute umso mehr gefreut dass die Niederlande die Türkei besiegt hat.

So kommen wir zum Punkt.

Eine Person hat kommentiert das die Türkei trotzdem gut gespielt hat und ich habe darauf geantwortet sinngemäß: Naja gut gespielt. Sie haben sich halt beim 1-0 vor ihr eigenes Tor gestellt.

Die Person hat wieder geantwortet Deine Meinung interessiert mich nicht und ich meinte dann: Ja muss sie auch nicht. Aber es gibt Meinungsfreiheit.

Daraufhin hat mir die Person gedroht das sie ein Bild von mir auf meinem Profil gescreenshotet hat und daraus ein pornografisches AI Video machen wird und es auf XHamster hochladen wird und es jedem schickt. Weil man auf öffentliche Inhalte im Internet (mein Foto) frei Zugriff hat

Ich habe dann relativ selbstsicher geantwortet: Das ist illegal. Aber tu was du nicht lassen kannst. Du hast deine Meinung und ich meine und da ist nichts falsch dran.

Dann hat die Frau mit den Lyrics von dem Song der bei meinem Foto dabei war geantwortet.

Und ich meinte sie soll mir privat schreiben ich will das klären. Jedenfalls können wir uns privat ned schreiben weil sie folgt mir ned und ich ihr ned (Hab mein Konto jetzt auf Privat gestellt).

Jedenfalls nach 20min sind alle Kommentare noch da bis auf den wo sie mir mit dem Deepfake droht und der mit den Lyrics.

Dann hat mir eine andere Person geantworte das ich "ihn" (warum auch inmer ihn, wenn es eine Frau war) direkt melden soll aber die Person hat genau nur 1 Follower und das ist zufälligerweise genau der selbe einzige Follower den diese Frau die mich bedroht hat auch hat.

Was soll ich tun?

Einfach keine Sorgen machen weil eh nichts passieren wird oder abwarten? Oder was?

Drohung, Kommentare, Instagram, Drohung im Internet, Deepfake
Wie gefährlich kann KI in Kombination mit Deepfake in den falschen Händen sein?

Ich hab vorhin ein Song gehört der komplett von einer KI gemacht wurde. Also Text, flow und so von dem macher und die KI nur die Stimme vom echten Künstler drauf gemacht. Und man merkt es 0. Es wirkt wie ein echter Song von ihm. Aber wenn das geht, kann man auch jede Person alles sagen lassen was mann will, dass noch in Kombination mit deepfake (die auch immer krasser werden) ist krank gefährlich. Man könnte zum Beispiel Biden einfach sagen lassen "wir starten den dritten Weltkrieg gegen Russland und China" und es würde sich wie ein Lauffeuer verbreiten. Und wenn dann nicht schnell genug ein dementi veröffentlicht wird, oder zum Beispiel Putin einen nervösen Moment hat und auf den Knopf drückt (bzw er und der andere den Schlüssel umdrehen, weil er nicht alleine irgendwas losschicken kann). Dann ist einfach Ende.

Aber es muss nicht mal das sein, stell dir vor der ex Partner macht sowas und lässt dich keine Ahnung was sagen oder so und postet das überall, dann ist die Privatperson einfach dauerhaft geschädigt weil die meisten das glauben oder denken dass ist echt. Vorallem bei Frauen kann das schlimm sein wenn man das Gesicht auf irgendwelche random nackten Frauen packt. Und dann wird man überall damit konfrontiert von irgendwelchen Idioten. Also KI/AI kann zwar geil und lustig sein aber es kann auch sau gefährlich sein.

Jetzt die Frage:

Wie warscheinlich ist es das sowas in Zukunft wirklich passiert? Bei Privatpersonen warscheinlich leider öfter, aber ist es etwas worüber man sich wirklich Gedanken machen muss?

künstliche Intelligenz, Deepfake

Meistgelesene Beiträge zum Thema Deepfake