Was haltet ihr von dem EU beschluss mithilfe von A.I. Bilder auf jedem Handy nach Kinderpornographie zu Durchsuchen?
Hier das video wenn ihr noch nicht über die Thematik bescheid wisst: https://youtu.be/y1cGkZHIfmw
Mein Standpunkt ist, dass ich es grundsätzlich richtig finde, nur finde ich es nicht gut dass jedes Smartphone danach durchsucht wird. Und bei einem fehlschlag kann es sein dass Private Bilder an die Polizei geschickt werden. Und diese Technik lässt sich sehr leicht ändern um nach dingen aller art zu zuchen z. B. Waffen, Drogen. Und dann ist ja jeder ein Gläserner Mensch und kann durch ein Falsches Bild eine Anzeige Bekommen.
Das Ergebnis basiert auf 18 Abstimmungen
12 Antworten
Es sind bereits sogenannte Hash-Kollisionen erzeugt werden. D.h. zwei unterschiedliche Bilder haben denselben digitalen Fingerabdruck. Dementsprechend würden hier unschuldige Personen verfolgt werden.
Weiters lässt sich die verwendete Technik recht einfach aushebeln, in dem ich z.b. das Bild um 1° drehe. Es entsteht dann ein neuer Fingerabdruck der nicht in der Datenbank vorhanden ist
Bei einer Verschlüsselung ist es eh klar. Da kann man nix vorwerfen. Aber beim Hash Kolissionen zuzulassen ist fahrlässig.
Ja da hast du recht und genau deswegen kann es passieren dass private bilder an die Polizei geschickt werden was eine massiver einschnitt in die Privatsphäre bedeutet
Dass die Bilder versendet hätte ich noch gar nicht gehört. Das wäre ja noch schlimmer.
Eine Ermittlung wegen Kinderpornografie kann halt wirklich Existenzen zerstören, egal wie es ausgeht.
Dazu fasst man nur die dummen, kleinen Fische (die man auch so gefasst hätte).
Also ich erkläre das mit dem Verschicken: Jeder nutzer hat einen bestimmten schwellenwert wie viele Flags er in einem Zeitraum haben kann und wenn der überschritten wird wird das Bild das Geflagt und wird der Polizei geschickt und dann nach solchen inhalten durchsucht. Und dann wenn das der fall ist wird man angezeigt.
Das mit den Flags/Hitcount war mir bekannt. Ich war aber der Meinung, dass danach einfach eine Info versendet wird dass Smartphone X kontrolliert werden soll, nicht dass automatisch auch Bilder verschickt werden. Beides ist für mich abzulehnen
Ohne mir jetzt das Video angeguckt zu haben ...
An sich klingt es zwar praktisch das sie somit Kinderpornografie ausfindig machen ...
Naja ... Was ist wenn ich mir ein Handy kaufe von <2010 ... z.B. Samsung Galaxy S4 oder so ... Wo es das nicht gibt ... Dann habe ich das auch einfach umgangen ... Und dann nützt das System wieder nichts
Und naja ... 13-jährige Mädchen sehen ja heute auch schon häufig aus wie 18 dank Schminke und sowas ... (Ja ich weiß ... Deep learning KI ... Aber ob die sowas auch zu 100% sicher durchschauen kann?)
Was mir z.B. auch mal aufgefallen ist: Selbst lilane Haare z.B. lassen junge Mädchen älter aussehen ...
Und naja ... Wenn die KI da auf einmal ein normales Bild als Pornografisch ansieht und/oder ein Volljährige als Minderjährige ... Dann hat man auf einmal Polizei vor der Tür ...
Vielleicht sollten sie es nur dort anwenden wo bedacht besteht (Oder z.B. Anhand von Google Anfragen ... Wenn man jetzt z.B. nach "Kinder Pornos" googlet ... Das sie dann alles kontrollieren)
Das system erzeugt bei jedem Bild einen Hash code, und wird dann mit Kinderpornografischen Bildern und Videos verglichen und wenn im Hash code eine ähnlichkeit besteht wird es als Potentiell kinderpornografisch gekennzeichnet. Ab einem Bestimmten wert an Potentiellen Treffern werden diese Bilder an die Polizei geschickt und dort untersucht.
Ach so ... Das System nimmt also nur bestehende Bilder und vergleicht die?
Jagut ... Ich hatte damals nur von meinem oben beschriebenen System gehört und dachte es wäre das selbe, da es auch noch nicht so lange her ist ...
Jagut ... Dann z.B. Ich dreh das Bild ein paar Grad ... Ich pack einen Farbfilter drauf ... Oder wie gesagt einfach ein altes Handy ...
Ich guck mir doch mal eben schnell das Video an
Das muss jeder selber wissen was er will bzw. nicht will. Ich finde es gut. Das hat allerdings nichts mit einem EU-Beschluss zu tun sondern mit dem kommenden iOS update wird das passieren. Man braucht auch keine Angst haben dass wenn man ein Bild am Strand gemacht hat dass dann gleich die Polizei vor der Türe steht. Der Algorithmus ist so gut das er erkennt, wenn es ein Strand ist. Außerdem werden „Punkte“ gezählt. Wenn man zu viel von diesen Punkten bekommen hat kommt erst dann die Polizei.
Nein Fehlerkennungen können passieren, da es Bilder mit Hash Kollisionen gibt die den Gleichen Code haben wie ein Illegales bild, also kann es durchaus passieren.
Es wäre gut, wenn es wahr wäre und fehlerfrei funktionieren würde.
Jedoch ist die Fehlerhäufigkeit groß, es mühelos möglich, die Algorithmen auszutricksen, und es ist extrem unwahrscheinlich, daß es lediglich um Kinderpornos geht. Doch vorgeschobene Aufreger wie z.B. Kinderpornos sind natürlich das, was gerne geglaubt und damit auch von den meisten Menschen hingenommen wird.
Im Kern spielen da ganz andere Interessen eine Rolle. Wir haben ausufernde Internetkriminalität, politischerseits wütet ein Cyberkrieg, die Wirtschaft nutzt neueste wissenschaftliche Erkenntnisse in Verbindung mit IT, um möglichst umfangreich die Bedarfe der Bevölkerung zu kontrollieren und zu manipulieren, und immer paranoider werdende Regierungen wollen zu frühzeitig und so umfangreich wie möglich wissen, wer wann mit wem Kontakt hat, welche Interessen darauf hinweisen, daß sich etwas entwickeln könnte, was politisch unbequem ist, und auch, wer auf dem Weg ist, etwas in Erfahrung zu bringen, was er nicht wissen soll (betrifft z.B. Journalisten).
Dinge wie die frühe Erkennung von Terror oder auch das Aufdecken von Kinderpornonetzwerken usw. sind dabei lediglich Nebenprodukte.
Das hat Vor- und Nachteile. Dieses System wird nicht richtig funktionieren. Es wird zu Fehlern kommen. Das System muss Beispiele Nacktheit von Pornographie unterscheiden können. Das wird schwer.
Ich kann mir auch gut vorstellen, dass das System für Werbezwecke missbraucht wird.
Schau dir das video an dann weißt du auch wie das funktioniert, also kurzgesagt wird aus jedem bild ein Code erzeugt der merkmale eines Bildes beinhaltet und dieser code wird mit einer Datenbank von Porno hashes verglichen. Aus dem hash lässt sich das bild nicht wiederherstellen also das ist schonmal ein Pluspunkt. Aber es gibt sogentannte hash Kollisionen wo zwei bilder den Gleichen code haben können also könnte es passieren dass ein bild wo z.B eine blume zeigt als Pornografischer inhalt markiert wird.
Ja oder eine einfache Verschlüsselung legt das system lahm also damit werden nur vollidoten gefasst