Wissenschaftler haben in zwei Tagen mehr als 600 Missbrauchsdarstellungen von Kindern auf Mastodon gefunden. Sie stellen den dezentralen Ansatz in Frage.
“Wir haben in zwei Tagen mehr PhotoDNA-Treffer gefunden als jemals zuvor in der Geschichte unserer Organisation in einer solchen Zeitspanne.”
Leider wird hier nicht erwähnt wie viele Bilder und Posts pro Zeit dieses Mal und bei vorherigen Untersuchungen durchsucht wurden. Daher ist diese Aussage relativ wertlos.
Neben PhotoDNA, das unter anderem von Microsoft mitentwickelt wurde, ist auch Googles SafeSearch-API zum Einsatz gekommen. Mit ihnen habe man die 25 beliebtesten Mastodon-Instanzen untersucht.
Leider wird auch hier nicht erwähnt ob sie vorher bereits andere Social Media Netzwerke mit den gleichen Mitteln durchsucht haben.
Ich denke wenn man die passenden Hashtags in großer Menge kennt und eine scheinbar von einer Suchmaschine vorindizierte Datenbank der Instanzen hat und dann noch Spezialsoftware zur Bilderkennung einsetzt wäre es überraschend wenn man nicht innerhalb von Minuten etwas findet.
Die Autoren der Studie schlagen deshalb vor, Netzwerke wie Mastodon sollten den Moderatoren mehr Tools wie PhotoDNA an die Hand geben
Kleinigkeit, lass mal eben kurz ein Tool was proprietär ist und vermutlich Dutzende von Personenjahren an Entwicklungszeit gekostet hat nachbauen und in Mastodon integrieren. Und dann brauchen wir nur noch eine Datenbank mit Hashes von Kindesmissbrauch damit das ganze funktioniert.
Von der PhotoDNA Webseite
Microsoft continues to provide this valuable technology for free to qualified organizations including technology companies, developers, and non-profit organizations for the purpose of combatting child exploitation.
Wenn es diesen Leuten bei Microsoft wirklich darum ginge möglichst viel Kindes-Missbrauch zu verhindern dann wäre das nicht “free to qualified organizations” sondern einfach Open Source mit einer Permissive License (BSD, MIT oder so was) damit das ohne jedes Bild zu Microsoft hoch zu laden auch in Software zum Einsatz kommen könnte wo Leuten ihre Privatsphäre nicht total egal ist.
Leider wird hier nicht erwähnt wie viele Bilder und Posts pro Zeit dieses Mal und bei vorherigen Untersuchungen durchsucht wurden. Daher ist diese Aussage relativ wertlos.
Leider wird auch hier nicht erwähnt ob sie vorher bereits andere Social Media Netzwerke mit den gleichen Mitteln durchsucht haben.
Ich denke wenn man die passenden Hashtags in großer Menge kennt und eine scheinbar von einer Suchmaschine vorindizierte Datenbank der Instanzen hat und dann noch Spezialsoftware zur Bilderkennung einsetzt wäre es überraschend wenn man nicht innerhalb von Minuten etwas findet.
Kleinigkeit, lass mal eben kurz ein Tool was proprietär ist und vermutlich Dutzende von Personenjahren an Entwicklungszeit gekostet hat nachbauen und in Mastodon integrieren. Und dann brauchen wir nur noch eine Datenbank mit Hashes von Kindesmissbrauch damit das ganze funktioniert.
Von der PhotoDNA Webseite
Wenn es diesen Leuten bei Microsoft wirklich darum ginge möglichst viel Kindes-Missbrauch zu verhindern dann wäre das nicht “free to qualified organizations” sondern einfach Open Source mit einer Permissive License (BSD, MIT oder so was) damit das ohne jedes Bild zu Microsoft hoch zu laden auch in Software zum Einsatz kommen könnte wo Leuten ihre Privatsphäre nicht total egal ist.