Kontext:
Lassmich.Welt wurde vor paar Tagen bis auf Weiteres deföderiert, da von dort leider CSAM-Zeug rübergeschwappt ist.Wenn der PR released ist, werden wir lemmy.world wieder föderieren.
Das finde ich super. Es sind sehr viele Communities auf lemmy.world und sehr viele denen ich auch folge. Würde mir aber nur ungern dort auch noch einen account machen.
Allgemein ist lemmy.world mit eine der größten instanzen oder?
Es ist sogar die größte. Vermutlich deshalb auch das Ziel vieler Attacken.
Bei ddos hatten die ja diesen Typen in Verdacht, der ca. 1000 bekannte Unters eröffnet hatte nur um überall dabei zu sein oder sowas, er wurde dann rausgeworfen und seitdem gibt es ständig ärger mit Attacken.
Die CSAM Attacken gab es doch auch auf Mastodon bereits, oder?
Kommentar auf seinem Profil, du könntest Recht haben
Ich hoffe, dass das ganze bald unter Griff zu bekommen ist. Wenn sich lassmich Instanzen weiter so oft deföderieren, dann sind war bald wirklich bei zwanzig verschiedenen Webseiten mit zwanzig verschiedenen Gemeinschaften.
Sind wir jetzt schon. Eben weil die ganze Zeit alles und jeder deförderiert wird.
Das sind halt growing pains, mit denen wir leben müssen. lemm.ee hat ja an dem Patch gearbeitet und überlegt nach eigenen Angaben auch, Machine Learning einzusetzen, um CSAM in Zukunft automatisiert erkennen zu können.
Es werden Lösungen gefunden, was am Ende die ganze Community besser macht. Dauert halt ein bisschen.
Das ist bereits gelöst. Mods und Admins müssen halt ihren ““Job”” machen. Bei Reddit gibts auch keine KI.
Allerdings muss man da noch sagen, dass der CEO mod von Jailbait war.
CP ist eigentlich in jedem Land verboten, es gibt also nur einen Grund, warum das Problem existiert. Zu wenig Moderatoren bzw User.Das hat weniger etwas mit den “Job machen” zu tun und mehr mit den aktuellen Fähigkeiten der Software. Bei über einer Million Lemmy-Nutzern ist es unmöglich, das allein von menschlichen Moderatoren stremmen zu lassen. Auch Reddit hat extrem komplexe und automatisierte Systeme hinter den Kulissen.
https://www.reddit.com/r/RedditEng/comments/13bvo5b/reddits_p0_media_safety_detection
Darüber hinaus ist hier ja der Faktor, dass es überhaupt nicht erst im Netzwerk auftauchen soll. Müssten Moderatoren die Posts händisch löschen, nachdem sie im Fediverse gepostet wurden, hätte das zur Folge, dass jeder Betreiber einer Instanz das im Anschluss machen müsste. Für jeden einzelnen Post.
Die aktuellen Lösungsansätze bauen auf eine automatische Erkennung auf, da nur so verhindert werden kann, dass die Posts überhaupt erst sichtbar und föderiert werden.
Der Content muss doch nur von der instanz gepurged werden auf der er war. dann kann auch keine andere instanz mehr zugreifen.
Und gerade das klappt zur Zeit nicht, weil Lemmy lokale Vorschaubilder von remote content erzeugt, die ad infinitum bestehen bleiben.
Erklär mal was CSAM bedeutet weil ich musste es selbst gerade nachschauen
Child Sexual Abuse Material
Kinderpornografisches Zeug
Ich hoffe mal ich bereue es nicht noch das vor dieser Antwort gegoogelt zu haben…