Coldo3895 a écrit:Brian Addav a écrit:Comme l'Aigle, j'espère qu'ils vont prendre cher.
Car Coldo se trompe sur un truc.
Il y a bien effectivement l'utilisation de robot pour identifier les photos de nu.
FB utilise officiellement une application Microsoft spécialisée dans l'identification des photos pédophiles.
Mais toute cette identification "robotisée" ne représente qu'une infime partie de la censure sur les réseaux.
La principale censure vient de la délation, ou du signalement.
Et là, je suis désolé, tu signales un truc de cul, un peu osé, un peu léger, le mec qu'a posté se voit suspendu de suite.
Tu signales une infraction aux droits d'auteurs (enfin, ceux des gros studio), encore plus rapidement.
Par contre, tu signales des propos jihadistes, racistes, ou autres, ça prend des plombes pour voir aboutir qq chose.
Ce qui est complètement anormal.
Donc oui, j'espère qu'ils vont prendre très cher.
Je ne me trompe sur rien du tout !!!
S'il y a un signalement, hop un robot y va ! Si c'est du nu c'est facile ça peut être supprimé tout de suite.
Si c'est une infraction aux droits d'auteurs, le robot peut le voir immédiatement, pareil ça peut sauter rapidement.
Par contre faudra m'expliquer comment un robot peut reconnaître des propos "jihadistes, racistes ou autres" !!!
Parce que là, c'est à quelqu'un de venir voir ! Et du coup forcément ça demande beaucoup plus de temps et de travail !
Non parce que sinon moi je dénonce toutes les pages facebook qui professent des opinions politiques autres que la mienne et j'attends que les robots les suppriment.
Encore une fois, tu mélanges tout.
Tu confonds l'identification d'un pb (son signalement), et son traitement, cad la censure à y apporter ou non.
Sur l'identification:
Le premier niveau de censure, c'est ce que FB, entre autre, appelle le signalement automatique. Cad l'utilisation de "robots" (comprenez des logiciels) pour analyser et rechercher les contenus posant problème.
Tout ce que tu postes sur FB en terme d'image, par exemple, passe par ce filtre.
Mais jamais le robot ne censure de lui-même. Il signale quand il pense avoir détecter un problème.
Le second niveau, le plus utilisé, c'est la délation, quand un individu signale une publication.
Une fois une publication signalée, ça rentre alors dans une autre boucle, celle du traitement de ce signalement.
Et c'est là que tu te trompes parce que ce ne sont pas les robots qui prennent les décisions.
Elles passent toutes par le filtre humain pour avoir confirmation qu'il y a un pb.
Et si tu y réfléchis, c'est normal. Si le robot n'a pas identifié un problème lors de sa passe automatique, ce n'est pas en simplement signalant une publication que le robot va de lui-même y voir un problème. S'il y retourne une seconde fois, il ne verra toujours pas de problème.
Pour cela, il faut que l'humain intervienne pour lui dire "là, ça c'est un pb, souviens en toi la prochaine fois".
Et on aborde le point qui concerne ce procès. Comme ça bouffe du temps de confirmer qu'un signalement est un pb, la priorité est aux trucs de cul. Facile à voir.
Tout ce qui est prosélytisme, ou tout ce qui demande une lecture et une compréhension, c'est mis en bas de la pile parce que ça prendrait trop de temps à analyser.
Ensuite, ce qui est un poil automatisé, ce sont les "jugements", la censure elle-même. Notamment pour les récidives.
Et si tu te fais censuré / bannir / suspendre une fois, tu vas l'être plusieurs fois après et de manière de plus en plus automatique.
Donc beaucoup de gens souhaitent que ces trois médias prennent cher pour qu'ils mettent les moyens humains et financiers pour faire ce boulot qu'ils ne veulent pas faire pour des raisons pécuniaires...