Meta est accusé d’avoir négligé certains contenus dangereux
Rien ne va plus pour Meta, la maison mère de Facebook, Instagram et WhatsApp. En effet, l’entreprise de Mark Zuckerberg est accusée de multiples prises en compte tardives de signalements.
Meta a dû faire face à la justice à de nombreuses reprises. L’entreprise a même été lourdement condamnée par l’Union européenne. Plusieurs artistes poursuivent d’ailleurs Meta et OpenAI pour violation de droits d’auteur. De plus, dans le cadre du lancement de Threads, Twitter a accusé Meta de vol de secrets commerciaux. Mais aujourd’hui, l’entreprise fait face à un problème bien plus grave. En effet, la société aurait négligé plusieurs signalements pour contenu dangereux.
C’est en tout cas l’une des principales accusations d’un rapport publié par l’organisation à but non lucratif Internews. Celle-ci est responsable du programme Trusted Partner, qui regroupe 465 groupes mondiaux de la société civile et des droits de l’homme. Cette initiative vise à leur fournir un canal désigné pour alerter Facebook et Instagram des contenus dangereux tels que les menaces de mort, les comptes piratés et l’incitation à la violence.
Meta : les situations urgentes ne sont pas prioritaires
Internews affirme ainsi que certaines organisations participantes subissent le même traitement que les utilisateurs ordinaires. En effet, celles-ci attendent des mois pour obtenir une réponse à un signalement, sont ignorées et sont aliénées par une communication médiocre et impersonnelle.
L’un des partenaires de l’organisation aurait ainsi déclaré : “Deux mois et plus. Et dans nos courriels, nous leur disons que la situation est urgente, que des gens sont en train de mourir […] La situation politique est très sensible et doit être traitée de toute urgence. Et ensuite, il s’écoule des mois sans réponse“.
En début d’année, près de 50 groupes de défense des droits de l’homme ont signé une lettre ouverte à Mark Zuckerberg et Nick Clegg après que Meareg Amare, un professeur africain, ait été la cible d’une attaque raciste sur Facebook et assassiné peu de temps après en Éthiopie. Le fils de la victime affirme ainsi : “En n’investissant pas et en ne déployant pas les améliorations de sécurité adéquates dans votre logiciel ou en n’employant pas suffisamment de modérateurs de contenu, Meta attise les flammes de la haine et contribue à des milliers de morts en Éthiopie“.
Source : theverge