Rechercher
Rechercher

Dernières Infos - Guerre Hamas/Israël

Le conseil de surveillance de Meta lui reproche sa politique de modération


Le logo de Meta à Bruxelles, le 6 décembre 2022. Photo d'archives REUTERS/Yves Herman

Le conseil de surveillance de Meta a reproché mardi aux plateformes du géant des réseaux sociaux d'avoir adopté une politique de modération trop restrictive dans le cadre du conflit entre Israël et le Hamas.

En réaction à la "recrudescence exceptionnelle de contenus violents et graphiques sur ses plateformes" après les attaques du 7 octobre, Meta a "temporairement abaissé les seuils des systèmes de classification automatique" qui identifient et suppriment les contenus violents et les discours de haine, a expliqué le conseil de surveillance de Meta sur son site internet, mardi.

Ces mesures s'appliquaient aux contenus provenant d'Israël et de Gaza dans toutes les langues. "Meta utilisait ses outils automatisés de manière plus agressive pour supprimer le contenu susceptible de violer ses règlements", poursuit le conseil de surveillance. Tout en reconnaissant l'intérêt de cette modération, le conseil estime que cette politique a augmenté le risque que Meta supprime de façon erronée des contenus liés au conflit, qui n'étaient pourtant pas en infraction avec son règlement.

Actuellement, quand des messages ou images potentiellement en infraction avec le règlement de Facebook ou d'Instagram sont signalés, ils sont rapidement retirés s'ils sont considérés comme à haut risque et s'ils viennent d'utilisateurs non connus.

Le conseil de surveillance s'est appuyé sur deux cas en particulier. L'un concerne une vidéo publiée sur Facebook, montrant une Israélienne suppliant ses ravisseurs de ne pas la tuer alors qu'elle est prise en otage lors de l'attaque du Hamas du 7 octobre. L'autre concerne une vidéo publiée sur Instagram, montrant ce qui semble être les conséquences d'une frappe à proximité de l'hôpital Al-Chifa à Gaza, lors de l'offensive terrestre israélienne. Cette vidéo laisse apparaître des Palestiniens tués ou blessés, y compris des enfants.

"Dans les deux cas, le conseil a annulé la décision initiale de Meta de supprimer le contenu de ses plateformes, mais a approuvé la décision ultérieure de l'entreprise de restaurer les publications avec un écran d'avertissement", précise-t-il.  "Compte-tenu de l'évolution rapide des circonstances et des risques élevés que représente la suppression de ce type de contenu pour la liberté d'expression et l'accès à l'information, Meta aurait dû agir plus rapidement pour adapter sa politique", fait-il aussi valoir.

Cette entité, créé en 2020 sur proposition du patron de Meta, Mark Zuckerberg, est composée de 20 membres internationaux, journalistes, avocats, défenseurs des droits humains et anciens dirigeants politiques.

Le conflit Israël-Hamas, qui a fait de très nombreuses victimes civiles, suscite une immense émotion à travers le monde, et est propice aux tentatives de manipulation de l'opinion. Vidéos humiliantes d'otages, corps décapités... Les réseaux sociaux ont été inondés d'images violentes mais aussi de tentatives de désinformation, un défi pour toutes les plateformes.

L'Union européenne a d'ailleurs adressé en octobre une demande d'information à Meta à propos de la diffusion de "contenus terroristes et violents". Des enquêtes similaires visent les réseaux sociaux TikTok (propriété du groupe chinois ByteDance) et X (ex-Twitter).


Le conseil de surveillance de Meta a reproché mardi aux plateformes du géant des réseaux sociaux d'avoir adopté une politique de modération trop restrictive dans le cadre du conflit entre Israël et le Hamas.

En réaction à la "recrudescence exceptionnelle de contenus violents et graphiques sur ses plateformes" après les attaques du 7 octobre,...