Alors que la pandémie a restreint ses capacités humaines à assurer la modération des contenus sur ses plateformes, Facebook a de plus en plus recours à l'intelligence artificielle (IA), y compris pour détecter les "memes" porteurs de messages de haine.
Sur une photo de pierres tombales fleuries, un message s'affiche en lettres capitales: "Toutes les personnes de ton groupe ethnique - devraient se trouver ici": ce "meme" est donné en exemple par le réseau social pour illustrer la difficulté de sa tâche.
Si l'algorithme comprend uniquement les mots, le message est ambigu. Associé à la photo, le message relève clairement de la haine et contrevient aux règles de la plateforme.
"L'IA détecte désormais, de façon proactive, 89% des contenus haineux que nous retirons, contre 80% au trimestre précédent", note un communiqué du groupe américain publié mardi. "Rien qu'au premier trimestre 2020, nous avons agi sur 9,6 millions de contenus qui enfreignaient nos règles en la matière, soit 3,9 millions de plus".
Les équipes du réseau social ont mis une base de données de 10.000 memes à disposition de chercheurs, pour qu'ils développent des algorithmes capables de repérer les messages problématiques.
Facebook a aussi fait part de ses propres progrès: son outil d'IA SimSearchNet est censé être capable de reconnaître des copies d'une image originale, malgré d'éventuelles modifications pour la détourner de son sens initial et échapper à la détection automatique.