Twitter a présenté mercredi ses travaux en cours pour rendre plus éthiques les algorithmes à l'œuvre dans les coulisses de la plateforme, et aussi pour donner plus de contrôle aux utilisateurs, une façon de répondre aux critiques sur les dangers liés à ces technologies.
Le réseau social dit vouloir améliorer ses algorithmes de «machine learning», c'est-à-dire les règles informatiques qui permettent aux ordinateurs d'«apprendre» automatiquement à partir des données. Grâce à ces systèmes dits d'intelligence artificielle (IA), la plateforme «déduit» en fonction de la navigation d'un utilisateur qu'il préfère les vidéos de chats à celle de chiens, par exemple. Mais «quand Twitter utilise le ‘machine learning’, cela peut avoir des conséquences pour des centaines de millions de tweets par jour, et parfois un système peut se comporter différemment de l'intention selon laquelle il a été conçu», reconnaît la société californienne.
Les algorithmes des réseaux sociaux permettent de personnaliser automatiquement les fils de milliards d'utilisateurs, mais ils sont accusés de favoriser les contenus inflammatoires ou clivants, qui propagent la désinformation ou la haine dans les sociétés.
Twitter, Facebook et les autres plateformes sont régulièrement étrillées sur ces sujets par des ONG et élus politiques.
Jack Dorsey, le fondateur et patron du réseau des gazouillis, a fait part à plusieurs reprises de son désir de donner plus de pouvoir sur l'IA aux utilisateurs, actuellement très passifs, et aussi de rendre la modération des contenus plus «décentralisée».
«On peut imaginer que vous classiez les algorithmes en fonction de ce que vous voulez voir», a-t-il suggéré en février, lors de la conférence aux analystes après la publication des résultats financiers du groupe.
«Le choix algorithmique donnera plus de contrôle aux utilisateurs pour façonner le Twitter qu'ils veulent. Nous sommes à un stade exploratoire sur ce sujet», a précisé l'entreprise mercredi.
Selon Twitter, un apprentissage automatisé des machines «responsable» consiste aussi à «assumer la responsabilité de nos décisions algorithmiques», ainsi qu'à assurer la transparence des décisions en amont et l'équité des résultats en aval.
L'équipe en charge de l'initiative doit commencer par publier des études, sur d'éventuels biais sexistes ou racistes de l'algorithme qui rogne les images avant la publication, par exemple, ou encore sur les «recommandations de contenus pour différentes idéologies politiques dans 7 pays».
D'autres grandes entreprises technologiques travaillent sur ces sujets. Chez Google, une série de désaccords entre la direction et l'équipe de recherche en éthique de l'IA s'est soldée par le licenciement de deux chercheuses et la démission d'un scientifique réputé.