Chris Priebe est le propriétaire de Two Hat, une entreprise de Kelowna, en Colombie-Britannique, qui modère le contenu en se basant sur l'intelligence artificielle.
Chris Priebe est le propriétaire de Two Hat, une entreprise de Kelowna, en Colombie-Britannique, qui modère le contenu en se basant sur l'intelligence artificielle.

Médias sociaux: modération plus difficile du contenu durant la pandémie

Tara Deschamps
La Presse Canadienne
TORONTO — Tant d'entreprises ont vu le travail s'arrêter à cause de la crise de la COVID-19, mais pour Chris Priebe, c'est le contraire.

Il est le propriétaire de Two Hat, une entreprise de Kelowna, en Colombie-Britannique, qui modère le contenu en se basant sur l'intelligence artificielle.

Il n'a jamais été aussi occupé à aider des clients comme Nintendo Switch, Habbo, Rovio et Supercell à parcourir des milliards de commentaires et de conversations. Le but: identifier et supprimer rapidement tout ce qui pourrait nuire aux utilisateurs.

«Nous en avons traité 60 milliards le mois dernier. Auparavant, c'était 30 milliards. C'est à quel point le coronavirus est mauvais. C'est au moins le double du volume normal, a dit Priebe en avril, avant que les volumes de traitement mensuels atteignent 90 milliards.

«Les plateformes sont parfois confrontées à 15 fois le volume. Ça ne veut pas dire que les revenus ont augmenté 15 fois ou qu'ils peuvent se permettre d'embaucher plus de personnes.»

Des entreprises comme Facebook, Instagram, Twitter, YouTube et Google connaissent un manque de modérateurs de contenu, ce qui entraîne un retard dans la suppression des publications nuisibles.

Un nombre inégalé de personnes passent plus de temps à la maison sur leurs plateformes préférées. Ça met au défi les serveurs et transforme les services de messagerie, les réseaux sociaux et les sections de commentaires en Far West.

La situation a accru les inquiétudes concernant la désinformation et la probabilité que les utilisateurs tombent sur du contenu haineux, pornographique ou violent.

«Certaines personnes sont plutôt insatisfaites du processus de modération du contenu tel qu'il est, et là, vous ajoutez cette pandémie.»

Une professeure d'Ottawa abonde dans le même sens.

«Il y a une énorme augmentation des comportements de harcèlement et problématiques», a dit Suzie Dunn, spécialisée dans l'intersection de la technologie, de l'égalité et du droit, à l'Université d'Ottawa.

«Certaines personnes pourraient ne pas être en mesure de travailler sur certaines choses sur quoi elles travailleraient au bureau, ajoute Kevin Chan, chef des politiques publiques de Facebook Canada. Elles étudient du contenu potentiellement privé et sensible. Il faut s'assurer que ce soit traité de manière sécurisée et privée, comme il se doit.»

Chez Twitter, l'automatisation aide à examiner les commentaires les plus susceptibles de causer des dommages.

«Nous travaillons à assurer la cohérence des systèmes, mais il peut manquer le contexte fourni par nos équipes. Ça peut causer des erreurs, a dit la compagnie via un blogue. Nous ne suspendrons pas définitivement les comptes en nous basant uniquement sur nos systèmes automatisés.»

Quelle que soit la façon dont se fait la modération, certaines choses passeront toujours à travers les mailles du filet, encore plus lors d'une pandémie, a dit Mme Dunn.

«Aucun système n'est parfait.»