Chronique Internet

Algorithmes en échec

d'Lëtzebuerger Land du 19.04.2019

Peut-on compter sur l’intelligence artificielle pour réguler les grandes plateformes du Net ? La question est au cœur des débats animés qui viennent d’agiter les instances européennes au sujet de la réforme du droit d’auteur, sous le mot-clé « article 13 ». Un filtre d’upload, complété par de l’intelligence artificielle, fait partie du dispositif censé protéger les ayant-droits contre une diffusion abusive sur ces plateformes. Ce filtre est considéré comme une inadmissible censure préalable par les tenants d’un Internet libre, qui se sont violemment opposés à l’adoption de cette réforme. L’actualité brûlante de cette semaine a en tout cas donné l’occasion de constater qu’en matière d’intelligence artificielle, on est encore loin du compte pour ce qui est de catégoriser correctement les contenus publiés. Au plus fort de l’incendie de la cathédrale Notre-Dame, lundi, alors que se multipliaient les diffusions en temps réel de l’événement sur YouTube, l’algorithme censé empêcher la propagation de fake news y répondait en proposant, en-dessous de certains de ces streamings, un cadre contenant un lien vers l’article de l’Encyclopaedia Britannica sur l’attaque du 11 septembre 2001. Il semble que les images montrant des flammes, de la fumée et la silhouette des deux tours aient déclenché cette réponse. Les cadres ont notamment été montrés sous les images diffusés par CNBC.

YouTube n’a pas pu faire autrement que de battre sa coulpe. « Ces cadres sont générés par un algorithme et nos systèmes prennent parfois des décisions erronées », a platement reconnu la filiale de Google, qui est pourtant considérée comme un des leaders mondiaux en matière d’intelligence artificielle. YouTube a indiqué avoir débranché l’insertion de ces cadres de la couverture en direct de l’incendie.

Pour un faux pas, c’en est un de remarquable puisqu’au lieu de dissiper une possible fausse interprétation de l’événement, la plateforme aura indirectement nourri les thèses conspirationnistes qui ne manquaient pas, alors-même que les flammes ravageaient la cathédrale, pour suggérer qu’il résultait d’un acte terroriste.

À la décharge de YouTube, il faut reconnaître que son algorithme n’a été mis en ligne que l’été dernier. II est censé détecter ce qui pourrait s’apparenter à des thèses conspirationnistes sur des sujets qui en font régulièrement l’objet et contrer leur diffusion de manière prophylactique en insérant des résumés et des liens vers des articles de l’Encyclopaedia Britannica ou de Wikipedia relatifs aux événements en question. Les sujets cités comme exemples par la plateforme lors de l’introduction de ce service étaient l’alunissage et la fusillade d’Oklahoma City, les remèdes-miracles pour des maladies graves ou l’affirmation que la terre est plate. En outre, l’algorithme a correctement fonctionné en ce sens qu’il a identifié les images en temps réel comme possible source d’infox.

Certes, les filtres d’upload censés protéger les ayant-droits dans la directive européenne controversée ne sont pas identiques à ceux qui ont donné lieu à ce ratage. Néanmoins, celui-ci vient confirmer que pour faire passer une directive potentiellement liberticide, la Commission et le Parlement européens ont choisi de miser sur une technologie qui n’est pas mature. Pour déterminer si un upload relève d’une citation, légitime, ou d’une violation du droit d’auteur, qui est punissable, il est illusoire de compter sur les algorithmes tels qu’ils existent aujourd’hui, qu’lls bénéficient d’intelligence artificielle ou non. A l’inverse, comme le montre indirectement la réaction de YouTube après l’épisode du streaming de l’incendie, aucune des grandes plateformes n’envisage aujourd’hui de mettre en place une modération humaine des contenus mis en ligne, une mesure qui coûterait beaucoup plus cher que les algorithmes et menacerait leur modèle d’affaires. La crainte des défenseurs d’un Internet libre que les sanctions que risquent dorénavant les plateformes en omettant de filtrer des contenus protégés les poussent à se montrer excessivement prudentes et à pratiquer une auto-censure étendue reste plus que jamais justifiée.

Jean Lasar
© 2023 d’Lëtzebuerger Land