Contact
France
Contact us
Replay

Algorithmes : « Voulons-nous des individus passifs, ou des acteurs de la façon dont ils consomment du contenu ? »

News and insights
#Data

Article initialement publié dans LeMonde.fr

 

Ni la transparence, ni l’information ne suffisent, il faut permettre à chacun d’orienter en pratique son usage des plates-formes et leurs applications, plaident le consultant Paul Grunelius et le formateur Jules Zimmermann.

 

Tribune. Les algorithmes sont partout. Du matin au soir, ces « séries d’instructions » qui sont à la base de l’intelligence artificielle optimisent les trajets, orientent les parcours scolaires et professionnels, favorisent les rencontres amoureuses, recommandent livres, films et chansons.

Par le truchement de ces algorithmes, les plates-formes – Amazon, Facebook, Netflix et Spotify en tête – participent à la composition de nos goûts, de nos idées. Chaque clic est un indice, chaque seconde passée sur une page un signal. Leur somme vient alimenter des modèles de plus en plus complexes visant à personnaliser le contenu que l’on consomme. Pour le meilleur – Spotify aurait pour effet d’élargir l’horizon musical de celles et ceux qui l’utilisent – et parfois pour le pire – les « bulles de filtres » et leurs conséquences.

 

Le b.a.-ba de la transparence

En retour, les utilisateurs n’ont que peu de prise sur la façon dont les algorithmes fonctionnent et les alimentent en contenu. Les systèmes de recommandation restent le plus souvent opaques et les marges de manœuvre pour les modifier sont minimes. Il paraît important de rééquilibrer la relation entre les utilisateurs et les algorithmes.

Une piste de réflexion souvent évoquée est celle de la transparence. Introduite dans la loi pour une République numérique au sujet des algorithmes publics en 2016 et reprise dans le Règlement général sur la protection des données (RGPD) édicté par la Commission européenne la même année, la « transparence algorithmique » recouvre des réalités variées.

Une première approche consiste simplement à informer qu’un algorithme est utilisé ; c’est le b.a.-ba de la transparence. On peut aussi rendre public le code source qui régit le calcul (comme ce fut le cas en 2018 pour l’application d’orientation Parcoursup) ; démarche d’ouverture intéressante mais réservée à un nombre restreint d’experts.

L’option grand public la plus satisfaisante semble être l’explication de la « logique générale de fonctionnement [des algorithmes] » (Comment permettre à l’homme de garder la main ?, CNIL, décembre 2017) à destination de ceux qui en ont l’usage. Autrement dit : donner à comprendre aux utilisateurs non pas les implications mathématiques complexes mais les critères principaux qui ont un impact sur leur expérience. A des degrés divers, les plates-formes commencent à mettre certains de ces préceptes en place.

 

Un modèle de découverte imposé

Mais la transparence n’est pas la panacée. D’abord, elle se retrouve vite confrontée à ses limites lorsqu’il s’agit d’expliquer des calculs par nature impénétrables, comme ceux réalisés avec les méthodes du « deep learning » [« apprentissage profond »], à une majorité de la population qui n’y a pas été formée (52 % des Français disent ne pas savoir précisément ce que sont les algorithmes).

De plus, la propriété intellectuelle des algorithmes est un actif précieux pour les plates-formes.

Surtout, la transparence ne résout pas le problème de fond : celui de la capacité d’action des individus sur les algorithmes qu’ils utilisent. En imposant à tous les mêmes règles de recommandation, les plates-formes privent leurs utilisateurs de leur liberté de choisir la façon dont ils veulent explorer le monde.

Dans cette entreprise d’uniformisation massive, on nie aux gens leur individualité, leur versatilité, leur complexité – leur envie d’être un jour surpris puis, le suivant, ramené vers un champ familier. C’est là tout le paradoxe de ces algorithmes qui, au nom d’un service sur mesure, imposent un modèle de découverte générique ; de ces outils de personnalisation qui ne sont pas eux-mêmes personnalisés – ou personnalisables.

Alors, comment s’extirper de cet « entonnoir du probable », pour reprendre l’expression du sociologue Dominique Cardon (A quoi rêvent les algorithmes. Nos vies à l’heure des big datas, Le Seuil, 2015), dans lequel nous enferment les algorithmes ? En donnant aux utilisateurs plus de liberté, ce qui passe par une plus grande « jouabilité » des plates-formes. En leur permettant de « paramétrer [leur] bulle de filtre pour en reprendre le contrôle » (Hubert Guillaud, Internetactu.net, 13 janvier 2018). En développant ce que nous proposons d’appeler la « liberté algorithmique ».

 

Un premier pas timide de YouTube

Des initiatives allant dans ce sens existent déjà ; elles restent soit expérimentales, soit marginales. L’agrégateur Gobo – qui permet de filtrer le contenu de ses réseaux sociaux selon l’orientation politique, le niveau de sérieux ou encore le genre des contributeurs – ou l’application Nelson – grâce à laquelle il est possible de modifier l’algorithme de recommandation de Spotify – sont des projets intéressants, mais à la portée réelle faible.

Si l’annonce récente faite par YouTube concernant l’évolution de son système de recommandation va dans le bon sens, elle reste un premier pas timide (Julia Alexander, « YouTube introducing changes to give people more control over recommended videos », site Internet The Verge, 2019).

Une vraie liberté algorithmique prendrait la forme d’une modularité des algorithmes des plates-formes. Dans ce schéma, les utilisateurs pourraient régler un certain nombre de paramètres – le degré de nouveauté ou de familiarité, le niveau de proximité idéologique… – pour ajuster en temps réel le type de contenu qui leur est soumis.

Pour qu’il y ait véritablement liberté, il faut que cette modularité soit la porte d’entrée de la plate-forme. Plus qu’une simple considération « d’expérience utilisateur », c’est d’une question politique qu’il s’agit : voulons-nous d’une personnalisation opaque et d’individus passifs ? Ou, au contraire, d’utilisateurs acteurs de la façon dont ils consomment du contenu ?

Poussée à l’extrême, cette réflexion rejoint celle sur la portabilité des données – l’idée de rendre les utilisateurs propriétaires de leurs données et d’imposer une interopérabilité entre les plates-formes.

Dans ce modèle de « Web décentralisé », n’importe qui pourrait « quitter un [une plate-forme] pour migrer vers un autre service » tout en continuant de « recevoir et d’envoyer des messages aux personnes restées [la plate-forme] » (« Régulation des contenus : quelles obligations pour les géants du Web ? »La Quadrature du Net, 9 octobre 2018). Le choix du type d’algorithme utilisé serait ainsi rendu plus libre. Et la relation de dépendance entre utilisateurs et plates-formes se verrait équilibrée.

Publié par
Paul Grunelius, Planneur stratégique