{REPLAY} Algorithmes : "Facebook enferme les utilisateurs dans une bulle"

 |   |  1012  mots
Dominique Cardon est sociologue chez Orange labs et professeur associé à l’université de Marne-la-Vallée.
Dominique Cardon est sociologue chez Orange labs et professeur associé à l’université de Marne-la-Vallée. (Crédits : Rémi Benoit)
{Cet article a été passé en accès gratuit} Le sociologue Dominique Cardon s'est spécialisé dans l'observation des algorithmes. Selon lui, ces systèmes peuvent participer à la reproduction des inégalités sociales. Pour reprendre la main sur la machine, le chercheur prône la bidouille informatique et un regard critique sur les GAFAS. Il était présent au Fablab festival de Toulouse. Entretien.

Dans votre dernier ouvrage*, vous vous intéressez aux algorithmes. Comment expliquer qu'ils soient une source d'inquiétude dans notre société ?

Aujourd'hui, on a l'impression que, depuis la Silicon Valley, il existe une sorte de monstre calculatoire qui tombe sur nos vies, nous trace, et que la technique est en train de prendre le pouvoir sur l'homme. Cet état de sidération, nous avons déjà pu le connaître à l'apparition de la machine à vapeur ou de l'électricité.

Une des manières d'apprivoiser les algorithmes est de montrer qu'il existe plusieurs manières de calculer l'information. J'en ai distingué quatre.

Quelles sont ces quatre familles de calcul ?

Déjà, on peut la classer par popularité. Ces mesures d'audiences ont toujours existé dans les médias. Ensuite, les algorithmes des moteurs de recherche (à l'image de PageRank utilisé par Google) calculent l'autorité de classement des pages web. Par autorité, il faut entendre le jugement d'experts qui vont approximer la meilleure qualité de l'information. La troisième famille renvoie aux mesures de réputation, d'affinité sur les réseaux sociaux. Là, l'information est classée suivant ce qu'ont vu mes amis Facebook, Instagram, Twitter. Ensuite, la dernière famille qui inquiète relève des mesures de prédiction. L'information est calculée par le bas. À partir de la trace personnelle des comportements numériques (historique de navigation, déplacements physiques enregistrés via la géolocalisation, vitesse de marche des pas ou de lecture), on prétend prédire l'activité des individus.

Pourquoi prônez-vous un usage politique des algorithmes ?

Ce n'est pas la même chose de dire qu'on veut voir ce qui est le plus populaire, ce qui a le plus d'autorité, le plus de réputation ou qu'on veut une prédiction de l'information. Cette question est éminemment politique et il ne faut pas la laisser aux ingénieurs et aux plateformes américaines. La tendance d'un mécanisme affinitaire basé sur la réputation tel que Facebook est de donner aux utilisateurs ce qui ressemble à son réseau d'amis et de l'enfermer dans une bulle. Il faut dire à Facebook : "Je veux voir aussi des informations de personnes qui ne partagent pas mes opinions politiques."

Des chercheurs américains ont montré que l'algorithme de Google pouvait influencer au moins 20 % des électeurs indécis à l'élection présidentielle américaine. Faut-il s'en inquiéter ?

Je pense que cette recherche a une conception de l'électeur un peu naïve : penser que Google peut à lui seul influencer le vote. En revanche, le fait que Google puisse de plus en plus personnaliser les résultats de recherche fait disparaître une vision globale de la société. Ce qui pourrait arriver, c'est que Google, voyant que je ne consulte que des journaux classés à gauche, décide de me retirer des journaux à droite comme Le Figaro sous prétexte que je ne le lis jamais. À force de se conformer à la trace numérique des individus, on les réduit à un comportementalisme bête et régressif en prétendant donner aux individus uniquement ce qui leur convient dans une logique d'utilité et d'efficacité.

Vous estimez que les algorithmes de réputation participent à la reproduction des inégalités. Comment est-ce possible ?

Les algorithmes s'appuient sur les ressources sociales des utilisateurs. Ceux qui ont des réseaux de sociabilité riche, hétérogènes socialement et géographiquement dispersés auront plus de fenêtres d'opportunité que ceux qui ont moins de ressources. L'algorithme renforce la reproduction des inégalités de ressource.

Les algorithmes prédictifs inquiètent les mouvements de défense des libertés. Dans le documentaire sur Edward Snowden Citizenfour, certains estiment qu'à partir de ces informations, il sera possible pour la police d'arrêter des manifestants jugés violents avant même qu'ils ne défilent dans la rue, au nom de la prévention de la violence...

Il existe une économie de la promesse. Les gens qui vendent ces solutions et ceux qui les critiquent veulent croire que c'est possible. Or, cette réalité est très difficile à envisager. Il y aura forcément des faux positifs (identifiés à tort comme en train de commettre un délit) ou des faux négatifs (personnes qui passent entre les mailles du filet). Aujourd'hui, cela relève plutôt de la mythologie scientiste des big data.

Pour vous, l'algorithme doit respecter un principe de loyauté. Qu'est-ce que cela veut dire ?

Un algorithme n'a pas à être neutre mais il doit être loyal. Par exemple, l'algorithme de Volskwagen sur les voitures était déloyal (en minimisant les émissions CO2 des moteurs diesel, NDLR). Si Uber ajoute des taxis sur son application pour faire croire aux utilisateurs qu'il y a des taxis à proximité ou si Google privilégie ses propres services dans les requêtes, c'est également déloyal.

Que peut faire l'État pour réguler ces systèmes ?

Cette régulation n'a pas beaucoup de sens au niveau national, elle doit être faite au niveau européen. Le G29, le groupe des Cnil européennes, est en train de bouger sur le sujet. La commissaire européenne sur la concurrence s'est emparée du dossier Google. Les amendes pourront être beaucoup plus élevées que par le passé.

Comment les citoyens peuvent-ils reprendre la main sur les algorithmes ?

Les utilisateurs ont une très grande méconnaissance des moteurs de recherche et l'éducation doit avoir un rôle à ce niveau. Ensuite, la vraie éducation numérique vient en pratiquant, donc il faut apprendre à bidouiller les systèmes. Les GAFAS nous imposent un usage banal par le haut mais internet s'imagine par le bas. Les Fablabs participent à cette reconstruction d'internet par le bas. Les chercheurs également en lançant des requêtes multiples sur les moteurs de recherche pour tester le système. Enfin, pour parer ces algorithmes de réputation, le conseil serait d'être ami sur Facebook avec des gens qu'on ne connaît pas...

*À quoi rêvent les algorithmes. Nos vies à l'heure des Big Data, Paris, Seuil, 2016

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 13/05/2016 à 19:15 :
La reproduction des inégalités sociales est le principale fonds de commerce de la sociologie française. Plus la population y croit, plus il est difficile d'en sortir. Le mieux serait de parler de l'immense regard sur le monde, la biodiversité et la beauté qu'ouvre les GAFAS rendant totalement impossible la reproduction des normes et détruisant les stéréotypes.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :