— Entretien réalisé par Pierric Marissal —
Éric Sadin, écrivain et philosophe, analyse comment les corps, les rapports aux autres,
la ville jusqu’à l’habitat sont désormais quantifiés, évalués en temps réel et optimisés à l’aide d’algorithmes, pour enfin être monétisés. Face à cet assistanat robotisé, il appelle à mettre
en crise ce système dominant en réintroduisant de l’imprévu dans notre relation au monde.
On dit souvent que les algorithmes sont à l’informatique ce que les recettes sont à la cuisine. Quelle serait votre définition ?
Éric Sadin On doit comprendre l’algorithme comme un réglage spécifique destiné à exécuter des opérations sur des données numériques en fonction d’une fin déterminée. Pour ma part, je distingue deux types d’algorithme. Un premier conçu en vue de seulement répondre à une tâche univoque. Par exemple, lorsque nous cliquons sur une image perçue sur un écran et qu’elle s’agrandit aussitôt, c’est le résultat de suites d’opérations qui rendent possible la réalisation de cette commande relativement simple. Un second type d’algorithme, massivement apparu depuis le début du XXIe siècle, consiste à le doter de facultés d’interprétation des situations, de suggestion de solutions en fonction de résultats, voire d’une prise de décision de façon autonome. Cela constitue un événement technologique et épistémologique majeur, car ce type d’algorithme ne se contente pas d’exécuter des commandes mais tend à infléchir nos décisions, à nous encourager à agir de telle manière plutôt que de telle manière en fonction d’intérêts non immédiatement manifestes.
Va-t-on vers un contrôle social par les algorithmes, nourris par d’immenses bases de données (Big Data) ?
Éric Sadin Il s’agit moins de contrôle que d’une volonté d’agir sur le cours des choses en fonction de trois impératifs devenus cardinaux dans nos sociétés contemporaines : l’optimisation, la fluidification et la sécurisation du plus grand nombre de situations individuelles et collectives. Dimensions qui se trouvent aujourd’hui exaltées par la numérisation tendanciellement intégrale du monde. Car après la numérisation de l’écrit, du son et de l’image entreprise au cours des dernières décennies, nous entrons dans une nouvelle ère marquée par la prolifération de capteurs et d’objets connectés qui saisissent une infinité de fragments du réel érigeant une définition extrêmement précise – au chiffre près – des phénomènes. Nous sommes désormais dotés d’une connaissance haute définition et en temps réel de nombre de faits de tous ordres. Disposition qui nous conduit à agir de façon toujours plus informée et à entretenir un rapport strictement utilitariste à notre environnement. Il s’agit là d’une dimension non dite actuellement instituée par le numérique, qui participe d’une extrême rationalisation des sociétés.
Peut-on dire qu’on passe de l’algorithme totalisant au totalitaire ?
Éric Sadin Ce qui actuellement prend une forme totalisante, c’est que, par le fait de la numérisation de nos existences, de plus en plus de nos gestes sont orientés par des algorithmes en vue de nous faire adopter des comportements, non pas de façon coercitive, mais sous une forme incitative par la stimulation du désir. Et cela rend le phénomène difficile à saisir. Car nous sommes placés sous le régime de la séduction induite par l’ergonomie fluide des interfaces et la dimension ludique des applications, autant que par l’« intuition algorithmique » capable de nous suggérer des recommandations personnalisées. L’incitation algorithmique ne nous force à rien, elle crée un sentiment d’évidence. Elle relève presque d’un ordre épiphanique à nous révéler continuellement ce dont nous sommes supposés avoir besoin. C’est exactement ce vers quoi sont actuellement conçus les assistants numériques personnalisés qui visent à nous accompagner « au mieux » et de façon automatisée au long de nos quotidiens.
Quels sont les enjeux politiques du Big Data et de l’algorithmique ? Quels exemples de manipulation politique et d’usage du prédictif en politique ?
Éric Sadin Le traitement de masses de données à l’aide d’algorithmes ad hoc autorise une prédictibilité toujours plus fiable des événements en cours de germination. Certes, il demeure encore de nombreuses failles, néanmoins c’est une disposition technique qui ne cesse de se perfectionner. Cette propension a massivement gagné le régime militaro-sécuritaire à la suite des attentats de septembre 2001, poussant les agences de renseignement, notamment la NSA, à chercher à repérer des projets malveillants avant même qu’ils ne se réalisent. Dimension anticipative qui a par la suite gagné de nombreux autres secteurs : le marketing, la logistique industrielle, la santé… De son côté, le pouvoir politique s’empare peu à peu de ces nouvelles facultés techniques dessinant des scénarios anticipatifs qui conduisent à engager des actions au présent en fonction de l’estimation de l’impact futur sur l’opinion. On voit que c’est la notion de projet et de risque politiques qui ici s’affaiblissent, au profit d’analyses algorithmiques appelées à paralyser toute idée novatrice ou à contre-courant. Ici la technique dicte des règles non dites à l’action publique.
Vous parlez, notamment à propos des smart cities, ces villes de demain ultraconnectées et optimisées, d’une nouvelle ère du marketing par l’algorithme…
Éric Sadin La smart city, sous couvert de bonnes intentions déclarées, consiste à adosser l’expérience quotidienne de la ville à une multitude d’applications destinées à la maximiser. C’est cela qu’il faut analyser et décrypter au-delà de tous les discours enjoliveurs. La smart city, tout comme l’open data, encourage l’ouverture des données publiques dans l’objectif de les transformer en services monétisables, que ce soit dans les domaines du transport, des loisirs, de la santé, de la mise en relation entre les personnes… Entrelacement entre secteurs publics et privés qui emblématise la marchandisation de toutes les dimensions de l’existence actuellement à l’œuvre, sans qu’aucun débat public sur ses enjeux ne se tienne, portant par exemple sur les types de données qui vaudraient la peine d’être ouvertes ou sur d’autres types d’usage qui pourraient en être fait. Or, cette impulsion est la plupart du temps encouragée et soutenue par les collectivités locales, principalement les municipalités, qui en l’occurrence témoignent de peu de capacité critique, étant prises par la séduction de discours qui vantent les vertus d’une « ville intelligente » de toute part fluidifiée et sécurisée. IBM et Microsoft savent parfaitement développer ces stratégies marketing auprès des élus. On voit ici à quel point s’opère une troublante et problématique collusion entre le monde numérico-industriel et le pouvoir politique.
L’humain est-il toujours plus «quantifié», mesuré ?
…
Lire la suite et Plus => L’humanite.fr