#Février 2017: Point de vue de chercheurs

Les enjeux de l’automatisation du marketing à l’ère du big data

Par Jean-Sébastien Vayre, Attaché Temporaire d’Enseignement et de Recherche à l’Université Toulouse Jean Jaurès, membre du CERTOP (UMR 5044)

De 1957 à 1959, Pierre Naville (1961) observe un large mouvement d’automatisation de la production des biens dans les grandes organisations économiques françaises." data-share-imageurl="">

Les enjeux de l’automatisation du marketing à l’ère du big data

Par Jean-Sébastien Vayre, Attaché Temporaire d’Enseignement et de Recherche à l’Université Toulouse Jean Jaurès, membre du CERTOP (UMR 5044)

Photo_JSVayre.jpg

De 1957 à 1959, Pierre Naville (1961) observe un large mouvement d’automatisation de la production des biens dans les grandes organisations économiques françaises. Une vingtaine d’années plus tard, avec le développement de ce que l’on appelle les « systèmes experts » (Crevier, 1997), ce mouvement gagne du terrain : il se déplace progressivement de l’atelier au bureau des entreprises. Par exemple, en 1988, la Digital Equipment Corporation (DEC) est composée d’un service d’intelligence artificielle de 700 personnes (Reddy, 1988) travaillant sur la conception et la maintenance de plus de 40 systèmes experts (Kupfer, 1987). L’un d’entre eux, le fameux eXpert CONfigurer (XCON), est par exemple à la charge de la définition des configurations des ordinateurs VAX. Toute la difficulté est alors, pour XCON, de penser ces configurations de façon à ce qu’elles répondent au mieux aux attentes des clients de la DEC. Ceci nous rappelle donc que cela fait plus de quarante ans que les machines se sont immiscées, non plus à l’intérieur des seuls environnements de travail des opérateurs, mais aussi au sein de ceux des techniciens et des décideurs. Il est toutefois important de préciser qu’à ce moment, ce mouvement d’automatisation du travail intellectuel n’a pas connu le succès qu’avaient prédit ses promoteurs. Les formalisations des savoirs humains qui sont au cœur du fonctionnement des systèmes experts deviennent rapidement trop complexes (XCON comporte plus de 10 000 règle en 1987 ; Simon, 1987), ce qui a pour conséquence de limiter leur efficacité. Les spécialistes de l’intelligence artificielle en concluent que les systèmes experts sont trop rigides : ils n’arrivent pas à absorber la complexité du monde et ne peuvent ainsi assister correctement les activités intellectuelles de l’organisation. Il leur manque des capacités d’apprentissage, et surtout, beaucoup de données pour pouvoir les exercer.

Sans ces capacités d’apprentissage et ces données, il est en effet difficile d’imaginer le développement de machines qui soient véritablement capables d’instituer cette « gouvernementalité algorithmique » dont nous parlent Antoinette Rouvroy, Thomas Berns (2013) et qui fait écho avec les idéaux libéraux qui ont motivé les fondateurs même de l’intelligence artificielle (Crevier, 1997 ; Pratt, 1995). Or, c’est bien cette gouvernementalité qui doit permettre de calculer la société par le bas, de façon à rééquilibrer les relations existantes entre son centre et sa périphérie (Cardon, 2015a). Aussi, si les big data et les technologies d’apprentissage artificiel ont connu un tel succès auprès des acteurs socioéconomiques ces cinq dernières années, c’est parce qu’elles doivent autoriser l’instauration de cette gouvernance algorithmique nouvelle : l’intelligence des machines d’aujourd’hui doit aider les hommes à ne plus penser leurs collectifs à travers le couple contrainte-discipline. Avec les big data et les technologies d’apprentissage d’artificielle, il ne s’agit plus, en effet, de jouer sur les joueurs, mais sur les règles du jeu. Comment un tel tour de force peut-il donc être réalisé ? En organisant l’environnement des individus de façon à maximiser son utilité (Cardon, 2015b). Du point de vue des professionnels du marché, l’intérêt des intelligences artificielles actuelles est alors de constituer une solution possible à l’épineux problème que pose la personnalisation de la relation avec une masse toujours plus importante de consommateurs (Beaudouin & Velkovska, 2014). En cherchant à prédire les comportements de ces derniers à partir des données qu’ils produisent, les algorithmes d’apprentissage artificiel doivent aider les acteurs de l’offre à adapter leurs environnements marchands aux attentes de chacun de leurs clients.

Aussi, pour certains (e.g., Rouvroy & Berns, 2013), une des plus remarquables originalités du mouvement big data est de favoriser l’instauration d’un mode de gouvernance de type a-normatif. Cette idée forte repose à juste titre sur l’argument que les technologies statistiques qui permettent aux machines d’apprendre à modéliser le réel ne font plus référence aux épistémologies globales véhiculées par les catégories sociales traditionnelles (Parasie & Dagiral, 2016), ni même d’ailleurs, à celles que transportent les mécanismes d’inférence encapsulés par les systèmes experts (Vayre, 2016). Les big data forment un vaste champ d’observables à partir desquels les intelligences artificielles peuvent induire, par elles-mêmes, les règles nécessaires à la production de leurs prédictions. Nous retrouvons de ce fait, au moins en partie, les propos de Chris Anderson (2008) sur la fin de la théorie : la connaissance peut se résumer à un problème de données, à condition d’en disposer d’une assez grande quantité. Si l’on suit ce raisonnement, les professionnels de la relation client pourraient, grâce aux big data, prédire les comportements de leurs consommateurs sur un plan à la fois individuel et immanent. Et c’est précisément en ce sens que les technologies d’apprentissage artificiel, une fois nourries de grandes masses de données, permettraient l’institution d’une nouvelle gestion de la relation client qui serait détachée de toutes formes de normativité.

Lorsque l’on s’intéresse aux activités concrètes de fabrication des machines apprenantes, nous sommes toutefois conduit à nuancer ces propos. Un peu à la manière des pédologues étudiés par Bruno Latour (1993a), les problèmes de données que rencontrent ces machines ne peuvent pas être résolus à partir des seules data, qu’elles soient big ou non. Pour y faire face, il faut également faire intervenir des chaînes de traduction qui renvoient à différentes représentations humaines et sociales. Chris Anderson (2008), ou encore, Antoinette Rouvroy et Thomas Berns (2013) tendent de ce fait à oublier que les algorithmes d’apprentissage artificiel constituent ces chaînes de traduction, et surtout, qu’en tant que telles, ils recouvrent des représentations du monde particulières (Cardon, 2015a). Lorsque l’on examine les pratiques de conception des machines apprenantes, nous nous apercevons en effet que ces dernières ont besoin de cadres pour réaliser les activités inférentielles qui leur permettent d’effectuer leurs prédictions (Vayre, 2016). Et c’est précisément à l’intérieur de ces cadres que se cache la dimension normative ou, si l’on préfère, morale des machines apprenantes.

Ces cadres sont de trois types et sont associés à des enjeux importants du point de vu des relations qui se jouent entre les machines apprenantes, les acteurs de l’offre et ceux de la demande. Le premier cadre renvoie à des enjeux sociocognitifs. Il est produit par le biais de ce que les professionnels appellent les activités de structuration de données. C’est à travers la conception de ce cadre que les acteurs de l’offre déterminent l’environnement de données à l’intérieur duquel la machine va pouvoir effectuer ses apprentissages. La production de ce cadre est réalisée par de multiples activités qui peuvent être complexes. Ces activités sont d’une importance considérable dans la mesure où elles consistent à formater la perception que la machine a du phénomène qu’elle prédit. Le deuxième cadre recouvre des enjeux psychomatériels. Il prend forme dans le même temps qu’est construite l’architecture cognitive de la machine. Compte tenu du développement actuel des techniques d’apprentissage artificiel, ce cadre peut être élaboré de diverses manières. Et c’est à travers la conception de ce cadre que sont définies les formes des inférences permettant aux machines d’induire des règles à partir des points de vue que les données leur offrent sur le phénomène observé. Le troisième cadre renvoie à des enjeux politiques. Il est fabriqué à partir du choix des critères de performance qui autorisent l’évaluation autonome, par la machine, de la qualité de ses apprentissages. Ces critères de performance prennent plus exactement la forme d’indices qui ont pour fonction d’orienter l’ensemble des activités d’apprentissage de la machine dans le sens où cette dernière cherche inlassablement à les optimiser. Ces critères de performance jouent par conséquent un rôle crucial. Une machine qui doit, par exemple, apprendre à prédire les préférences des consommateurs de façon à maximiser le taux de conversion des visiteurs en acheteurs construit des représentations du monde très différentes d’une autre machine qui doit réaliser les mêmes tâches d’apprentissage, mais cette fois-ci, pour minimiser la désorientation des internautes.

À l’ère du big data, les enjeux de l’automatisation du marketing sont massifs. Pour autant, il nous semble que ceux que nous avons qualifié de sociocognitifs, de psychomatériels et de politiques font partie des plus importants. Car c’est par le biais de la conception des trois cadres dont nous venons de parler qu’est élaborée cette sorte de socialisation algorithmique qui permet aux machines de percevoir le monde, d’inférer des connaissances sur son passé et son présent, mais aussi, de participer à la production de son futur. Bien qu’effectuée sur des êtres matériels, cette forme de socialisation particulière recouvre une dimension morale qui doit être mieux considérée. Quoi qu’en disent certains concepteurs, il ne faut ainsi jamais perdre de vue que la fabrication d’algorithmes prédictifs dépasse de loin la seule discipline que constituent les mathématiques. S’il y a une leçon à retenir de l’histoire de l’intelligence artificielle, c’est bien celle que tout programme informatique encapsule une forme d’intelligence particulière qui est composée d’une dimension cognitive, mais aussi, des dimensions culturelle et politique. Les ordinateurs sont peut-être idiots. Il n’en reste pas moins qu’ils détiennent une forte capacité d’action sur les collectifs humains. Ne les prenons donc pas de trop haut et considérons-les avec intelligence, dans l’acception cognitive et sociale du terme.

Références

Anderson, C. (2008). The end of theory: the data deluge makes the scientific method obsolete. Consulté le 04 10, 2016, sur Wired: http://www.wired.com/2008/06/pb-theory/
Beaudouin, V., & Velkovska, J. (2014). Parler aux machines, coproduire un service. Intelligence artificielle et nouvelles formes de contribution du client dans les services téléphoniques de l’après-vente. Dans E. Kessous, & A. Mallard, La Fabrique de la vente. Le travail commercial dans les télécommunications (pp. 97-128). Paris: Presses des Mines.
Cardon, D. (2015a). À quoi rêvent les algorithmes. Nos vies à l’heure des big data. Paris: Seuil-La République des idées.
Cardon, D. (2015b). Le bazar et les algorithmes : à propos de l’espace public numérique. Les entretiens du nouveau mande industriel. Paris: Centre Pompidou.
Crevier, D. (1997). À la recherche de l’intelligence artificielle. Paris: Flammarion.
Kupfer, A. (1987). Now, Live Experts on a Floppy Disk. Fortune, p. 70.
Latour, B. (1993a). Le « pédofil » de Boa-Vista : montage photo-philosophique. Dans B. Latour, Petites leçons de sociologie des sciences et des techniques (pp. 171-225). Paris: La Découverte.
Naville, P. (1961). L’automation et le travail humain. Rapport d’enquête (France 1957-1959). Paris: Éditions du CNRS.
Parasie, S., & Dagiral, E. (2016). La « science des données » à la conquête des mondes sociaux : Ce que le « Big Data » doit aux épistémologies locales. Dans P.-M. Menger, & S. Paye, « Big Data », entreprises et sciences sociales : usages et partages des données numériques de masse. Paris: Collège de France.
Pratt, V. (1995). Machines à penser. Une histoire de l’intelligence artificielle. Paris: Presses Universitaires de France.
Reddy, D. (1988). Discours de présidence de l’AAAI. Seventh National Conference on Artificial Intelligence.
Rouvroy, A., & Berns, T. (2013). Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? Réseaux, 1 (177), 163-196.
Simon, R. (1987). The Morning After. Forbes, 166.
Vayre, J.-S. (2016). Des machines à produire des futurs économiques : sociologie des intelligences artificielles marchandes à l’ère du big data. Toulouse: Université Toulouse Jean Jaurès.