Résumé

L’information est aujourd’hui à la fois le bien de consommation le plus rentable et la ressource qu’on ne cesse de produire à travers son utilisation. Le cercle aujourd’hui très lucratif de l’économie de l’information s’alimente de l’incertitude continuellement reproduite par la disparité d’accès à l’information et par la privatisation des agences de production et diffusion. Le projet Automédia, la création d’une plateforme indépendante et visant à diffuser des informations normalement exclues des médias officiels et des réseaux sociaux plus fréquentés, est surement une solution qui peut contribuer à corriger l’asymétrie des connaissances. Comme indiqué par Callon et Muniesa, un tel projet peut offrir la possibilité d’inclure dans le calcul des informations provenant d’acteurs dont les expériences et le point de vue aident à dévoiler les stratégies manipulatoires des médias officiels ainsi que leur alliance avec le pouvoir politico-économique. Cependant, il me semble qu’un tel projet ne devrait pas négliger que l’inégalité des chances de plus en plus frappante est liée à l’incertitude causée par l’excès d’information industriellement fabriquée aujourd’hui, c’est-à-dire le bruit et l’ambiguïté provoquée par la diffusion des signaux apparemment contradictoires.

Auteur(s)

Anna Longo est docteur en esthétique. Elle est actuellement directrice du programme Technologies du temps au Collège international de philosophie et enseignant à l’Institut Mines Télécom Business School à Evry. Elle autrice du livre Le jeu de l’induction : automatisation de la connaissance et réflexion philosophique (éditions Mimesis 2022).

Plan

L’information est aujourd’hui à la fois le bien de consommation le plus rentable et la ressource qu’on ne cesse de produire à travers son utilisation. La production industrielle et automatique d’information est l’apanage d’entreprises monopolistiques qui ne cessent de la reproduire à partir des données engendrées par sa consommation. La question est de savoir si la production et la diffusion autonome de contenus permet effectivement de remédier à l’asymétrie d’information qui contribue à l’actuelle inégalité des chances : les décisions des acteurs qui disposent de plus d’informations sont plus efficaces que celles des moins informés. Avant d’y répondre, je vais d’abord introduire la théorie proposé par Joseph Stiglitz et Sandford Grossman afin d’expliquer le rôle de l’information dans une économie visant la croissance plutôt que l’équilibre.

L’économie de l’information

À la suite de Milton Friedman, les économistes de l’école de Chicago avaient élaboré le cadre théorique apte à l’introduction d’outils de protection contre le risque (hedging) favorisant ainsi l’explosion des marchés financiers. À la base on trove l’idée que, dans un marché à l’équilibre, l’observation des prix fournit à chaque acteur la totalité de l’information nécessaire pour prendre des décisions permettant la maximisation de l’utilité. Or, les prix sont effectivement informatifs puisqu’ils sont le résultat des décisions rationnelles d’agents qui les considèrent tels. C’est parce que chacun prend ses décisions sur la base d’attentes semblables, motivées par le partage d’information gratuite et également accessible, que les prix reflètent effectivement les préférences des agents économiques et leur permettent de formuler des hypothèses correctes quant à la probabilité des prix futurs. Ce calcul de la probabilité présuppose la connaissance commune du modèle aléatoire du mouvement des prix, comme si on était dans la situation de jouer avec un dé régulier : on ne peut pas prévoir exactement les valeurs qui seront réalisées à un moment donné, mais on connait l’ensemble des résultats possibles. La volatilité étant considérée comme constante, on peut en effet calculer l’amplitude des variations futures des prix à partir de l’observation de leur état présent. Eugène Fama1 a défini un tel marché à l’équilibre “efficient” puisque les prix transmettent toute l’information nécessaire pour maximiser l’utilité de façon gratuite et publique. En outre, il suggère que, afin de vérifier si un marché est effectivement à l’équilibre et donc efficient, il suffit d’observer si les prix varient effectivement suivant le modèle du mouvement brownien (marche aléatoire à amplitude constante). Un marché efficient est ainsi comparé à un jeu équitable où chacun se trouve dans les conditions de prendre les meilleures décisions face aux décisions anticipées des autres, la raison en est que tout le monde partage la totalité des information nécessaires pour calculer la probabilité respective des prix pouvant se réaliser dans un future proche. Dans cette situation, il est possible d’élaborer des instruments efficaces de protection contre le risque comme les options qui ont rendu possible la création d’un marché financier relativement sûr et rentable.

Cependant, comme Donald MacKenzie2 l’a noté, les prédictions des prix fournies par la théorie de l’équilibre ont été confirmées pendant un certain temps, lorsque les agents prenaient effectivement leurs décisions en accord avec l’hypothèse de l’efficience informationnelle de Fama. Cependant, un excès de volatilité est vite apparu et la divergence des prix par rapport au modèle a touché son maximum lors du krach d’octobre 1987. L’écart soudain et dramatique a été engendré par la diffusion de stratégies visant des retours plus larges que ce qui aurait été possible en agissant d’une manière conforme aux prédictions du modèle et en se fiant à la seule information transmise par les prix. Pendant que la majorité des agents était persuadée d’être efficacement protégée contre un risque bien calculé (relatif à l’amplitude de la variation des prix ou volatilité), le comportement déviant des spéculateurs a engendré un excès de volatilité et, en conséquence des pertes dépassant toute prévision et non couverte par les stratégies de hedging deployées. Cette apparition soudaine de l’incertitude (situation dans laquelle la probabilité des occurrences futures - voire le risque - n’est pas correctement calculable) est liée à un défaut d’information. Les décisions des spéculateurs ont été prises sur la base d’informations différant de la seule observation des prix, ce qui a rendu les prix publiquement observés non-informatifs, à l’insu de ceux qui continuaient à faire confiance au modèle en prenant des décisions conformes à un calcul du risque qui ne reflétait plus la volatilité réelle. Le marché s’est ainsi révélé assez inefficient au point de vue informatif et dans un état éloigné de l’équilibre idéal. Le krach a bien montré que, d’une part l’observation des prix ne suffit pas à prendre des décisions rationnelles et, de l’autre part, la valeur stratégique des informations supplémentaires afin de réaliser de profits effectifs. Cette valeur des informations supplémentaires explique l’émergence d’un marché de l’information où il est rationnel d’investir pour obtenir de prédictions plus fiables que celles réalisées par l’information publique et gratuite fournie par l’observation des prix. Il s’agit de la thèse de Sanford Grossman et Joseph Stiglitz qui, dans l’article « On the Impossibility of Informationally Efficient Markets »3.

Selon les deux économistes, les écarts de la volatilité observée par rapport aux prédictions du modèle s’expliquent considérant que les professionnels de la finance ne se contentent pas de l’information transmise gratuitement et publiquement par les prix mais ils investissent pour obtenir des informations permettant de réaliser des retours plus larges que ceux que l’on peut envisager s’appuyant sur l’hypothèse de l’équilibre. Comme ils le remarquent, ce qui rend possible les opérations financières est en effet l’hétérogénéité des croyances à l’égard des prix futurs : si tous les agents entretenaient des attentes semblables, rien ne motiverait les activités financières dont les retours dépendent de la capacité à parier sur des résultats que la plupart n’a pas su anticiper. Si l’information était, dans sa totalité, également accessible à tous, les opérations financières n’apporteraient pas les bénéfices qui les motivent4, ce que contredit manifestement le volume des transactions effectives. La compétition qui garantit la croissance économique trouve sa condition dans un degré d’inefficience suffisant à justifier la dépense pour l’acquisition d’information, ce que Grossman et Stiglitz décrivent comme un « équilibre de déséquilibre ». L’hypothèse de l’efficience informationnelle des marchés est donc paradoxale, puisque si la totalité de l’information était effectivement transmise par les prix, alors ces prix ne transmettraient aucune information à même de justifier l’existence d’un marché développé et productif, c’est-à-dire un marché où fleurissent les activités financières. Il faut noter que le caractère imparfait de l’information ne signifie pas que les prix soient complètement non-informatifs, mais que les signaux sont transmis avec un certain « bruit » et sont, par conséquent, ambigus. Par exemple, la hausse du prix d’une option peut signifier une augmentation de la demande de l’actif comme une augmentation du risque, en conséquence, pour bien interpréter le signal il faut dépenser pour acquérir des informations supplémentaires. L’équilibre du déséquilibre de Grossman et Stiglitz définit ainsi le degré de bruit suffisant pour justifier l’investissement dans l’information, mais tel qu’il n’annule pas néanmoins la possibilité de prendre des décisions rationnelles : l’hétérogénéité complète des croyances rendrait en effet impossible l’existence du marché. Contrairement à ce que soutient la théorie orthodoxe, l’information pertinente afin de prendre des décisions ne se limite pas à la rareté (l’état de l’offre et de la demande communiqué par les prix), mais concerne un éventail beaucoup plus large de faits susceptibles d’influencer à la fois les prix et les comportements des agents du marché. Par exemple, des événements comme la panne d’une machine, la nomination d’un nouveau patron à la tête d’une grosse entreprise, une grève de travailleurs, etc., engendrent des prédictions différentes de celles obtenues par la seule observation des variations des cours de bourse. Lorsque les prix ne reflètent pas la totalité de l’information nécessaire pour prendre des décisions optimales, il faut alors dépenser pour éliminer le bruit. Cependant, plus il y a de bruit, plus l’information devient coûteuse et plus les croyances diffèrent, ce qui pousse à augmenter les dépenses afin d’obtenir de l’information privée. Autrement dit, l’incertitude (c’est-à-dire une situation où le risque n’est pas immédiatement calculable) motive la recherche d’information, le coût de cette recherche motive l’usage privé des connaissances acquises et l’exploitation privée de l’information augmente l’incertitude sous forme de dissymétrie des croyances : l’actuel marché d’information s’inscrit dans ce cercle et sa rentabilité dépend du fait que le plus on produit d’information à vendre et plus on crée le besoin d’en acheter. L’investissement dans la recherche d’information est donc fondamental afin de prendre des décisions efficaces et ces informations ne se limitent pas à l’état de l’offre et de la demande, elles comprennent en effet tout événement qui peut engendrer des changements du comportement des agents économiques.
À présent, cet investissement dans la recherche d’informations est lié au développement des technologies prédictives qui permettent de prendre en compte des quantités impressionnantes de données à l’égard de l’impact des événements les plus divers sur les attentes et les décisions des agents. Cette recherche dispendieuse d’information continuellement mise à jour est finalisée à la vente de services qui permettent de mettre en place des stratégies visant à profiter de changements d’opinion ainsi qu’à les engendrer. Par exemple, une compagnie investissant dans le service offert par une plateforme numérique peut diffuser de façon ciblée les annonces qui stimulent la réponse souhaitée chez les acheteurs. L’information collectée et vendue par les grands producteurs – des multinationales monopolistiques comme Facebook ou Google – permet aux acheteurs de mettre en place des stratégies non anticipées par la plupart et offrant la possibilité d’obtenir des bénéfices plus larges que ceux auxquels peuvent aspirer les agents disposant de connaissances moindres. L’effet da la diffusion de ces techniques compétitives est une augmentation de l’incertitude systémique : le risque lié aux décisions n’est pas correctement estimable pour les ignorants qui se trouvent ainsi exposés à une situation qu’ils n’ont pas les moyens de maitriser. Pour s’en sortir, ils sont obligés d’utiliser les services numériques, plateformes et applications, qui les aident à s’orienter dans une offre croissante d’information industriellement produite comme un bien destiné à la consommation. Cependant, l’utilisation de l’information fournie par ces services gratuits permet de produire des informations nouvelles qui sont appropriées et vendue par les gérants des plateformes. La consommation d’information engendre des informations supplémentaires qui sont exploités de façon privée par ceux qui disposent soit des moyens de l’acheter soit des technologies les plus avancées de collecte et traitement. C’est ainsi que se nourrit le cercle aujourd’hui très lucratif de l’économie de l’information et qui s’alimente de l’incertitude continuellement reproduite par la disparité d’accès à l’information et par la privatisation des agences de production et de diffusion. Les nouvelles stratégies continuellement introduites ont l’effet d’augmenter l’incertitude qui oblige à consommer plus d’information à travers les dispositifs algorithmiques qui en extraient davantage pour la revendre à des agents privés. Ces derniers peuvent ainsi mettre en place des stratégies qui bénéficient et exploitent l’ignorance des autres : la dissymétrie d’information se traduit ainsi en disparité de chances. Autrement dit, les dispositifs algorithmiques sur les développements desquels porte aujourd’hui l’innovation plus rentable sont des dispositifs de calcul dont l’utilisation est inégalitaire et c’est cette inégalité qui contribue à la compétition imparfaite qu’alimente la croissance économique. En effet, les décisions des moins informées sont beaucoup moins efficaces que celles des acteurs qui disposent de prédictions plus fiables et ce sont les gains exceptionnels des marchands d’information qu’alimentent en grande partie la croissance. À cet égard, il faut rappeler que la croissance n’est possible que dans une situation d’équilibre du déséquilibre, c’est-à-dire dans un marché inefficient au point de vue informationnel.

Dispositifs collectifs de calcul

Comme Michel Callonet Fabian Muniesa l’ont mis en évidence, les marchés peuvent être décrit comme des dispositifs collectifs de calcul5. Il s’agit de réseaux hybrides où, sans effectuer des opérations arithmétiques explicites, les acteurs agissent sur la base d’attentes dérivées de leurs connexions avec un éventail très large de sources d’information. Différentes catégories d’agents dans une large variété de marchés (un supermarché, la bourse de commerce mais aussi les applications et les plateformes numériques) sont connectées à des sources d’informations multiples et ils élaborent des hypothèses prédictives hétérogènes. L’efficacité des décisions dépend ainsi des connexions avec les dispositifs de calcul accessibles à chacun. Pour clarifier cette conception, il est utile de reprendre l’exemple du supermarché donné par les auteurs. L’objectif de ce dispositif distribué de calcul est de favoriser l’achat de produits d’une façon plus ou moins satisfaisante pour les différents acteurs impliqués. Les producteurs façonnent les marchandises de manière à solliciter l’achat, pour ce faire, ils prennent en compte des informations à l’égard du calcul à l’origine des décisions des consommateurs, c’est-à-dire l’information qu’ils jugent comme pertinente afin de choisir un certain produit à la place d’un autre. Afin de prendre la décision d’un achat, le client d’un supermarché calcule la valeur des options disponibles par rapport à ses préférences, aux connaissances dont il dispose et à l’information qu’il peut repérer. Ces données varient selon les sujets et elles dérivent de sources différentes, c’est-à-dire des dispositifs de calcul auxquels chacun est connecté – comme les proches, les étiquettes des produits, les documentaires sur les bienfaits des certains ingrédients (ou au contraire des dangers pour la santé), des articles de presse à l’égard de l’engagement écologique ou social des firmes, des publicités associant la marchandise avec une certaine image désirable, et ainsi de suite. Enfin, le magasin est organisé pour provoquer l’achat des biens qui rapportent le plus à l’enseigne ainsi que pour fidéliser la clientèle en offrant les biens qui sont censées en satisfaire les préférences spécifiques. Chacune de ces agences de calcul est connectée à d’autres entités calculantes qui lui fournissent des hypothèses sur les effets possibles et plus ou moins désirables des décisions disponibles : par exemple, les producteurs s’appuient sur des agences de marketing afin de confectionner des marchandises de succès, les acheteurs comptent sur les avis d’autres agents et les directeurs des supermarchés observent le comportement de leurs clients. Les différentes catégories d’acteurs disposent d’informations, de connaissances et hypothèses propres, c’est-à-dire qu’ils peuvent compter sur la connexion à des outils de calcul qui ne sont pas forcément disponibles pour les autres. Certains acteurs, comme les producteurs, peuvent prendre leurs décisions sur la base de calculs qui impliquent une estimation des opérations cognitives des autres – comme les études qui visent à prédire les réactions engendrées chez les acheteurs par la diffusion d’un certain type d’information à l’égard des produits à placer - et peuvent ainsi adopter des stratégies manipulatoires. En revanche, les agents moins informés ne peuvent pas prédire correctement les stratégies manipulatoires dont ils font l’objet. Comme Callon et Muniesa l’expliquent

Mais, aussi forte soit-elle, l’agence calculatrice du consommateur qui évalue l’attachement des biens à son propre monde demeure faible comparée à la puissance calculatrice de l’offre qui est fortement équipée, au moins dans le cas d’un supermarché. De la conception à l’assortiment des produits sur les rayons, intervient une série de professionnels qui explorent le monde distribué du consommateur pour mieux y intégrer le produit en jouant habilement sur sa qualification. En d’autres termes, et ce point est maintenant bien documenté, la différence entre la capacité calculatrice d’un enfant hésitant entre deux paquets de bonbons ou entre deux pokémons et celle du directeur d’un supermarché ne se base pas (uniquement) sur leurs propres compétences de calcul. Elles sont essentiellement la conséquence d’une asymétrie d’équipement.6

De même que les magasins, tous les marchés peuvent être considérés comme des réseaux collectifs de calcul où les différents acteurs sont connectés à un pluralité des dispositif sélectifs d’élaboration de donnés d’où dépend l’efficacité de leurs décisions. Comme Callon le souligne, « les activités de conception, de production, de distribution et commercialisation, de prospection, d’achat et de consommation impliquent un grand nombre d’agences calculatrices qui peuvent coopérer, entrer en concurrence ou encore être indépendantes les unes des autres. Des asymétries sont formées, qui peuvent évoluer et changer au cours du temps.7 » Ces asymétries sont impliquées par la puissance de calcul dont chacun dispose à travers sa capacité d’exploiter les opérations d’autres acteurs, « des connexions que les agences de calcul construisent entre elles dans le but, par exemple, d’incorporer (de capitaliser sur) les résultats d’autres agences de calcul8 ». Lorsque certains peuvent dépenser pour acquérir les informations produites par des agences de calcul très puissantes, qui disposent, par exemple, d’outils très élaborés ainsi que de larges banques de données, la plupart sont forcés de prendre leurs décisions sur la base des connaissances qui leur sont fournies gratuitement, souvent avec des finalités manipulatoires (ce qui est une modalité d’exploiter leurs calculs). Callon et Muniesa dénoncent des cas extrêmes où les stratégies de connexion sont utilisées pour empêcher une autre agence de réaliser des choix répondant à son propre intérêt et établir ainsi des rapports de dépendance : « une connexion peut résulter en pure dépendance si une agence est en position de disposer sans entraves de la puissance de calcul d’une autre agence.9 » Cette dépendance se réalise, par exemple, lorsque les acheteurs disposent seulement des informations que leur sont fournies par des dispositifs contrôlés par les vendeurs, comme dans les réseaux numériques privés où les algorithmes qui assortissent usagers et contenus sont programmés selon des stratégies qui profitent surtout à ceux qui payent pour bénéficier des services ciblés. Il y aurait donc des agences autonomes - qui peuvent compter sur des sources d’information et des dispositifs de calcul non contrôlés par ceux qui leur proposent des services et des produits – et agences hétéronomes qui n’étant connectées qu’à l’intérieur d’un réseau dessiné par les vendeurs deviennent « une annexe du dispositif calculateur créé par les experts du marketing et de l’assortiment10 ». L’analyse des dispositifs collectifs de calcul a, selon ses auteurs, des implications politiques importantes :

Il est cependant de plus en plus difficile de masquer les épreuves de force derrière les transactions commerciales quand les moyens de calcul utilisés deviennent l’objet d’expérimentation et parfois de discussion, comme dans le cas des marchés financiers et de la distribution de masse. Devenant objets d’expérimentation, d’analyse, d’interprétation et d’évaluation, les asymétries de calcul y sont mises en évidence et peuvent alimenter des débats argumentés11.

Ce débat est censé dénoncer les cas d’hétéronomie des agences de calcul et proposer des solutions favorisant l’autonomie, c’est-à-dire l’accès à des sources d’information non contrôlés. Par exemple, les associations de consommateurs ou d’usagers sont des moyens qui permettent de faire circuler des informations non contrôlées par les vendeurs afin de limiter la manipulation et permettre des décisions plus efficaces. Ainsi, « Pour inverser l’asymétrie entre les puissances calculatrices et retourner le rapport de force qu’elle implique, des agences s’engagent dans l’acquisition de nouveaux équipements de calcul.12 »

Conclusion

Le projet Automédia, la création d’une plateforme indépendante et visant à diffuser des informations normalement exclues des médias officiels et des réseaux sociaux plus fréquentés, est surement une solution qui peut contribuer à corriger l’asymétrie des connaissances. Comme indiqué par Callon et Muniesa, un tel projet peut offrir la possibilité d’inclure dans le calcul des informations provenant d’acteurs dont les expériences et le point de vue aident à dévoiler les stratégies manipulatoires des médias officiels ainsi que leur alliance avec le pouvoir politico-économique. Cependant, il me semble qu’un tel projet ne devrait pas négliger que l’inégalité des chances de plus en plus frappante aujourd’hui est liée à l’incertitude causée par l’excès d’information industriellement fabriquée aujourd’hui, c’est-à-dire le bruit et l’ambiguïté provoquée par la diffusion des signaux apparemment contradictoires. En outre, ce qui motive la servitude volontaire aux services offerts par les multinationales de l’information est, d’une part, le besoin de disposer d’outils centralisés qui connectent les plus grand nombre d’agents dans le monde entier, et d’autre part, le désir de véhiculer ses propres contenus à l’échelle globale. Ainsi, comme Stiglitz l’a remarqué, l’établissement du monopole est une tendance nécessaire dans le marché d’information où la compétition se joue au niveau de réseaux aux ambitions totalisatrices, c’est-à-dire capables d’utiliser les calculs réalisés par le plus grand nombre d’acteurs et de mettre également ce pouvoir à disposition des usagers (selon leur engagement). Il me semble ainsi que le succès d’un projet comme Automédia est lié à la capacité de se doter de moyens technologiques et financiers pour concurrencer les agences monopolistiques en termes de connexions, voire de centralisation. Cependant, de ce point de vue, le risque est non seulement la reproduction du modèle hégémonique que l’on vise à contester, mais aussi la participation au marché de l’information et ses logiques. Il me semble ainsi que pour s’opposer efficacement à la disparité d’information – l’une des causes les plus importantes de l’inégalité croissante – il faudrait d’abord s’opposer à l’identification de l’information avec un bien de consommation. Lorsque l’information est couteuse, sa production est un business qui ne fait que reproduire l’incertitude. Comme on la dit, l’excès d’information diffusée sous forme de signaux ambigus motive la consommation à travers laquelle ce bien est automatiquement reproduit. En conséquence, il me semble que le véritable défi pourrait se formuler dans ces termes : peut-on libérer l’information de son actuel statut de marchandise pour la rendre un bien commun public et gratuit ? peut-on contraster la production et la diffusion privée d’information pour en favoriser la distribution égalitaire et limiter ainsi les dissymétries et l’incertitude ? À cet égard, il me semble important de noter que les mesures de précarisation qui impactent négativement la vie d’un nombre croissant de personnes sont justifiées par l’incertitude, par l’instabilité des marchés et les crises économiques qui ne font qui se succéder pendant que les plus riches (ceux qui détiennent le monopole de la production et diffusion d’information) deviennent encore plus riches. Cette incertitude est un effet de la reproduction de l’inégalité d’accès à l’information et d’asymétries, elle ne peut être efficacement contrastée que par une autonomie médiatique collective, c’est-à-dire par la reconversion de l’information en bien commun et l’établissement d’un réseau public et global capable de défier les plateformes qui détiennent actuellement le monopole du marché de l’information.


1 Eugene Fama, « Efficient Capital Markets : A Review of Theory and Empirical Work”, The Journal of Finance
Vol. 25, No. 2, Papers and Proceedings of the Twenty-Eighth Annual Meeting of the American Finance Association New York, N.Y. December, 28-30, 1969 (May, 1970), pp. 383-417.

2 Donald A. Mackenzie, An Engine, not a Camera, MIT Press 2006.

3 Sanford J. Grossman and Joseph E. Stiglitz, “On the Impossibility of Informationally Efficient Markets”, in The American Economic Review, vol. 70, n° 3 (Jun., 1980), pp. 393-408.

4 “As Grossman (1975, 1977) showed, whenever there are differences in beliefs that are not completely arbitraged, there is an incentive to create a market. But, because differences in beliefs are themselves endogenous, arising out of expenditure on information and the informativeness of the price system, the creation of markets eliminates the differences of beliefs which gave rise to them, and thus causes those markets to disappear. If the creation of markets were costless, as is conventionally assumed in equilibrium analyses, equilibrium would never exist.” Ibid. Ibid., p. 404

5 M. Callon, F. Muniesa, « Les marchés économiques comme dispositifs collectifs de calcul », Réseaux 2003/6 (n. 122), p. 189-233.

6 Ibid., p. 210.

7 Ibid., p. 209.

8 Ibid., 211.

9 Ibid., p. 2012.

10 Ibid. , p. 213 ;

11 Ibid., p. 214.

12 Ibid., 211.

Citer cet article

Longo, Anna. "Information et inégalité : comment la production automatisée de connaissance favorise la disparité des chances.", 20 mai 2023, Cahiers Costech, numéro 6.

DOI https://doi.org/10.34746/cahierscostech158 -
URL https://www.costech.utc.fr/CahiersCostech/spip.php?article158