Plan
INTRODUCTION : La dérive idéologique du « post-média »
Lorsque, dans ses derniers écrits, Félix Guattari fait mention d’une « ère post-média », saluant par là l’avènement d’une jonction entre télématique et l’information pouvant déboucher sur une « réappropriation individuelle et collective des machines d’information, de communication, d’intelligence, d’art et de culture »1, il s’inscrit dans le droit prolongement d’une philosophie de la technique machinophile, envisagée par-delà toute détermination sociale d’empreinte marxienne. Mais cette hypothèse est élaborée tout autant dans le sillage des penseurs de la « société de l’information », dont certains sont expréssement cités par Guattari, à l’instar de Nobert Wiener, auteur en 1952 de Cybernétique et société, ou de Pierre Lévy, qui s’intéresse dès la fin des années 1980 aux perspectives sociales ouvertes par l’alliance entre intelligence humaine et machines avec la généralisation d’internet. Ce qu’on nomme en sociologie de la communication le « paradigme informationnel » est, selon le mot de Armand Mattelart, une « utopie planétaire »2, qui prône l’idée d’une société nouvelle organisée en réseaux, structurée comme un « village global », favorisant la libre expression de soi et l’échange entre cultures, contribuant à niveler les inégalités de race et de genre, et qui investit axiologiquement les figures du réseau et du rhizome comme gages de démocratisation de l’accès à l’information. Guattari montre son adhésion à ce paradigme lorsqu’il soutient que la mise au point des nouvelles technologies permettra l’éclosion de processus de « singularisation » en rupture avec la standardisation des comportements, et peut-être plus encore lorsqu’il défend l’idée qu’elles peuvent offrir des solutions aux problèmes écologiques planétaires que s’apprête à affronter l’humanité. À l’encontre des implicites postmodernistes, avec le post-média il s’agit de penser un temps à venir et un conjoint des pratiques qui puisse se montrer à la hauteur des défis que l’humanité devra affronter. Sa dimension utopique est ainsi entièrement assumée comme une réponse au désastre et au désespoir, qui présente l’avantage de ne pas devoir renoncer aux acquis des révolutions micropolitiques de la sensibilité et du désir néés dans le creux de l’expérience de mai 68. Au sortir des « années d’hiver » - les années 1980 -, voilà à coup sûr un nouvel « espace de liberté, de démocratie et de créativité »3.
Toutefois, si on creuse du côté de l’émergence du concept de « société de l’information », l’utopie post-médiatique risque d’apparaître davantage comme un leurre idéologique, étrangement proche de celui qui vient au secours des mutations capitalistiques qui marquent la décennie 1970. Acculé par une crise structurelle et cyclique de surproduction, le capitalisme s’engage dans une mue disruptive en investissant massivement dans les technologies informatiques, ce qui lui permet de renouveler à la fois ses instruments d’extraction de plus-value et ses marchés. La mise au point d’outils de valorisation économique de la communication, de l’information, de la connaissance et du partage, s’accompagne adroitement de la valorisation discursive d’une société où peuvent enfin converger les aspirations démocratiques et les impératifs du libre marché. Dans les années 1970, les chantres de la société post-industrielle étaient les partisans les plus convaincus du néolibéralisme – Friedrich Hayek, Daniel Bell ou Alain Touraine4. Dans les années 1990, on assiste à son renouveau mythologique grâce à la panoplie des acteurs issus de la contre-culture californienne, devenus entre-temps les acteurs économiques les plus cossus de la Silicon Valley5. Comme le résume le sociologue Fabien Granjon, « parmi les nombreuses sentinelles idéologiques du capitalisme contemporain, le mythe de la société de l’information a pour objectif de présenter, sous des atours favorables, des changements structurels dans l’ordre des rapports de production »6. Dans la continuité de cette réflexion, Granjon signe dans la revue Contretemps un article, intitulé « Mythologies des multitudes et du post-médiatisme », qui s’avère particulièrement intéressant dans la mesure où il s’attaque frontalement à l’hypothèse du post-média guattarienne7. Les penseurs du capitalisme cognitif, les philosophes de la multitude, les théoriciens du postmédiatisme - autrement dit, la totalité des héritiers de la philosophie deleuzo-guattarienne (Vercellone, Lazzarato, Negri, Hardt, Bifo, Papathéodorou, Allard) « font leur, dans une version certes nettement plus progressiste, certains des postulats des théories libérales », tels la place accordée à la subjectivité et à l’expression, l’exaltation de la possibilité de contourner les vieilles hiérarchies propres aux formations traditionnelles du pouvoir ou la possibilité de créer des « communs » grâce à une participation spontanée des contribiteur.trice.s. Le post-média guattarien s’érigerait ainsi en un « dogme indépassable », biaisant épistémologiquement ou esquivant minutieusement les études de cas à propos des usages sociaux d’internet, pour nous fournir en amont la grille de leur évaluation politique.
Si une telle mise en garde contre la dérive idéologique du postmédiatisme peut paraître excessive eu égard à l’éclosion effective de pratiques automédiatiques depuis les années 1970 et de leurs effets positifs indéniables sur le processus de subjectivation et l’articulation des luttes sociales, elle nous semble pourtant salutaire, dans la mesure où elle oblige à mesurer ces effets à l’aune d’une perspective radicalement démocratique et anticapitaliste. La question que nous entendons poser dans cet article est donc la suivante : à quelles conditions est-il possible d’affirmer que le postmédiatisme n’est pas dupe du mythe de la « société de l’information », ni qu’il ne se confond avec un solutionnisme technologique aux problèmes sociaux auxquels nous sommes confrontés ? Pour répondre à ces questions, je vais dans un premier temps contextualiser l’engouement suscité par les nouvelles technologies informationnelles à l’orée des années 1990. Je vais ensuite expliciter les limites factuelles du post-médiatisme, difficilement anticipables avant la constitution d’oligopoles du numérique des années 2000. Je concluerai en avançant que les NTIC peuvent être porteuses d’autonomie politique et s’avérer utiles pour relever aux défis posés par l’antropocène, à condition qu’on les ajoint à une perspective macropolitique – ce qui implique d’accepter une réglementation étatique, supra-étatique et communautaire de l’espace numérique et médiatique.
I. L’éclosion automédiatique des années 1970-1990
Le problème de l’autonomie médiatique se pose dans la confrontation avec une situation d’hétéronomie radicale historiquement incarnée par les médias de masse. On ne peut comprendre les espoirs du postmédiatisme formulés au début des années 1990 sans avoir à l’esprit les changements technico-énonciatifs qui en ont préparé le terrain dans l’arc des années 1970-1990, en opposition à ce « Géant timide » (mais redoutable) qu’est la télévision (McLuhan, 1964). Loin d’être un simple palier dans l’avancée des industries culturelles, la télévision se présente comme un phénomène social d’une envergure inédite, coïncidant avec un plan de relance économique qui débouche sur la consolidation d’une classe moyenne de consommateurs, à la fois d’objets et de signes. Or, l’anathème qui frappe ce média est contemporain à son essor : c’est un leitmotiv chez les écrivains de la Beat Generation (Kerouac, Burroughs), repris par les acteurs de la contre-culture dès les années 1960 (Debord, Baudrillard), avant de se populariser au cours des années 1970 chez les artistes et dans les milieux militants, trouvant un écho jusque dans les couches sociales défavorisées des pays industrialisés, désireuses de ne pas rester une masse de récepteurs passifs, ni de céder sur le terrain de la construction d’un discours collectif et partagé sur le réel8.
Décentraliser les instances de production de l’information
Le premier reproche formulé à l’encontre de la télévision est, en effet, celui de produire des informations de manière à la fois centralisée, unilatérale et verticale. En régime mass-médiatique, les méthodes de production tout comme les critères de sélection des contenus échappent au spectateur, qui se trouve délégué à une position de receptacle de ce que les instances informatives ont décidé devoir figurer sur son écran et de la manière dont le sens de ces informations est configuré. Particulièrement attentif à cette distribution asymétrique des rôles, le philosophe Vilèm Flusser expose, dans quelques articles rédigés dans les années 1970-809, les nombreux problèmes relatifs à une centralisation des instances productrices d’information : l’inaccessibilité de la « boîte noire » signale une dépossession des savoirs techniques (1) ; d’où découle une homogénisation de l’opinion publique (2), rendue docile et consentante aux décisions politiques ; le pendant nécessaire d’une telle centralisation étant une atomisation des points-récepteurs (3) pour qui il devient impossible d’échanger ou d’exprimer un désaccord quant à ce qui est montré ou affirmé. Si l’on suit Flusser, « Politiser signifie publier, rendre public. La télévision renverse ce rapport : elle vient de la sphère publique et pénètre dans la sphère privée. (...) D’abord, la boîte qui introduit le politicien ne permet aucun dialogue avec lui ; or, le dialogue est la structure même de la vie politique. Ensuite, les millions de boîtes dispersées dans la société sont certes reliées au même émetteur (le politicien), mais non entre elles »10. Une telle structure communicationnelle est donc par définition aliénante et dé-politisante, indépendamment du caractère politique des discours véhiculés, allant à l’encontre des exigences démocratiques nées dans l’après-guerre et collant assez mal avec l’éveil politique de 1968. Les années 1970 correspondent, en effet, à un moment de bascule. Celui-ci s’explique par la conjonction de divers facteurs, tels le rajeunissement de la population, la massification de l’enseignement supérieur, les mouvements de décolonisation et l’intensification des flux migratoires, qui à la fois multiplient et diversifient les visages d’une opposition aux formes de domination et d’exploitation, et occasionnent l’émergence d’un nouveau sujet politique, les « minorités ». Dans ces circonstances, le monopole mass-médiatique sur les discours et sur les images est contraint de laisser place à un simple rapport de pouvoir admettant un conflit pour la production du sens, une contestation de l’opérativité des significations dominantes et de l’hégémonie culturelle qui en dérive. La critique des mass-médias se couple ainsi, dès les années 1970, avec des pratiques médiatiques alternatives. Celles-ci mettent en échec la « prolétarisation » à l’oeuvre avec la télévision (Stiegler, 2012) grâce à une appropriation technique des moyens de production de l’information. La généralisation de nouvelles techniques d’enregistrement et de diffusion des images (tube cathodique, bande magnétique), à des coûts relativement faibles et faciles à manipuler, créent les conditions d’une démultiplication des foyers d’énonciation médiatique. Le Portapak, premier caméoscope à destination du grand public commercialisé par Sony en 1967, devient le principal opérateur de cette auto-médiatisation : c’est avec le Portapak que Carole Roussopoulos filme les réunions du F.H.A.R.(1971) et la prise de parole des ouvrier.è.s des LIP (1973, 1976), ou que les collectifs féministes Vidéo Out, Vidéa et Les Insoumuses interrogent les prostituées à Lyon (1975) ou les victimes de viol (1978) ou qu’ils peuvent monter des séquences parodiques par la récupération des bouts d’émissions télévisées sexistes qu’elles enregistrent à l’aide d’un magnétophone (Maso et Miso vont en bateau, 1976). Ce qui fait dire au critique de cinéma Jean-Paul Fargier : « Tout ce petit monde, avec son Portapak, en fait, faisait quoi ? Surtout de la politique. De la politique au sens large. Au sens où l’on disait alors que ’’tout est politique’’. La vidéo se veut un art de vivre son temps en acteurs engagés dans divers combats. Ecologie, gauchisme, féminisme, antipsychiatrie, syndicalisme sauvage, libertarisme sexuel.. »11. Dans un paysage médiatique consensuel et uniformisé, ces pratiques médiatiques alternatives ont l’immense mérite de déplacer l’attention sur des thématiques sociales délaissées par les médias de mass, comme l’avortement et l’inceste, mais aussi de produire un « recadrage » des informations que les médias rélaient à propos de la géopolitique internationale, comme c’est le cas pour la guerre du Vietnam (Farocki, Feu inextinguible, 1969) ou pour la prise d’otages israëliens lors des Jeux Olympiques de Munich (Vidéo Out, Munich, 1972).
Processus de subjectivation et effets de singularisation
Mais la télévision ne fait pas que museler l’opinion publique et des exigences de débat. Un deuxième reproche concerne sa fonction de relai de modes de vie et de comportements normatifs, comptant même parmi les principales instances de leur production. Chez Guattari, l’omniprésence des images et des discours mass-médiatiques dans les espaces perceptifs au service de cet assujettissement sert directement une analyse du capitalisme. Celui-ci n’est pas un simple système de production d’objets matériels et des rapports sociaux de production, mais tout autant un « opérateur sémiotique », qui confectionne et met en circulation un ensemble de signes afin d’assurer les bases de son mantien et de son développement – ce que Franco « Bifo » Berardi baptisera de « sémiocapitalisme »12. Il en résulte une série d’opérations discursives et visuelles qui rendent possibles le quadrillage social et l’allégéance à des modèles subjectifs prêts-à-porter, à partir desquels les opérations de valorisation économique pourront s’avérer plus aisées (par des techniques de ciblage commercial, par exemple). Les médias oeuvrent ainsi à deux niveaux : sur le plan de la socialisation de la perception, ils s’emploient à mettre en place une imprégnation des modèles subjectifs par ressassement de signes, ce qui active des mécanismes d’identification, de recognition et de rémémoration des représentations, avec comme résultat leur naturalisation ; sur le plan de la formalisation des contenus sémantiques, les médias se présentent comme une véritable « machine à signification » qui procède à la création d’une réalité dominante à laquelle la subjectivité doit se conformer. La promotion de subjectivités modelisées sur le devant de la scène médiatique et, à l’inverse, l’occultation d’autres modalités de rapport à soi et au monde résultent en toute logique de ces opérations. Or, c’est en tablant sur l’importance de la subjectivité pour freiner les effets du sémiocapitalisme que, tout au long des années 1970 et 1980, on a tenté de lever la tutelle qui pesait sur elle, y compris dans des émissions de l’ORTF, à l’instar de Mosaïques de Tewfik Farès et Mouloud Mimoun sur les cultures issues de l’immigration (1977- 1987). Mais c’est seulement avec les NTIC que peut se réaliser de plain-pied la réparation des déficits visuels et discursifs qui ont historiquement structuré le champ de la visibilité médiatique. Certes, dans les années 1980, les technologies de la communication restent rudimentaires, se limitant aux BBS (bulletin board systems), aux terminaux informatiques interactifs de type Minitel, ou aux sites d’hébérgements de type Samizdat.net. Il faut attendre deux bonds technologiques pour qu’internet soit propulsé au cœur de la société : le world wide web en 1990, puis dans les années 2000 le « web 2.0 », expression qui rend compte des transformations des usages du web grâce à l’apparition de services facilitant le maniement de l’outil internet, tels les « plateformes numériques » pour la recherche d’un contenu indexé par mots-clés, le « wiki » qui rend possible la participation de plusieurs collaborateurs à la construction d’une page internet, et enfin les « médias sociaux » comme les blogs, pour un partage d’informations rendu aisé grâce à la syndication du flux RSS (qui permet d’intégrer dans une page le contenu d’autres pages). Selon les termes et les espoirs de Guattari dès la fin des années 1980, il s’agit de « nouveaux agencements énonciatifs », socle de processus de subjectivation pro-actifs, à la constitution d’imaginaires collectifs, capables d’introduire de nouveaux modes de sémiotisation du réel. L’exercice d’un « droit à la singularité » de la part des « inconscients en révolte », qui avaient étouffé sous le poids de la sémiotisation mass-médiatique, à sa normativité et à son muselage, est pleinement revendiqué. Aux fonctions de communication et d’échange propres à l’internet des origines, succède en effet une fonction plus directement expressive à partir des années 2000. Des « techniques de soi », s’articulant de manière antagoniste aux techniques de domination, se mettent en place à partir de ce qu’un profil usager relaie, partage ou du contenu qu’il produit : Wordpress (2001), Myspace (2003), Second Life (2003) facebook (2004), Youtube (2005), twitter (2006) Tumblr (2007) et instagram (2010) sont les balises de ce que Allard nomme le « tournant expressiviste du web »13. La communication transversale, l’interactivité, la création de contenus par tout un chacun, font signe vers un diagramme politique qui est l’héritier de la première génération d’informaticiens du MIT, « les libristes »14. Ce diagramme met au défi le rapport hypnotique aux machines techniques au profit d’une compréhension collective et partagée de ses fonctionnements, la verticalité des médias de masse par le nivellement entre professionnels et amateurs au profit d’une horizontalité de la prise de parole et du dissensus. L’importance des processus de subjectivation chez Guattari renvoie, en outre, moins à des sujets individués qu’à la prise de consistance d’une subjectivité humains-machines (qu’il nomme une « hétérogenèse machinique ») et à la constitution de « groupes-sujets » capables d’échanger, de s’organiser et d’opérer une jonction entre la toile et la rue, dans le prolongement des pratiques médiatiques de la décade 1970.
Ainsi, si on confronte l’émergence de l’hypothèse du post-média au paysage médiatique des années 1970-1990, il semble qu’on a des bonnes raisons d’y déposer une partie de ses espoirs quant à l’avènement d’une société libre dans son expression, autonome du point de vue technique et donc démocratique. Dès lors que le capitalisme est envisagé comme une machine assujettissante et un rouleau compresseur du désir, de la coopération désinteressée et du partage, l’éclatement de la structure centralisée des médias a été considéré comme un élément suffisant à la constitution d’un sujet politique collectif et à l’auto-positionnement de la subjectivité, procédés qui font advenir d’autres manières de percevoir le monde et de l’habiter, y compris si pour ce faire l’on doive emprunter les outils au capitalisme.
II. Victoires du capitalisme numérique
Cependant, est-on sûr de pouvoir affirmer que ce rapport social de production a tremblé face à ces légions de subjectivités désirantes ? Qu’il a seulement été fragilisé par le bricolage de nouveaux agencements d’énonciation, par les projets collectifs nés de ces agencements et par la création de « vies autres » (Foucault) ? N’est-ce pas là un jugement relevant soit d’un enthousiasme excessif pour ces « révolutions moléculaires » (Guattari), soit d’un simple déni de la réalité ? Lorsqu’on observe l’histoire économique, politique, géopolitique et sociale du milieu des années 1970 à aujourd’hui, il est permis de douter que le décalage vis-à-vis des représentations dominantes et des codes sociaux assujettissants, instruit par autre rapport à soi du fait d’une manipulation réflexive des opérateurs sémiotiques, ait été porteur d’une quelconque force socio-politique collective. Les années 1980 ont, tout au contraire, coïncidé avec la brutale toute-puissance du capitalisme dans ses nouvelles vestes néolibérales. Ainsi, afin de comprendre pourquoi les espoirs du postmédia sont restés à l’état larvaire, écrasés en même temps qu’ils étaient en train d’éclore, il nous semble utile de répertorier les principaux obstacles à sa réalisation et les principales victoires du capitalisme numérique.
La propriété capitalistique des moyens de production de l’information
Rappelons à titre liminaire qu’à toutes les étapes de leur mise au point technique - du programme Arpanet au web expressiviste en passant par les plateformes de l’industrie du contenu – les NTIC ont respecté un cahier de charge fourni par le complexe militaro-industriel et par le complexe commercial. Autrement dit, le premier obstacle, structurel, à une lecture optimiste des NTIC est celui de la propriété capitalistique des moyens de production de l’information. La production manufacturière des ordinateurs aux États-Unis atteint un taux d’accroissement annuel de 41,7% entre 1995 et 1999, et ce chiffre est si important qu’il fausse le taux de productivité global du pays15. D’autres industries sont associées à cette production, comme celles des transistors et des microprocesseurs, parmi lesquelles l’américaine Intel et les japonaises BUSICOM et NEC. Pour ce qui est de l’industrie du software, on passe de 600 à 1800 firmes de logiciels entre 1977 et 1982 aux États-Unis, pays qui les concentre de manière presque exclusive16. Dès les années 1970, un « deuxième âge de l’informatique » met fin à l’utopie concrète des libristes du MIT par la mise en place de systèmes centralisés de production du matériel informatique, dont la première place échoit au géant IBM. À partir des années 2000, pour finir, les plateformes numériques et les data-centers sont également dans les mains des entrepreneurs et répondent de ce fait à des logiques de création de profits17. Suivant la tendance historique du mouvement d’accumulation du capital décrite par Marx, on assiste à une socialisation de la production à un niveau nettement supérieur relativement à la phase industrielle, en raison du caractère coopératif du procès de travail qui est devenu une nécessité technique dictée par la nature du moyen de travail lui-même. Si dans les phases de transition d’un paradigme techno-économique à un autre cette socialisation marque le pas, comme ce fut le cas dans les années 1980, la stabilisation du paradigme informationnel débouche sur la formation tendancielle de plus grands monopoles de l’histoire du capitalisme à partir des années 2000, qui répondent aux acronymes GAFAM et NATU18. Il va sans dire que ni Guattari ni ses acolytes ne sont pas sans connaître les évolutions macro-économiques qui leur sont contemporaines. Dans Lignes de fuite, il est question d’un « Super Équipement » chapeautant les « Équipements collectifs » : ceux-ci sont désormais « à la fois partout et nulle part » en raison d’une dissémination technologique du capitalisme. Dans Cartographies schizoanalytiques, scandant en trois temps les âges d’une entrée en machine de la subjectivité, il affirme de manière tout aussi explicite qu’à l’âge de l’informatisation planétaire une émancipation des tutelles assujettissantes du sémiocapitalisme passe certes par des usages sociaux créatifs, mais que les infrastructures matérielles continuant à dépendre du capital, cette émancipation ne peut être que relative19. Miser sur la capacités des « machines désirantes » à investir les machines techniques, de manière à créer des brèches dans la machine sociale du capitalisme, signifie, dans les faits, rester prisonnier d’une logique de la ré-appropriation et du détournement des outils fourni par le capital.
Prolétarisation par verrouillage de la « boîte noire »
Or, même ces pratiques timides d’autonomie médiatique au moyen de machines et de plateformes numériques appartenant aux agents de l’économie capitaliste sont mises à mal par une volonté de verrouiller les modes d’emploi des ordinateurs et des logiciels. Les intérêts commerciaux qui se cristallisent autour des machines de computation (hardware), puis des logiciels d’exploitation (software), sont exemplifiés par deux épisodes de la « troisième informatique », qui débute avec la commercialisation du personal computer (PC). Le premier, daté de 1976, concerne un jeune développeur de vingt-et-un ans, du nom de Bill Gates : après avoir fondé une entreprise dans l’objectif de mettre en place un programme d’exploitation de l’Altaïr 8800, premier modèle d’ordinateur personnel, il découvre que les hackers du Homebrew Computer Club, travaillant sur ce modèle depuis leur première réunion en mars 1975, sont venus à connaissance de son programme BASIC, et qu’ils s’en saisissent pour le partager et le modifier. Bill Gates rédige alors une lettre ouverte (An Open Letter to Hobbysts20) décrivant cette opération comme une infraction aux droits d’auteur et essayant de dissuader les informaticiens de se dédier à l’avenir au développement de nouveaux programmes à titre gratuit. Le second épisode concerne deux membres du même Homebrew Computer Club, Steve Jobs et Steve Wozniak. Ces programmeurs s’emploient à améliorer les performances de leurs machines Apple (entreprise qu’ils fondent en 1976) par une intégration des circuits à grand vitesse (le système VLSI), et surtout par l’élaboration d’une interface graphique pourvue d’icônes, d’images et de textes que l’on peut manipuler intuitivement à l’aide d’une souris, en lieu et place du langage informatique codé (le système WYSIWYG, « what you see is what you get »). Ce système parachève le processus de re-prolératisation technologique. Alors que les conditions étaient enfin réunies pour qu’une culture technique du bricolage soit à la portée de tout le monde à partir de son PC, le verrouillage du code, l’opacité des boîtiers et la transformation du code en interfaces graphiques impénétrables, donnent lieu à un rendez-vous manqué avec l’appropriation des savoirs techniques. C’est pourquoi, lors de la mort de Steve Jobs en 2011, le programmeur Richard Stallman, chef de file des militants du logiciel libre, dira que celui-ci aura été « le pionnier de l’ordinateur comme une prison cool, conçue pour couper les imbéciles de leur liberté21 ». Derrière la sévérité de ce jugement, il y a une exigence démocratique voire anthropologique. Sur les pas de Simondon, l’incapacité à saisir le fonctionnement des machines se présente pour les libristes comme un problème bien plus fondamental que celui de leur propriété : « L’aliénation saisie par le marxisme comme ayant sa source dans le rapport du travailleur aux moyens de production, ne provient pas seulement, à notre avis, d’un rapport de propriété ou de non-propriété entre le travailleur et les instruments de travail. Sous ce rapport juridique et économique de propriété, il existe un rapport encore plus profond et plus essentiel, celui de la continuité entre l’individu humain et l’individu technique, ou de la discontinuité entre ces deux êtres ». Raison pour laquelle, « la collectivisation des moyens de production ne peut opérer une réduction de l’aliénation (…) que si elle est la condition préalable de l’acquisition par l’individu humain de l’intelligence de l’objet technique individué »22. Reste que se dessine, dans le bassin de la Silicon Valley, un lien à la fois indissociable et incontestable entre la prolétarisation des usager.è.s des NTIC et la défense des intérêts économiques d’entreprises capitalistiques propriétaires.
L’internaute, travailleur.se non rémunéré.e
C’est à l’aune de ces constats qu’on a commencé à questionner le statut de l’usagèr.e des NTIC, pour finalement observer la mise en place et la généralisation de nouveaux mécanismes d’extraction de plus-value, qui les transmuent en travailleur.se.s non rémunéré.e.s. L’hypothèse d’un changement radical du rapport capital/travail dans le capitalisme post-industriel voit le jour en Italie dès les années 1970. La deuxième génération du mouvement opéraïste (Negri, Virno) se montre attentive aux dimensions infrastructurelles des nouveaux modes de production. La recherche-action menée par Romano Alquati sur l’entreprise Olivetti en 1963 a été à ce titre déterminante, car elle a fourni des données concrètes, à la fois quantitatives et qualitatives, d’un changement en train de se faire, signalant les importantes différences entre la manière dont le savoir était objectivé dans la production industrielle des voitures (la FIAT ayant fait l’objet d’une recherche par Alquati) et dans la production industrielle d’ordinateurs23. Dans le sillage des analyses du « Fragment sur les machines » de Marx24, que la revue Quaderni Rossi traduit pour la première fois en 1964, ces théoriciens affirment que le « troisième âge du capitalisme » se caractérise par une subsomption inédite des capacités intellectives dans le processus de valorisation capitaliste, et ceci non seulement parce que la complexité accrue des machines requiert un investissement intellectuel majeur pour les ouvrièr.e.s qui les conçoivent et les produisent, mais surtout parce qu’on assiste à un élargissement du procédé de subsomption réelle à l’ensemble des activités sociales, en raison de la démocratisation des NTIC. Le fonctionnement spécifique des machines cybernétiques par boucles rétroactives (input/output/feedback), qui implique la possibilité pour l’appareil technique d’enregistrer des informations provenant de l’usagèr.e, explique que les capacités intellectives objectivées dans la machine ne sont plus seulement celles des travailleur.se.s dans les usines, mais celles de quiconque faisant usage de ces machines, du spectateur de télévision à l’usager.e qui stocke des vidéos sur Youtube ou qui produit du contenu sur sa page instagram25. Par-delà les critiques émises à son encontre par des économistes26, cette hypothèse, labellisée sous l’expression « capitalisme cognitif », a le grand mérite de mettre en lumière l’extorsion du potentiel créatif et innovant des subjectivités qui s’expriment à travers les NTIC, de sorte que c’est le social lui-même qui finit par être le lieu d’extraction de la valeur. Que la connaissance soit devenue « une force productive immédiate », ainsi que l’on dirait dans les termes du Fragment, que se mette en place une « économie de l’information » (knowledge based economy), voilà un fait qu’on ne peut pas vraiment contester. Dans les années 1990, la généralisation de l’usage des machines informationnelles coïncide en effet avec une mise à contribution de l’internaute dans le fonctionnement des sites et des réseaux sociaux : « Au lieu d’être le moment final d’une chaîne verticale réagissant aux stimuli développés par les acteurs situés en amont, les utilisateurs deviennent les coproducteurs du service par les contributions qu’ils apportent et les effets réseau directs et indirects qu’ils génèrent via la plateforme. Seuls ou organisés en communautés, ils jouent ainsi un rôle actif dans les différentes phases d’élaboration, de tests et de diffusion des services, notamment par les recommandations ou feed-back qu’ils émettent »27.
Gouvernentalité algorithmique
Les années 2000 voient l’émergence d’un nouveau modèle d’affaires des NTIC, qui met ultérieurement en crise toute veillété d’une autonomie médiatique qui pourrait se réaliser avec les outils du capital numérique. La grande quantité des données brutes récoltées et cumulées (big data) commande la necéssité d’élaboration des procédés de leur traitement, permettant de les modéliser et conséquemment de les exploiter. Or, en même temps qu’ils répondent à cette fonctionnalité technique, les algorithmes coïncident avec l’émergence d’une nouvelle « gouvernementalité ». Ce thème, exploré par T. Berns et A. Rouvroy, s’inscrit dans la continuité des analyses guattariennes de l’asservissement machinique et des signes a-signifiants de l’informatique, où les flux d’information cessent de se référer à une réalité signifiante produite par les médias de masse (JT ou publicité), mais tout autant aux processus de subjectivation qui lui opposent des modèles subjectifs alternatifs28. Ainsi que l’affirme A. Rouvroy : « que ce qui ’’coule’’ soit a-signifant est précisément ce qui permet d’éviter toute forme de subjectivation, tout en réalisant un asservissement machinique, moléculaire, a-signifant mais éminemment opérationnel »29. Autrement dit, le seul semblant d’autonomie qui restait se trouve menacé. La gouvernementalité algorithmique consiste, en effet, dans la capacité à orienter les comportements des consommateurs et des citoyens d’une manière à la fois non contrainte et plus efficace que ne le font la publicité et les médias, dans la mesure où les systèmes automatiques de modélisation de machines auto-apprenantes parviennent à profiler l’usagèr.e sur la base des informations apparemment anodines et sans relations entre elles. C’est là un point important de la démonstration menée par Berns et Rouvroy : à partir du moment où l’usagèr.e ne parvient pas lui.elle-même à saisir le sens global du choix de son vocabulaire, de l’achat de tel produit ou de la fréquentation de tel lieu, il lui échappe ce qui apparaît avec clarté au datamining. En ces conditions, une quelconque autonomie individuelle de l’internaute est un vœu pieux, celui.celle-ci étant désormais dépécé.e en dividuels30. Si, comme le soutient Lazzarato, le capitalisme échoue à créer lui-même ses modèles subjectifs, on voit pourtant qu’il parvient à voler aux agents actifs d’une résistance aux modèles subjectifs conservateurs et normés les éléments de son renouveau. Au lieu de mouler les subjectivités, il les module. Ce qui signifie que les instruments technologiques qui ont servi à la confection d’une subjectivité grâce à la réappropriation de la parole, de l’image, de la communication et de l’information, sont en réalité les mêmes instruments qui servent à sa capture par les mécanismes de la valorisation capitalistique.
Cette gouvernementalité, qui fonctionnerait sur la base d’une prétendue « cecité des algorithmes », et donc sur une prétendue « objectivité » des données récoltées, a un impact politique réel. D’une part, parce que les algorithmes servent à promouvoir ou à invisibiliser des contenus, qui montent ou descendent dans le page rank sur des critères totalement inconnus aux usagèr.e.s – tous les sujets réputés sensibles pouvant ainsi valoir un déclassement et une invisibilité aux internautes31. D’autre part, car les algorithmes sont utilisés pour influencer directement la vie politique à l’échelle d’un pays, et ceci au point de déstabiliser ses bases démocratiques. Le scandale qui a éclaté en 2018 à propos de l’entreprise britannique Cambridge Analytica, à laquelle Facebook a vendu les données de plus de 87 M d’utilisateurs.trices afin d’orienter l’éléctorat dans un sens favorable à Trump pour les éléctions de 2016, est un clair exemple du pouvoir de nuisance de cette nouvelle gouvernementalité. Alors même que les défenseurs de l’idéologie de la Silicon Valley ne cessent de ressasser le refrain selon lesquel la technologie aurait comme vocation de « remplacer la politique », en rendant caduc l’Etat par nature oppressif, et en se situant au niveau des individus, au service de leur expression et de leur créativité, il y a un vrai projet politique réactionnaire soutenu par les géants du numérique, qui est inspiré par le libertarisme de Ayn Rad et qui vise à remplacer les prérogatives de l’Etat dans les démocraties libérales, grâce à la mise en place d’Etats à la fois ultralibéraux et autoritaires, qui sont susceptibles de réaliser une vision assez claire de la société à venir32.
Le tableau que l’on vient de dépeindre correspond à la manière dont le capitalisme est parvenu à dépasser la crise structurelle et multifactorielle des années 1970 et à se réaffirmer comme une force capable de façonner le social à une échelle désormais mondiale. Le passage d’un capitalisme industriel à un capitalisme post-industriel, loin d’occasionner un allègement des structures d’exploitation et d’ouvrir des brèches contre-hégémoniques à la stéréotypie normative, a ainsi coïncidé avec une mise sous verrous de toute tentative d’autonomie médiatique, réussissant l’exploit de pouvoir compter sur une miriade d’internautes-terminaux qui promeuvent les modèles subjectifs standardisés et prêtent allégeance à ce système d’extraction de plus-value pour en être les bénéficiaires à titre personnel. Les hordes d’influenceur.se.s et d’auto-entrepreneur.se.s qui se sont emparées des réseaux socio-numériques pour réaliser des profits accomplissent de la sorte un « microcapitalisme », en lieu et place d’une « micropolitique » de la libre subjectivité.
III. Articuler les usages de l’internet à un programme politique
Toutefois, il ne peut être question de sombrer dans un « pessimisme de la raison » à la compréhension de ce qui s’est joué avec cette main-basse sur le numérique à l’orée du 21e siècle. Ne pas céder aux sirènes idéologiques de la « société de l’information », calmer son enthousiasme quant à une « ère postmédia », ne signifie pas renoncer aux exigences de démocratie et d’autonomie qui ont animé le combat pour une production alternative de l’information et de la subjectivité, mais seulement évaluer les capacités réelles des forces sociales à modifier radicalement cet état des choses. Les épisodes d’articulation entre révoltes populaires et nouveaux médias qui ont scandé les années 2010, tant au Maghreb (les « printemps arabes », 2010), qu’en Turquie (Gezi Park, 2013), au Brésil (« as jornadas de junho », 2013) ou encore en France (les « Gilets jaunes », 2018), tout comme la création de médias indépendants sur les plateformes numériques pour essayer de contrer une homogénisation de l’opinion favorable à l’extrême-droite (Le Média, Elucid et Blast datent de 2021) montrent que ces exigences sont celles d’une part conséquente du tissu social, et que pour y répondre il devient nécessaire de dessiner des lignes de réflexion et d’action à la hauteur des défis qui sont aujourd’hui les nôtres. Dans cette dernière partie, je tenterai d’en esquisser quelques unes, en prenant le risque de froisser la sensibilité de celles et ceux qui se dressent contre la grammaire politique du « programme » et de la « planification ».
Régulation juridique de l’espace numérique et enjeux démocratiques
Il n’est plus à démontrer que l’État a joué un rôle clé dans la mise en place du capitalisme comme mode de production et comme rapport social de domination : la thèse marxienne de l’« État bourgeois », promulgant des lois pour protéger les intérêts de la classe possédante et matant les révoltes ouvrières à l’aide de ses forces coercitives, se confirme, une fois de plus, au milieu des années 1970, lorsque le capitalisme en crise fait appel aux puissances de l’OCDE pour juguler l’inflation, privatiser les entreprises, flexibiliser l’emploi et restreindre les droits sociaux par une déregulation de l’économie. L’ensemble des mesures connues sous le nom « Consensus de Washington », propulsées par les économistes de l’École de Chicago, montre combien la « raison du moindre Etat », si chère aux tenants du libéralisme, rélève du simple mythe. En ces conditions, imaginer que l’Etat puisse servir de garde-fou à la toute-puissance des géants du numérique, au contrôle algorithmique des données et à l’orientations économique et politique des comportements des usager.è.s des réseaux sociaux, semble pour le moins fantaisiste. Et pourtant, si on s’accorde avec le fait que les pratiques de « détournement » et de « subversion » des usages attendus par le fonctionnement capitaliste des plateformes et des réseaux ne sont pas suffisantes, nous devons réenvisager l’État comme une instance de reconfiguration du paysage médiatique, à la fois en sa qualité d’autorité souveraine en matière de législation et en raison de sa capacité à financer des programmes de recherche et des infrastructures numériques. Dès le début des années 2000, on comprend la nécessité de prendre la mesure des changements en cours en remettant en question l’absence de toute réglementation en ce domaine. Le Sommet mondial sur la société de l’information (SMSI) qui s’est tenu à l’initiative de l’ONU en premier lieu à Genève (2003), puis à Tunis (2005), poursuivait ainsi un double objectif : réduire la « fracture numérique » entre le Nord et le Sud du monde ; et jeter les « bases constitutionnelles de la société de l’information » par la passation d’accords internationaux à propos de la concurrence en ligne, de la protection de la propriété intellectuelle, de la sécurité des citoyen.ne.s et de la garantie des libertés publiques33. Il s’agit, à ce titre, d’une première tentative de poser des bornes à un cyber-espace qui semble décorrelé de la réalité, et agir en conséquence. Les révélations de E. Snowden en 2013 sur la capacité technologique des États-Unis à accéder aux informations des usager.è.s numériques, et même aux informations confidentielles des États, ont servi de catalyseur à une réflexion à l’échelle européenne sur l’importance de se doter de ses propres structures, des data-centers aux logiciels. C’est dans la continuité de cette réflexion qu’est créée en France la DINUM (direction interministérielle du numérique) en 2019, avec l’objectif d’accompagner sur un plan juridique et stratégique les projets numériques de l’État. L’un des projets pilotes a été la création de l’ENT (espace numérique de travail) à destination des élèves, des professeur.e.s et des professionnel.le.s de l’Éducation Nationale : lors de la rentrée scolaire 2020-21, des centaines de milliers d’usager.è.s basculent ainsi des outils et des plateformes numériques des GAFAM (Gmail, Microsoft Office, Adobe, Zoom) aux outils et aux plateformes numériques étatiques et « libres » (Messagerie, Cartes mentales, WebConférence, Peertube). On voit donc que, dans des usages concrets, le spectre d’un contrôle totalitaire des citoyen.ne.s par l’État au moyen des nouvelles technologies laisse place à la compréhension du numérique comme un service public, au même titre que l’école ou l’hôpital, pour lesquels on se bat afin qu’ils ne soient pas délaissés au profit de leur accaparement par le secteur privé. Par ailleurs, que l’État redevienne un agent de régulation de l’espace numérique ne conduit pas nécessairement à rendre impossibles les pratiques contributives des internautes, ni à condamner leur capacité à l’autogestion. Un clair exemple est fourni par le logiciel Decidim (« Décidons »), utilisé pour la première fois en 2016 par la maire de la ville de Barcelone Ada Colau comme réponse aux mécontentements du « Mouvement 15M » à l’encontre des modes opératoires peu démocratiques de la classe politique espagnole et aux revendications de participation à la vie politique. L’adoption de cette plateforme numérique, visant à garantir la participation de tou.te.s les habitant.e.s aux prises de décision municipale, a débouché sur l’élaboration d’un « Plan d’action de la ville et de l’agglomération » avec une transparence quant aux dépenses réalisées et une mutualisation des choix à faire dans l’intérêt général34.
Rendre les finalités sociales explicites
La construction des conditions d’un débat public et de prises de décision collective sur les plateformes numériques par des instances territoriales issues de l’exercice de la démocratie fait signe vers la conquête d’un espace d’autonomie et d’autogestion qui se situe aux antipodes des usages pré-formatés des réseaux et des plateformes propriétaires. Or, dans le contexte de rapide dégradation de notre écosystème social, mental et environnemental, marqué par la montée de l’extrême droite, du racisme et des idées réactionnaires, ainsi que par un effondrement psychique et une catastrophe climatique, il ne faut pas exclure la possibilité de recourir avec plus de systématicité à ces outils contributifs, de manière à établir des systèmes de valorisation non-capitaliste, à dégager des lignes d’action claires et, finalement, à bâtir collectivement un programme politique. Est-ce à dire que la dimension expressive et singularisante des NTIC, ayant largement contribué à la prise de consistance des subjectivités dissidentes et à leur articulation, soit condamnée à disparaître ? Que ce soit dans « Le Capitalisme Mondial Intégré et la révolution moléculaire », article de 1981, ou dans Les trois écologies, rédigé en 1989, Guattari répond négativement à cette question. Il est possible d’envisager les moyens techno-scientifiques dont nous disposons d’une manière radicalement nouvelle par rapport aux outils de concertation et de gestion collective plus classiques, si bien que le « programme » finit par être traversé de part en part par un « diagramme » des subjectivités participant au processus contribuitif. Toutefois, pour que ces « révolutions moléculaires » ne se montrent pas impuissantes face au renouveau de la subjectivité capitalistique et, pire encore, à la destruction des conditions de la vie humaine sur la planète Terre, il faut qu’elles s’articulent avec urgence aux « luttes d’intérêts » qui ont traditionnellement structuré les organisations politiques et syndicales, et dont la marque distinctive est de savoir poser des finalités et énoncer les raisons de les poursuivre : « Telle est la question essentielle. Faute d’une telle articulation, toutes les mutations de désir, toutes les révolutions moléculaires, toutes les luttes pour des espaces de liberté ne parviendront jamais à embrayer sur des transformations sociales et économiques à grande échelle »35. Par-delà la primauté des luttes de désir sur les luttes d’intérêt dans les textes de Guattari, par-delà le maintien d’une exigence non dialectique, non antagoniste et passionnément dissensuelle - le consensus transformant irrémédiablement le « groupe-sujet » en « petits soldats de la révolution » -, il semblerait que les positions soient nettement moins tranchées lorsqu’il s’agit de répondre concrètement aux défis de l’écologie sociale et de l’écologie politique. Ainsi, la perspective micropolitique « n’exclut pas totalement la définition d’objectifs unificateurs, tels que la lutte contre la faim dans le monde, l’arrêt de la déforestation ou la prolifération aveugle des industries nucléaires »36. Nous pensons que des usages autonomes des plateformes et des réseaux numériques impliquent l’ouverture d’espaces médiatiques de discussion sur les débats de société les plus pressants – donc un droit de regard citoyen sur les algorithmes ; qu’ils soient consacrés à modeliser les données qui nous permettent de saisir la criticité d’une situation à l’échelle d’une ville, d’un territoire, d’un écosytème (les logements insalubres, la déperdition d’énergie des bâtiments, le manque d’eau) ; mais aussi à identifier les orientations de société que nous devons prendre (mesurer le bilan carbone de nos consommations, lutter contre l’homophobie, aménager des espaces verts dans un quartier), à planifier les étapes de la décroissance économique et donc à contrer, autant que faire se peut, les effets passés et à venir d’un capitalisme anthropocénique qui stratifie le tissu social dans un sens contraire à la construction des communs.
CONCLUSION
La proximité entre l’hypothèse postmédiatique de Guattari et celle d’une « société de l’information », faisant le lit aux théories technolibérales et rendant acceptables les nouvelles modalités d’extraction de plus-value ainsi que les rapports sociaux violents qui en découlent, constitue un vrai problème. Dans cet article, nous avons tâché de rendre raison de ce qui a historiquement motivé un tel engouement, avant de montrer que les NTIC répondent, de fait, à une logique de valorisation capitalistique, et comportent à ce titre des limites sérieuses à l’existence des pratiques autonomes du point de vue de la production de l’information et du point de vue de la production de la subjectivité. Affirmer qu’il est nécessaire de saisir le degré d’autonomie de ces pratiques à l’aune du rôle de régulateur et de fournisseur de l’Etat et à l’aune de l’explicitation des finalités sociales qu’on doit se donner collectivement revient à énoncer les conditions d’une ère post-média non-capitaliste et post-croissance. Dans les coordonnées qui sont les nôtres, le maintien de pratiques postmédiatiques peut s’avérer utile afin de fournir des solutions originales et innovantes aux problèmes que nous affrontons en tant que terrestres, puisant dans la diversité des expériences de tout.e un.e chacun.e et dans la capacité de riposte créative des collectifs. Cependant, sans une articulation à des objectifs clairement identifiés, le risque de l’impuissance politique est fort élévé.