Depuis les travaux pionniers d’Herbert Simon, qui définissait l’attention comme une ressource rare dans un monde saturé d’informations, l’économie de l’attention s’est imposée comme une grille de lecture essentielle pour comprendre les mutations contemporaines des médias, de la culture et des comportements sociaux. Dans une société où les données personnelles, les algorithmes et la captation de l’attention sont devenus les piliers de la rentabilité numérique, il ne s’agit plus seulement de vendre des produits, mais de façonner les désirs, les affects et les manières d’être.
L’attention comme marchandise : genèse d’un modèle
Hartmut Rosa, dans Accélération. Une critique sociale du temps , montre comment la modernité tardive repose sur un triple processus d’accélération : technique, sociale et du rythme de vie. Cette dynamique, au cœur du capitalisme contemporain, produit un état d’instabilité structurelle, où rien ne peut durer, s’approfondir ou être véritablement habité. L’économie de l’attention, telle qu’analysée par des auteurs comme Yves Citton ou Shoshana Zuboff, s’inscrit pleinement dans cette logique : elle instrumentalise l’attention comme ressource rare, fragmente le temps mental, et convertit la disponibilité psychique en valeur marchande. Elle favorise ainsi un mode de vie ultra-connecté, mais paradoxalement désaffecté, où les relations au monde sont réduites à des interactions fonctionnelles et éphémères. La marchandisation de l’attention repose sur une économie qui inverse les logiques classiques du marché. Ce ne sont plus les consommateurs qui achètent des biens, mais les entreprises qui achètent l’attention des consommateurs. Les grandes plateformes numériques (Google, Meta, TikTok…) sont devenues les architectes d’un modèle extractif où chaque clic, chaque pause sur une image ou chaque scroll est capté, analysé, monétisé. Shoshana Zuboff parle à juste titre de « capitalisme de surveillance », où l’anticipation algorithmique des comportements transforme l’attention humaine en ressource brute, prédictive et monétisable. Dans cette logique, la valeur n’est plus dans le contenu en soi, mais dans sa capacité à retenir l’individu le plus longtemps possible dans l’écosystème de la plateforme.
Une architecture de la captation : entre orientation comportementale et addiction
Les formes les plus insidieuses de manipulation exploitent notre fonctionnement cognitif de manière quasi invisible. Le web repose sur un principe fondamental : l’économie de l’attention. Or, l’attention humaine étant limitée, il devient crucial pour les plateformes, les publicitaires ou les acteurs politiques de la capter et de la retenir. Pour ce faire, les interfaces sont conçues pour jouer sur des biais cognitifs : le biais de confirmation (nous cherchons à confirmer ce que nous croyons déjà), le biais de disponibilité (ce qui est le plus visible semble le plus vrai), ou encore le biais d’ancrage (la première information rencontrée influence notre jugement final). Ces biais sont amplifiés par le design persuasif : couleurs vives, notifications rouges, contenus courts et séquentiels, incitations constantes à cliquer ou à partager. Ainsi, la manipulation cognitive consiste à fabriquer du consentement implicite, en saturant l’espace mental de contenus qui empêchent la réflexion critique. Ce façonnage ne laisse pas intacte la psyché des individus. Il génère une instabilité attentionnelle chronique, une fragmentation du temps mental, une difficulté croissante à se concentrer ou à penser en profondeur. Ce que Matthew Crawford appelle la « crise de l’attention » est aussi une crise de la liberté intérieure : quand l’attention est constamment détournée, la capacité d’autodétermination en souffre.
Un pouvoir social invisible : l’économie de l’attention comme biopolitique
En influençant les flux attentionnels, ce modèle impose un pouvoir diffus mais massif sur les comportements collectifs. Loin d’être neutres, les algorithmes agissent comme des agents de socialisation. Ils sélectionnent ce qui devient visible, pertinent, désirable. Ils orientent les émotions, structurent les débats publics, génèrent des bulles cognitives, exacerbent les polarités. Cette gouvernance algorithmique, souvent opaque et déterritorialisée, prend la forme d’une biopolitique douce : au lieu de contraindre par la force, elle façonne les conduites à travers des architectures de l’expérience. Loin de la simple manipulation publicitaire, il s’agit ici d’un pouvoir de type foucaldien, qui agit à travers la production de normes, de récits et de subjectivités.
L’exploitation émotionnelle : agir par le sentiment plutôt que par la raison
La manipulation émotionnelle est omniprésente dans les contenus numériques, car les émotions sont plus rapides que les raisonnements et engendrent des réactions plus immédiates. Les plateformes valorisent les contenus qui suscitent des affects forts : indignation, peur, excitation, compassion ou haine. Les logiques virales reposent sur une polarisation émotionnelle. Les infox (ou fake news) en sont un bon exemple : plus une information est choquante, plus elle se diffuse rapidement, qu’elle soit vraie ou non. Cela favorise une forme de « court-circuit émotionnel » : l’internaute partage sans vérifier, sous l’effet d’un choc ou d’une émotion. Les campagnes de désinformation en ligne, souvent orchestrées par des États ou des groupes idéologiques, mobilisent précisément ces ressorts : diffuser des récits qui flattent l’indignation ou la peur pour consolider un camp ou affaiblir la confiance dans l’autre.
La manipulation algorithmique : invisibiliser le biais sous couvert de neutralité
Les algorithmes de recommandation, bien que présentés comme neutres et objectifs, ont une fonction performative : ils orientent nos lectures, nos relations, nos opinions. Les bulles de filtres et les chambres d’écho algorithmiques enferment les utilisateurs dans des environnements cognitifs homogènes. On y voit renforcées ses croyances plutôt que challengées. Cela crée une illusion de majorité (« tout le monde pense comme moi ») et facilite la manipulation idéologique. Le contenu extrême est privilégié, car il suscite davantage d’engagement. Des groupes radicaux exploitent cette logique pour recruter ou faire progresser leurs idées. La manipulation est d’autant plus efficace qu’elle est structurelle : elle n’est pas le fait d’un individu, mais du fonctionnement même des plateformes.
La manipulation discursive : façonner le réel par le langage
Une autre forme de manipulation repose sur la construction discursive du réel. Il ne s’agit pas simplement de mentir, mais de reformuler, de reformater la réalité. Les récits jouent ici un rôle fondamental. En ligne, ce ne sont pas les faits bruts qui comptent, mais la manière dont ils sont mis en récit : qui parle ? à qui ? avec quelles émotions, quels symboles, quelles références culturelles ? Les théories du complot, par exemple, offrent une forme narrative séduisante : elles simplifient un monde complexe, identifient un ennemi clair, et donnent le sentiment de savoir ce que « les autres ignorent ». De même, le framing (ou cadrage) consiste à orienter la lecture d’un fait en modifiant les mots : parle-t-on de « résistants » ou de « terroristes » ? de « réforme » ou de « casse sociale » ? La manipulation discursive consiste donc à définir les termes du débat, à imposer une grille d’interprétation, souvent à travers de faux experts, des citations décontextualisées ou des statistiques biaisées.
La manipulation sociale : la foule comme levier d’influence
Dans les environnements numériques, l’influence ne se déploie pas uniquement par des messages directs. Elle repose aussi sur des dynamiques sociales implicites. Le nombre de likes, de partages, de commentaires donne l’impression qu’un contenu est crédible, populaire ou légitime. C’est l’effet de « preuve sociale ». Des stratégies comme l’astroturfing (faire croire à un soutien populaire fictif) ou le botting (multiplication de faux comptes) exploitent cela pour faire monter artificiellement des idées, des causes ou des personnes. Il devient difficile de distinguer un mouvement authentique d’une stratégie coordonnée de manipulation sociale. Par ailleurs, la manipulation peut passer par des campagnes de harcèlement coordonnées : réduire au silence une voix critique, intimider, ou dissuader de parler. Ici, c’est la peur du rejet ou de la violence symbolique qui agit comme levier.
La manipulation identitaire : forger des récits tribaux
Enfin, l’un des leviers les plus puissants de manipulation en ligne est identitaire. Il repose sur la segmentation des publics : chaque utilisateur reçoit des contenus adaptés à ses croyances, ses valeurs, son profil psychologique. Cela permet de construire des récits qui parlent à « nous » contre « eux », en activant les mécanismes tribaux de l’appartenance. Les algorithmes amplifient cette dynamique : en isolant les groupes, ils renforcent les croyances internes, les radicalisent parfois. Les identités se rigidifient autour de récits mythiques, de figures héroïques ou ennemies, et de discours simplificateurs. Les plateformes deviennent alors les scènes d’un affrontement symbolique, où chacun cherche moins à convaincre qu’à affirmer sa loyauté à un camp.
Vers une écologie de l’attention : alternatives et résistances
Face à cette captation permanente, Rosa ne propose pas une déconnexion technophobe, mais une réorientation qualitative de notre attention. Là où les plateformes numériques sollicitent une attention dispersée, passive et réactive, la résonance suppose une attention longue, incarnée, et orientée vers la transformation. Résister à l’économie de l’attention, c’est donc : revaloriser le silence, la lenteur, la contemplation, conditions de possibilité d’une résonance authentique ; favoriser des expériences non-instrumentales : écouter une musique sans l’interrompre, marcher sans but, lire lentement, dialoguer réellement ; refonder les institutions sociales (école, travail, art, spiritualité) non sur la performance, mais sur leur capacité à susciter des relations résonantes. Loin d’être un simple idéal romantique, la résonance devient ainsi un critère normatif pour évaluer la qualité des rapports au monde que nos sociétés produisent.
Rosa insiste sur le fait que la résonance n’est pas un état intérieur, mais une relation médiée socialement. Elle a donc une portée politique. Imaginer des politiques de la résonance, c’est travailler à : désintensifier les systèmes qui sursollicitent l’attention (via des régulations des algorithmes ou des temps de connexion) ; créer des espaces publics propices à la rencontre, au dialogue non marchandisé (médiathèques, lieux de culte, espaces naturels protégés…) ; renouveler les récits collectifs qui valorisent l’attention, l’écoute, la lenteur, plutôt que la vitesse et la performance. Ces dimensions rejoignent les luttes écologiques, les initiatives de décroissance, et les expérimentations sociales issues de mouvements comme le solarpunk ou l’éducation lente, qui cherchent à construire un monde plus résonant.
Conclusion
La manipulation en ligne ne relève pas de l’exception, mais du mode de fonctionnement systémique des environnements numériques. Elle ne suppose pas nécessairement un agent manipulateur identifiable : elle émerge des logiques économiques (attention, clics, engagement), des techniques algorithmiques (tri, personnalisation), et des vulnérabilités psychologiques et sociales humaines. Résister à ces manipulations suppose plus qu’une simple vérification des faits : cela exige une éducation à la complexité, une conscience critique des mécanismes de pouvoir, et une redéfinition collective des normes de vérité, de débat et de narration. Le concept de résonance proposé par Hartmut Rosa offre une boussole pour résister à l’économie de l’attention. Il ne s’agit pas d’une simple posture défensive, mais d’une reconstruction active de notre rapport au monde, guidée par le désir de relation vivante, de transformation mutuelle et de profondeur. Contre la logique de l’instantané, de la captation et du zapping, Rosa nous invite à réapprendre à écouter, répondre, habiter le monde. C’est là, peut-être, la véritable révolution attentionnelle : retrouver la capacité d’entrer en résonance avec ce qui nous entoure.
Sources :
Psychologie cognitive :
Kahneman sur les biais et heuristiques
Tversky sur les effets d’ancrage et de cadrage.
Sociologie des médias :
McChesney et Nichols sur la désinformation organisée
Tufekci sur la manipulation algorithmique
Harcourt. La société d’exposition. Désir et désobéissance à l’ère numérique
Philosophie politique :
Chomsky et Herman sur la fabrication du consentement
Byung-Chul Han sur la société de la transparence
Citton. L’économie de l’attention. Nouvel horizon du capitalisme ?
Rosa :
- Résonance. Une sociologie de la relation au monde
- Accélération. Une critique sociale du temps
- Rendre le monde indisponible
Science des données :
O’Neil sur les algorithmes comme « armes de destruction mathématique ».
Études critiques de l’internet :
Zuboff L’Âge du capitalisme de surveillance.