Santé : les industries du clic, de l'IA et du bien-être fabriquent des consommateurs anxieux, par Jean-Pierre Thierry
Jamais l'espérance de vie n'a été aussi longue, ni les progrès médicaux aussi rapides - et pourtant notre rapport à notre propre santé semble se dégrader. Ce paradoxe n'est pas entièrement nouveau. La surmédicalisation, portée par les acteurs traditionnels du système de santé, est déjà dénoncée (jusqu'à 20 % des dépenses de santé seraient inefficaces ou gaspillées selon l'OCDE). Mais trois industries ont trouvé dans l'anxiété liée à la santé un gisement de profit considérable et pourraient amplifier ce phénomène à une échelle inédite.
L'industrie de l'attention d'abord, dont le modèle repose sur le clic. La peur fait lire ; la médiatisation anxiogène génère du trafic viral. Les géants de l’intelligence artificielle (IA) ensuite. OpenAI, Google, Apple : tous ont investi pour devenir nos interlocuteurs médicaux. Plus nous nous surveillerons, plus nous générerons de données monétisables. L'industrie du bien-être enfin — automesure, analyses en accès direct, médecines alternatives, compléments alimentaires. Elle prospère sur l'espace entre l'anxiété créée et le besoin médical réel.
Les intérêts de ces industries convergent : toutes ont besoin d'une population qui doute de sa santé.
La fabrique médiatique du risque
Les études épidémiologiques ont accompli des progrès considérables. Mais leur médiatisation a transformé de modestes corrélations en source d'anxiété permanente. Les fake news surmédicalisent à la marge. L'information scientifique mal contextualisée surmédicalise à grande échelle — précisément parce que sa source est légitime.
Le mécanisme repose sur la confusion entre risque relatif et risque absolu. Une étude observe qu'un aliment augmente le risque d'une maladie de 50 %. Le chiffre fera un excellent titre. Mais si le risque de base est de 4 pour 1 000, une augmentation de 50 % le porte à 6 pour 1 000. Sur un million de consommateurs, cela représente 2 000 cas supplémentaires — donnée pertinente pour les autorités sanitaires. Mais pour chaque individu, le risque passe de 0,4 % à 0,6 % : il reste infime. Le titre proclamera pourtant : « Cet aliment augmente votre risque de 50 % ». Des millions de lecteurs s'alarmeront — alors que 994 d'entre eux sur 1 000 n'auraient jamais développé la maladie en question.
Ces études ne permettent en effet que rarement d’affirmer l’existence d’un lien de cause à effet. Les biais de confusion — des facteurs tiers non considérés mais rarement discutés dans la médiatisation des résultats — expliquent pourquoi le café est bon, puis mauvais, puis bon à nouveau. Cette cacophonie génère une anxiété diffuse, le sentiment que tout devient dangereux.
Il faut rétablir une distinction essentielle, que la médiatisation efface : celle entre facteurs de risque établis (tabagisme, alcoolisme, sédentarité — causalité démontrée, risque élevé) et associations statistiques modestes (risques faibles, pertinents pour les politiques publiques mais négligeables au niveau individuel). C'est le « paradoxe de la prévention »: ce qui bénéficie à la population n'apporte presque rien à chacun. Pire, quand elle prend la forme d'une médiatisation anxiogène, la communication sur les risques faibles pourrait devenir préjudiciable.
L'IA : un médecin de poche qui ne rassure pas
Sur ce terreau, les géants de la technologie investissent massivement. En quelques mois, les IA conversationnelles sont devenues un réflexe pour des millions d'utilisateurs. OpenAI revendique 230 millions de requêtes santé par semaine dans le monde. En France, les médecins généralistes constatent déjà que leurs patients arrivent en consultation après avoir interrogé ChatGPT. Les Anglais ont récemment introduit le concept de « triadic care » — une relation de soin à trois entre le clinicien, le patient et l'IA. Pour les usagers, ces outils amplifient l'anxiété par leur disponibilité permanente et génèrent des biais de confirmation : entraînés à satisfaire l'utilisateur, ils tendent à valider ses inquiétudes. C'est ce que les chercheurs appellent la "complaisance algorithmique", soit la propension des IA à dire ce que l'utilisateur souhaite entendre plutôt qu'à le contredire.
Or le modèle économique devrait reproduire celui des réseaux sociaux. OpenAI a lancé ChatGPT Santé en même temps qu'il annonçait l'ouverture à la publicité. L’entreprise assure que ChatGPT Santé est pour l’instant protégé de la publicité directe. Cependant, la pression financière colossale, les fuites sur les discussions internes et surtout la présence d’une dizaine de partenaires commerciaux, suggèrent que ces garde-fous pourraient évoluer. Une IA financée par la publicité risquerait de n'avoir aucun intérêt à rassurer. Les algorithmes d'engagement amplifient ce biais en favorisant les contenus qui suscitent des réactions émotionnelles intenses.
L'économie de l'attention prospère sur l'inquiétude. Et l'inquiet d'hier devient l'utilisateur d'IA d'aujourd'hui. D'une industrie à l'autre, l'anxiété se renforce.
L'industrie du bien-être : les profiteurs de l'anxiété
L'industrie du bien-être et de l'automesure n'a pas besoin de créer l'anxiété pour conquérir des clients : les médias et les IA s'en chargent. Elle se contente de capter les consommateurs rendus anxieux.
Le « Direct to Consumer », venu des États-Unis, contourne le filtre médical traditionnel et cible deux publics. D'abord les « worried well » — ces bien-portants inquiets qui en ont les moyens en l’absence de remboursement par l’Assurance Maladie. En France, une société comme Zoī propose des bilans annuels pour des tarifs allant de 980 euros par an (formule Pulse, 96 biomarqueurs) à 3 600 euros par an (formule Life, 145 biomarqueurs et 4 examens d'imagerie). Aux États-Unis, Function Health qui a levé 298 millions de dollars en novembre 2025 (valorisée actuellement à 2,5 milliards) propose des bilans incluant plus de 160 biomarqueurs et une IRM corps entier de dépistage pour 499 $. Caractéristique commune aux offres française et américaine : aucune n'a été validée par une agence sanitaire indépendante. Ni la Haute autorité de santé en France, ni l'USPSTF aux États-Unis ne recommandent ce type de dépistage chez les personnes asymptomatiques.
Dans les études publiées, 95% des personnes asymptomatiques dépistées par IRM corps entier présentent au moins une anomalie. Parmi elles, seules 1 à 1,5% correspondent à un cancer confirmé — les autres déclenchent une cascade d'examens complémentaires, de biopsies et d'anxiété pour des anomalies bénignes ou sans signification clinique. Plus problématique encore : une partie des cancers ainsi détectés sont des tumeurs de bas grade, à évolution lente, qui n'auraient probablement jamais menacé la santé du patient, mais qui conduisent à des traitements lourds et à leurs effets secondaires — c'est le surdiagnostic et le surtraitement.
Fait notable, Function Health, dont le cofondateur et directeur médical gère un business parallèle de vente de 500 compléments alimentaires, a signé un partenariat avec… ChatGPT. La multiplication des tests assure que le bilan sortira un minimum de réponses anormales, parmi lesquelles de nombreux « faux positifs », mais qui pourront éventuellement justifier la prise de compléments alimentaires.
Autre symptôme de ces tendances, les objets connectés grand public. L'Apple Watch réalise des électrocardiogrammes ; Withings propose l'analyse d'urine à domicile. Ces dispositifs sont autorisés à la vente, mais aucune agence d'évaluation n'a encore établi qu'ils améliorent les résultats de santé en population générale. En revanche, les études montrent que 15 % des utilisateurs de montre connectée ressentent de l'anxiété.
Une publication récente menée auprès de patients atteints de fibrillation auriculaire montre que les utilisateurs de montres connectées présentent des taux significativement plus élevés d’anxiété symptomatique et de surveillance obsessionnelle de leur rythme cardiaque débouchant sur une augmentation du nombre des consultations, voire d’interventions dont la pertinence n’est pas toujours démontrée. Des personnes en bonne santé peuvent également solliciter des rendez-vous médicaux, par exemple des sportifs constatant une fréquence cardiaque basse pendant le sommeil alors qu'il s'agit d'une adaptation normale à l'entraînement.
Les répercussions attendues sur le système de soins
Le premier effet de ces nouvelles tendances sur le système de soins ? La saturation des cabinets des médecins généralistes. Or une consultation motivée par l'anxiété excessive est une consultation retardée pour un malade ayant un réel problème de santé. Avant l’arrivée de l’IA conversationnelle, une étude anglaise avait montré en 2011 que près d'un patient sur cinq en consultation spécialisée (cardiologie, pneumologie, neurologie, endocrinologie, gastro-entérologie) présentait une anxiété excessive liée à la santé , un phénomène que les auteurs attribuent à la "cyberchondrie", l'usage compulsif d'Internet pour l'autodiagnostic. Une étude récente confirme que la consultation de "Dr. Google" prédit directement des niveaux plus élevés d'anxiété liée à la santé, la littératie en santé jouant un rôle protecteur dans cette relation. Si la recherche classique sur Internet a suffi à augmenter la prévalence de l'anxiété liée à la santé, on peut raisonnablement craindre que ces nouveaux outils — conçus précisément pour être plus engageants et plus convaincants — n'accélèrent encore cette tendance.
Ensuite, cette évolution invisibilise les populations réellement à risque : les 20 % de Français qui boivent 80 % de l'alcool vendu dans notre pays, les gros consommateurs d'aliments ultratransformés, les travailleurs exposés. Ceux-là ne prendront pas d'abonnements à des dépistages non remboursés. Ils resteront dans un angle mort pendant que le système s'épuisera à rassurer ceux qui n'en ont pas besoin.
Plus fondamentalement, la santé se définit classiquement comme "le silence des organes". Cette définition, reprise par le philosophe Georges Canguilhem, souligne que la santé se caractérise par l'oubli du corps. L'automesure permanente brise ce silence en imposant une attention constante à ce qui devrait rester imperceptible. Cette hypervigilance peut transformer le corps sain en objet de surveillance, et chaque variation physiologique normale en signal d'alarme potentiel. Contrairement au médecin qui rassure en contextualisant, l'IA complaisante risque de conforter l'anxieux dans ses craintes. L'homme qui vérifie sa fréquence cardiaque dix fois par jour n'est pas en meilleure santé ; il risque d'être en moins bonne santé perçue. De surcroît, l'anxiété chronique n'est pas sans conséquences : elle dégrade la qualité de vie, perturbe le sommeil, et s'associe à un risque accru de troubles psychiques. L'explosion de l'anxiété des "cyberchondriaques" pourrait être plus pathogène que les petits risques que cette surveillance permanente prétend conjurer.
L'urgence d'un débat
La critique ne porte pas sur la prévention — celle-ci reste un acquis majeur quand elle cible des risques avérés dans des populations identifiées et mobilise des pratiques validées. Elle porte sur sa dérive commerciale : la transformation de bien portants en consommateurs anxieux au nom d'une « prévention » qui n'en a que le nom.
Résister ne signifie pas rejeter les outils numériques de santé. Certains ont une utilité démontrée pour les diabétiques, les insuffisants cardiaques ou le suivi oncologique. Les montres connectées pourraient être utiles pour des patients identifiés — mais leur usage mérite d'être discuté avec leur médecin, qui peut aider à déterminer si le bénéfice attendu l'emporte sur le risque d'anxiété induite. Aussi, le potentiel de l’IA ne doit pas être sous-estimé et la résistance ne doit pas servir à défendre un modèle paternaliste qui freinerait le développement de la littératie en santé et l’autonomie des personnes malades et des usagers.
Résister signifie refuser que ces outils deviennent des instruments de surveillance généralisée des bien portants pour les transformer en consommateurs aveugles. Résister signifie exiger que les ressources collectives soient orientées vers ce qui fonctionne : soigner les malades, prioriser les facteurs de danger avéré, financer l’innovation validée et efficace. A titre individuel, c'est aussi réapprendre la bonne vie — ne pas passer sa vie à se demander de quoi et quand on va mourir alors qu'on est encore en bonne santé. Il s’agit donc de commencer par promouvoir ce qui fonctionne réellement : l'activité physique régulière, la lutte contre la sédentarité, une alimentation limitant les produits sucrés et ultratransformés, l'absence de tabac et une consommation modérée d'alcool. Ces comportements, validés par des décennies de recherche, protègent bien plus efficacement la santé à long terme que l'automesure permanente.
Après les réseaux sociaux, ce sont les mêmes logiques mercantiles et le même rapport de force qu'il faudra vraisemblablement affronter. Faute d'anticipation, une IA conversationnelle mal régulée et des entreprises de "bien-être" sans obligation de résultat capteront la valeur — abonnements, données, publicité — et laisseront à la collectivité la charge de rassurer, d'explorer, de soigner l'anxiété qu'elles auront contribué à créer. Dans un pays où six millions de personnes n'ont pas de médecin traitant et où l'attente pour consulter un spécialiste peut atteindre plusieurs mois, tarder à réagir, c'est prendre le risque d'attendre encore plus longtemps quand nous serons réellement malades.
Comment réguler les IA conversationnelles en santé sans brider l'innovation ? Faut-il conditionner les bilans en accès direct à une validation scientifique indépendante ? Peut-on enseigner la littératie médicale dès l'école ? Ces questions méritent d'être rapidement posées publiquement, avec les professionnels de santé, les patients et usagers, les régulateurs et les industriels.
* Jean-Pierre Thierry est médecin de santé publique et conseiller médical de France Assos Santé. Il s'exprime à titre personnel.