Les utilisateurs qui cherchent des conseils médicaux via Google découvrent d’abord des résumés IA sans avertissement visible. Le disclaimer de sécurité n’apparaît que derrière un clic caché, en police minuscule. Une architecture jugée dangereuse par les experts, qui expose les patients à des informations erronées sans friction critique initiale.
Le problème : disclaimers retardés et dégradés
Google ne place aucun avertissement sanitaire lors de la présentation initiale des conseils médicaux dans ses AI Overviews, les résumés générés automatiquement en haut des résultats de recherche.
L’avertissement n’apparaît que si l’utilisateur clique sur un bouton « Show more ». Il s’affiche alors en bas du contenu, en police minuscule et gris clair. Le texte exact : « This is for informational purposes only. For medical advice or a diagnosis, consult a professional. AI responses may include mistakes. »
La réponse de Google
Google reconnaît l’existence de ces avertissements. Selon un porte-parole, les AI Overviews « encouragent les gens à chercher des conseils médicaux professionnels » et « mentionnent souvent la nécessité de consulter un professionnel directement dans le résumé initial, le cas échéant ».
Cette justification repose sur la présence d’une mention textuelle en ligne. Elle ne résout pas l’enjeu central : cette mention suffit-elle à créer une friction critique face aux informations affichées, comparée à un avertissement structuré et mis en avant ?
Comment fonctionne AI Overviews en matière de santé
Lorsqu’un utilisateur formule une requête médicale, Google affiche immédiatement un résumé textuel généré par IA en haut de la page, avant tout résultat traditionnel.
Pour la majorité des utilisateurs qui lisent rapidement ou survolent l’écran, le seul contenu visible est ce résumé initial, sans indication que c’est une synthèse informatique ni que la technologie peut générer des erreurs.
Le mécanisme incite à une acceptation rapide de l’information au lieu d’une vérification approfondie. Seul un clic supplémentaire — action que beaucoup d’utilisateurs ne font pas — révèle les limitations technologiques.
Ce que disent les experts
Les chercheurs et défenseurs des patients alertent sur le risque comportemental créé par cette architecture.
Pat Pataranutaporn (MIT), assistant professeur en interaction IA-humain, souligne que l’absence de disclaimers lors de la présentation initiale crée plusieurs dangers :
Même les modèles d’IA les plus avancés génèrent encore des hallucinations ou un comportement de complaisance qui privilégie la satisfaction de l’utilisateur sur l’exactitude. Dans un contexte sanitaire, cela peut être véritablement dangereux.
Gina Neff (Queen Mary University of London), professeure d’IA responsable, identifie un problème de conception fondamental :
Les AI Overviews sont conçues pour la rapidité, non pour l’exactitude, et cela conduit à des erreurs d’information médicale, qui peuvent être dangereuses. Google oblige les utilisateurs à cliquer avant de trouver le moindre disclaimer.
Sonali Sharma (Stanford), chercheuse en IA appliquée à la médecine, pointe la fausse impression de fiabilité :
La position des AI Overviews en haut de la page crée une impression de fiabilité qui décourage l’utilisateur d’explorer d’autres sources. Les AI Overviews contiennent souvent des informations partiellement exactes et partiellement incorrectes, ce qui rend très difficile de distinguer ce qui est juste de ce qui ne l’est pas.
Tom Bishop (Anthony Nolan), responsable de l’information aux patients, formule une recommandation opérationnelle directe :
J’aimerais que ce disclaimer soit en haut de la page. J’aimerais que ce soit la première chose qu’on voit. Idéalement, la taille de la police devrait être la même que tout le reste du texte, pas quelque chose de petit et facile à ignorer.
L'argument défensif de Google face à la psychologie cognitive
Google reconnaît la structure décrite. Sa stratégie repose sur deux points : la technologie n’est jamais présentée comme substitut à une consultation professionnelle, et des mentions explicites recommandant de consulter un professionnel existent dans le résumé initial.
Cependant, une question de design émerge. Une mention textuelle inline joue-t-elle le même rôle qu’un avertissement structuré, visuellement séparé et placé avant le contenu ? Les chercheurs en psychologie cognitive répondent généralement non. Un avertissement dégradé visuellement, placé sous le contenu principal et en police minuscule ne produit pas le même effet de friction cognitive qu’un bloc mis en avant avant la consommation du contenu.
Contexte : les scandales antérieurs et la réaction partielle de Google
En janvier 2026, le Guardian avait révélé que les utilisateurs risquaient d’être exposés à des informations sanitaires fausses et trompeuses via AI Overviews. Google avait annoncé la suppression de la fonctionnalité pour certains types de requêtes médicales, sans détailler lesquelles ni pour combien de temps.
Le reportage de février 2026 approfondit le problème : les AI Overviews continuent de fonctionner sur de nombreuses requêtes de santé, et l’architecture des disclaimers demeure problématique. La réaction partielle de Google ne résout donc pas le problème structurel affectant les domaines où la fonctionnalité reste active.
Enjeu réglementaire et prochaines étapes
Les organisations de défense des patients et les chercheurs en IA responsable appellent implicitement à une intervention réglementaire.
Cadre réglementaire potentiel
Aux États-Unis, la Federal Trade Commission pourrait examiner la question sous l’angle des pratiques déloyales et de la protection des consommateurs. En Europe, la loi sur l’IA et le RGPD s’appliqueraient, notamment si des données de santé sont traitées.
Recommandations d'experts
Les experts proposent une réévaluation du design : placer le disclaimer en avant, en haut de page, avec une police standard, aussi visible que le contenu principal. Pour certains régulateurs et défenseurs, la solution la plus directe serait de supprimer AI Overviews du domaine de la santé jusqu’à ce que la technologie et son interface atteignent un niveau de fiabilité documenté.
Prochaines étapes
Google a démontré sa capacité à modifier son fonctionnement lors des suppressions de janvier 2026. La question demeure : acceptera-t-il de repenser l’architecture des disclaimers, ou faudra-t-il une intervention externe pour imposer un changement ?
FAQ
Où Google place-t-il ses avertissements sanitaires dans AI Overviews ?
Les disclaimers n’apparaissent que derrière un clic « Show more » et s’affichent en bas de page, en police réduite et gris clair.
Pourquoi cette architecture est-elle dangereuse pour les requêtes médicales ?
Elle crée une acceptation rapide de l’information sans friction cognitive, avant que l’utilisateur ne voie tout avertissement. Les experts soulignent qu’une mention textuelle inline n’équivaut pas à un avertissement structuré et mis en avant.
Quelles modifications les experts demandent-ils ?
Un disclaimer visible dès le premier affichage, en haut de page, police standard, aussi saillant que le contenu principal.
Google a-t-il agi suite aux critiques antérieures ?
En janvier 2026, Google a supprimé AI Overviews pour certaines requêtes médicales, mais sans détails publics ni couverture systématique des domaines sensibles.
Quels régulateurs pourraient intervenir ?
Aux États-Unis, la FTC pourrait examiner la question sous l’angle des pratiques déloyales. En Europe, la loi sur l’IA et le RGPD s’appliqueraient, en particulier si des données de santé sont traitées.










