
Google abandonne discrètement une fonctionnalité d'IA offrant des conseils de santé participatifs
Cette décision intervient alors que le géant technologique fait face à un examen minutieux croissant concernant la fiabilité des informations médicales générées par l'intelligence artificielle.

Google a discrètement mis fin à une fonctionnalité de recherche expérimentale basée sur l'IA qui recueillait des conseils de santé issus de conversations en ligne, un changement qui intervient au milieu d'un examen croissant de l'utilisation de l'IA par l'entreprise pour les informations médicales.
La fonctionnalité, surnommée « Ce que les gens suggèrent », visait à condenser les expériences liées à la santé partagées par les internautes et à les afficher à côté des résultats de recherche standard. Selon Google, le système exploitait l'IA pour passer au crible les commentaires et discussions éparpillés sur le web, les transformant en de brefs résumés destinés à éclairer la manière dont les personnes atteintes de conditions similaires gèrent leurs symptômes ou les défis quotidiens.
Cela dit, l'outil a maintenant été mis de côté. Une poignée d'initiés familiers avec le dossier ont confirmé que la fonctionnalité n'est plus active, et un porte-parole de Google a reconnu son arrêt.
L'entreprise a présenté cette décision comme faisant partie d'un effort plus large visant à rationaliser la présentation de ses résultats de recherche – pas nécessairement une réaction aux préoccupations de sécurité.
Lors de son lancement, Google avait présenté cette fonctionnalité comme un moyen pour l'AI d'élargir l'accès aux informations de santé en mélangeant des témoignages réels et des avis d'experts. L'idée reposait sur la notion que les patients recherchent souvent à la fois des conseils professionnels et des astuces d'autres personnes confrontées aux mêmes problèmes.
Prenez l'arthrite, par exemple : une personne effectuant une recherche aurait pu tomber sur des résumés montrant comment d'autres patients discutaient des régimes d'exercices ou des mécanismes d'adaptation dans les forums en ligne.
Initialement, l'outil est apparu dans les résultats de recherche mobiles aux États-Unis.
Son retrait intervient à un moment où les entreprises technologiques sont soumises à une pression croissante pour garantir l'exactitude des contenus générés par l'IA – en particulier dans des domaines sensibles comme la santé, où des conseils trompeurs peuvent avoir de graves conséquences.
Plus tôt cette année, The Guardian a révélé que certains utilisateurs avaient été exposés à des informations de santé inexactes ou potentiellement risquées produites par les résumés d'IA de Google. Ces « aperçus IA » apparaissent en haut de nombreuses pages de recherche, et des milliards de personnes les consultent chaque mois.
À l'époque, Google avait défendu le système, soulignant que ses résumés d'IA renvoyaient à des sources crédibles et incitaient fréquemment les utilisateurs à consulter des professionnels qualifiés.
Peu de temps après, l'entreprise a réduit les résumés basés sur l'IA pour certaines recherches médicales, bien que la fonctionnalité reste répandue dans d'autres domaines.
Pendant ce temps, Google continue d'investir des ressources dans les applications d'IA pour la santé. Lors d'un événement à venir, les dirigeants de l'entreprise prévoient de dévoiler de nouvelles recherches, des avancées technologiques et des partenariats visant à relever les défis mondiaux de la santé.
Pour les critiques et les régulateurs, cet épisode souligne la friction croissante entre l'innovation rapide des outils de recherche basés sur l'IA et la nécessité vitale d'informations fiables et bien vérifiées – surtout lorsque des conseils médicaux pourraient orienter des choix de vie réels.
Dernières nouvelles





