Les navigateurs AI présentent des risques trop élevés pour une adoption généralisée, selon Gartner
Apollinaire Monteclair
Selon une récente alerte de Gartner, bien que les navigateurs à intelligence artificielle soient innovants, ils sont “trop risqués pour une adoption généralisée par la plupart des organisations”. Cette mise en garde, issue d’un document de 13 pages rédigé par les analystes de Gartner Dennis Xu, Evgeny Mirolyubov et John Watts, soulève des préoccupations majeures en matière de cybersécurité qui méritent l’attention immédiate de tous les responsables informatiques et sécurité.
Les risques spécifiques des navigateurs AI identifiés par Gartner
Les navigateurs AI possèdent la capacité autonome de naviguer sur le web et d’effectuer des transactions, ce qui “peut contourner les contrôles traditionnels et créer de nouveaux risques tels que les fuites de données sensibles, les transactions agencielles erronées et l’abus d’identifiants”. Cette caractéristique fondamentale des navigateurs AI représente un défi sans précédent pour les équipes de sécurité qui doivent adapter leurs stratégies de protection.
Fuites de données sensibles vers le cloud
Les paramètres par défaut des navigateurs AI, qui privilégient l’expérience utilisateur, peuvent compromettre la sécurité. “Les données utilisateur sensibles - telles que le contenu web actif, l’historique de navigation et les onglets ouverts - sont souvent envoyées vers le backend AI cloud-based, augmentant le risque d’exposition des données à moins que les paramètres de sécurité et de confidentialité ne soient durcis de manière délibérée et gérés de manière centralisée”, expliquent les analystes.
Dans la pratique, cela signifie que tout ce qu’un utilisateur consulte dans son navigateur pourrait potentiellement être transmis à des serveurs externes, créant une surface d’attaque considérable. Selon une enquête menée par l’ANSSI en 2025, 78% des entreprises françaises ont identifié la fuite de données comme leur préoccupation cybersécuritaire numéro un, ce qui rend particulièrement préoccupante cette vulnérabilité spécifique des navigateurs AI.
“Nous avons observé dans nos audits que les employés consultent régulièrement des documents confidentiels dans leurs navigateurs tout en utilisant simultanément des fonctionnalités AI, sans réaliser que ces données sont potentiellement transmises” - Responsable sécurité d’un groupe bancaire français interviewé lors d’un récent colloque sur la cybersécurise.
Transactions agencielles erronées
Une autre source de risque majeure concerne les transactions agencielles incorrectes. Les navigateurs AI peuvent effectuer des actions autonomes basées sur des raisonnements erronés du modèle de langage (LLM), conduisant à des transactions incorrectes contre les ressources internes de l’entreprise.
Par exemple, un navigateur AI pourrait être trompé pour effectuer un achat non autorisé, modifier des données critiques ou même supprimer des fichiers importants, simplement en raison d’une mauvaise interprétation d’une requête ou d’une injection de prompt indirecte. Ces erreurs, bien que involontaires, peuvent avoir des conséquences financières et opérationnelles désastreuses pour les organisations.
Abus d’identifiants et navigation vers des sites malveillants
Les navigateurs AI peuvent également être trompés pour naviguer automatiquement vers des sites de phishing, entraînant une perte supplémentaire et un abus d’identifiants si le navigateur AI est déçu de naviguer automatiquement vers un site de phishing. Cette vulnérabilité exploite la nature naïve des systèmes AI qui peuvent être facilement manipulés par des attaqueurs sophistiqués.
Les attaques par injection de prompt indirecte représentent une menace particulière, car elles permettent aux attaqueurs de manipuler le comportement du navigateur AI sans interagir directement avec lui, en modifiant simplement le contenu des sites web visités. Ces attaques sont particulièrement difficiles à détecter et à prévenir avec les technologies de sécurité traditionnelles.
Les capacités agencielles: un défi majeur pour la cybersécurise
La capacité transactionnelle agencielle des navigateurs AI représente une innovation qui les différencie des assistants AI conversationnels tiers et de l’automatisation basique du navigateur par script. Cette autonomie accrue, bien que puissante, introduit des scénarios de risque entièrement nouveaux que les organisations doivent prendre en compte dans leur stratégie de sécurité.
Différences avec les assistants AI traditionnels
Contrairement aux assistants AI traditionnels qui nécessitent une interaction explicite de l’utilisateur, les navigateurs AI peuvent agir de manière autonome pour accomplir des tâches complexes. Cette autonomie signifie que le système peut prendre des décisions et effectuer des actions sans validation humaine explicite à chaque étape, ce qui augmente considérablement le potentiel de dommages en cas de manipulation ou d’erreur.
Les assistants AI traditionnels sont généralement conçus pour être passifs et attendent des instructions claires de l’utilisateur. Les navigateurs AI, en revanche, sont proactifs et peuvent anticiper les besoins de l’utilisateur en fonction du contexte, créant ainsi une surface d’attaque beaucoup plus large pour les attaqueurs potentiels.
Focus sur Perplexity Comet et ChatGPT Atlas
Bien que tous les navigateurs AI ne prennent pas en charge les transactions agencielles, deux solutions notables le font : Perplexity Comet et OpenAI’s ChatGPT Atlas. Les analystes de Gartner ont effectué “un nombre limité de tests utilisant Perplexity Comet”, ce navigateur AI étant donc leur principal point d’attention, mais ils notent que “ChatGPT Atlas et autres navigateurs AI fonctionnent de manière similaire et les considérations de cybersécurise sont également similaires”.
La documentation de Comet indique que le navigateur “peut traiter certaines données locales en utilisant les serveurs de Perplexity pour répondre à vos requêtes. Cela signifie que Comet lit le contexte de la page demandée (tel que le texte et les e-mails) afin d’accomplir la tâche demandée”.
“Cela signifie que les données sensibles que l’utilisateur consulte sur Comet pourraient être envoyées au service AI cloud-based de Perplexity, créant un risque de fuite de données sensibles”, soulignent les analystes de Gartner.
Exemples concrets de risques dans un contexte français
Dans le contexte français, où les réglementations strictes sur la protection des données comme le RGPD sont en vigueur, l’utilisation de navigateurs AI pourrait entraîner des conséquences juridiques et financières importantes. Par exemple, un cabinet d’avocat français utilisant Perplexity Comet pour rechercher des informations juridiques pourrait involontairement partager des données de clients confidentibles avec le service cloud de Perplexity.
Un autre scénario préoccupant concernerait une entreprise française du secteur de la santé qui utiliserait un navigateur AI pour accéder à des dossiers médicaux. Si le navigateur AI est manipulé pour naviguer vers un site malveillant, non seulement les données sensibles seraient exposées, mais l’entreprise enfreindrait également les réglementations strictes sur la protection des données de santé en France.
Selon une étude menée par le CLUSIF (Club de la Sécurité de l’Information Français) en 2025, 62% des organisations françaises ont déjà identifié au moins une tentative d’exploitation des technologies AI par des attaqueurs, ce qui souligne l’urgence d’adopter des approches de sécurité proactives face à cette nouvelle vague de menaces.
Recommandations stratégiques pour les organisations
Face à ces risques multiples, Gartner recommande fortement que les organisations bloquent tous les navigateurs AI pour l’avenir prévisible en raison des risques de cybersécurise identifiés dans cette recherche, et d’autres risques potentiels qui restent à découvrir, étant donné que cette technologie est très naissante.
Blocage des navigateurs AI: une mesure préventive nécessaire
Gartner indique que les employés doivent être empêchés d’accéder, de télécharger et d’installer des navigateurs AI via des contrôles de sécurité réseau et de point de terminaison. Cette approche préventive est particulièrement cruciale pour les organisations avec une faible tolérance au risque, où toute exposition de données sensibles pourrait avoir des conséquences désastreuses.
Le blocage des navigateurs AI peut être mis en œuvre par plusieurs méthodes :
- Listes d’autorisation applicatives : Ne permettre que les applications et navigateurs approuvés sur les points de terminaison de l’entreprise.
- Filtrage réseau : Bloquer l’accès aux sites de téléchargement des navigateurs AI et à leurs serveurs backend.
- Stratégies de groupe : Utiliser les stratégies de groupe Windows ou les solutions MDM pour empêcher l’installation de logiciels non autorisés.
- Formation des utilisateurs : Sensibiliser les employés aux risques des navigateurs AI et à la politique de l’entreprise concernant leur utilisation.
Cas d’usage contrôlés pour organisations à tolérance de risque élevée
Pour les organisations avec une tolérance au risque plus élevée, Gartner suggère d’expérimenter avec des cas d’utilisation d’automatisation à faible risque, contrôlés de manière stricte, en garantissant des garde-fous robustes et une exposition minimale de données sensibles.
Ces organisations pourraient envisager d’autoriser l’utilisation de navigateurs AI dans des environnements isolés ou pour des tâches très spécifiques et à faible risque. Par exemple :
- Utilisation de navigateurs AI uniquement pour des recherches publiques et non sensibles
- Restriction à des environnements sandboxed où aucune donnée d’entreprise ne peut être accédée
- Surveillance stricte de toutes les interactions avec le navigateur AI
- Mise en place de politiques de rétention de données strictes
Configuration sécurisée pour les pilotes d’utilisation
Pour les cas d’essai pilotés, Gartner recommande de désactiver le paramètre “rétention des données AI” de Comet afin que Perplexity ne puisse pas utiliser les recherches des employés pour améliorer leurs modèles AI. Les utilisateurs doivent également être instruits pour effectuer périodiquement la fonction “supprimer tous les souvenirs” dans Comet afin de minimiser le risque de fuite de données sensibles.
Voici un tableau comparatif des configurations de sécurité recommandées pour différents niveaux de risque d’entreprise :
| Niveau de risque | Approche recommandée | Mesures de sécurité spécifiques |
|---|---|---|
| Faible tolérance au risque | Blocage complet | • Interdiction stricte des navigateurs AI • Surveillance renforcée des activités • Formation obligatoire des utilisateurs |
| Tolérance moyenne | Utilisation contrôlée | • Autorisation uniquement pour des tâches spécifiques • Environnements isolés ou sandboxed • Audit régulier des activités |
| Haute tolérance au risque | Expérimentation ouverte | • Cas d’usage définis et approuvés • Surveillance continue des données • Mises à jour fréquentes des politiques |
Dans tous les cas, il est essentiel de mettre en place des politiques de gestion des risques d’entreprise qui incluent des évaluations régulières des technologies AI émergentes et de leurs implications potentielles pour la sécurité de l’information. Les organisations doivent également s’assurer que leurs équipes de sécurité sont formées pour comprendre et contrer les menaces spécifiques liées aux navigateurs AI.
“L’approche prudente recommandée par Gartner reflète notre propre expérience en matière de gestion des risques liés à l’IA. Dans nos tests internes, nous avons constaté que même avec des garde-fous robustes, les navigateurs AI peuvent créer des scénarios de risque imprévus qui nécessitent une surveillance continue et des ajustements stratégiques” - Directeur de la sécurité d’une grande entreprise française de services financiers.
Conclusion et prochaines étapes pour les responsables sécurité
Face à l’émergence rapide des navigateurs AI et aux risques qu’ils représentent, les organisations françaises doivent adopter une approche proactive et prudente. Bien que ces technologies offrent potentiellement des gains d’efficacité et d’innovation, leurs implications en matière de sécurité sont suffisamment préoccupantes pour justifier une restriction temporaire de leur utilisation dans la plupart des environnements professionnels.
Les responsables sécurité doivent immédiatement évaluer leur exposition aux navigateurs AI et mettre en œuvre des mesures de contrôle appropriées. Pour les organisations avec une faible tolérance au risque, le blocage complet de ces navigateurs représente l’approche la plus sûre. Pour celles avec une tolérance au risque plus élevée, une expérimentation contrôlée avec des garde-fous robustes peut être envisagée, mais uniquement après avoir évalué soigneusement les risques spécifiques pour leur environnement.
La technologie des navigateurs AI évolue rapidement, et de nouvelles menaces et vulnérabilités seront probablement découvertes à mesure que cette technologie mûrira. Les organisations doivent s’engager dans un processus continu de surveillance des développements dans ce domaine et d’ajustement de leurs stratégies de sécurité en conséquence.
Dans un paysage de cybersécurise en constante évolution, où les attaqueurs explorent activement de nouvelles technologies, une approche prudente mais éclairée est essentielle pour protéger les précieuses données des organisations françaises. Comme le souligne Gartner, “cette technologie étant très naissante”, il est sage d’adopter une approche prudente aujourd’hui tout en restant prêt à évaluer de nouvelles opportunités à mesure que la technologie mûrera et que les meilleures pratiques de sécurité émergeront.