L’idée d’un navigateur web piloté par une IA, capable de naviguer, de lire des emails et d’effectuer des actions à la place de l’utilisateur, est prometteuse mais complexe à sécuriser. Dans une note technique publiée ce lundi, OpenAI concède que la lutte contre les attaques par « injection de prompt » s’apparente davantage à un combat perpétuel, comparable à la gestion du spam ou du phishing, qu’à un problème informatique classique pouvant être résolu par une simple mise à jour. Cette déclaration invite à la prudence concernant l’utilisation du « mode Agent » de son navigateur ChatGPT Atlas, lancé en octobre dernier.
Le talon d’Achille des assistants autonomes
Le cœur du problème réside dans la nature même des agents IA . Pour être utiles, ils doivent traiter des données extérieures (pages web, emails, documents) qui peuvent contenir des pièges. L’attaque par injection de prompt consiste à dissimuler des instructions malveillantes dans ces contenus, parfois

