OpenAI est sur le point de finaliser un nouveau produit capable de raisonner sur des problèmes de cybersécurité. Selon une source citée par Axios, ce nouveau système d’IA sera apte à analyser des logiciels, des réseaux et des systèmes pour y détecter des vulnérabilités ou des comportements anormaux.
La fuite indique qu’OpenAI ne compte pas proposer l’IA au grand public. Pour des raisons de sécurité, l’outil sera réservé à un groupe restreint de partenaires, notamment des entreprises technologiques. Avec son nouveau modèle, OpenAI espère surtout aider les équipes de sécurité à repérer des failles dans des codes anciens ou mal documentés, mais la start-up veut à tout prix éviter que l’IA soit exploitée à des fins malveillantes. Entre de mauvaises mains, un outil de cette trempe pourrait être utilisé pour automatiser la recherche de failles exploitables dans des infrastructures critiques. Notez qu’il ne s’agit pas de Spud, un autre modèle

