Google utilise un modèle de langage pour découvrir une vulnérabilité réelle

Google a récemment annoncé la découverte d'une vulnérabilité dans SQLite grâce à un modèle de langage avancé, marquant une première dans l'utilisation de l'IA pour identifier des problèmes de sécurité mémoire exploitables dans des logiciels largement utilisés. Selon un article de blog, cette découverte représente le premier exemple public d'un outil d'IA trouvant une faille de sécurité mémoire auparavant inconnue. SQLite, un moteur de base de données open source très prisé des développeurs, a été le logiciel concerné par cette vulnérabilité.

Les chercheurs de Google ont signalé cette vulnérabilité aux développeurs de SQLite début octobre, qui l'ont corrigée immédiatement. Comme le problème a été identifié avant sa publication officielle, les utilisateurs de SQLite n'ont pas été affectés. Google considère cette avancée comme un exemple du potentiel immense que l'IA peut offrir aux défenseurs de la cybersécurité.

La capacité de détecter des vulnérabilités avant même la sortie des logiciels signifie que les attaquants n'ont aucune chance d'exploiter ces failles, car elles sont corrigées en amont. Ce travail s'inscrit dans le cadre du projet Big Sleep, une collaboration entre Google Project Zero et Google DeepMind, qui a évolué à partir d'un projet antérieur axé sur la recherche de vulnérabilités assistée par des modèles de langage.

Un facteur clé motivant Big Sleep est la découverte continue d'exploits pour des variantes de vulnérabilités déjà trouvées et corrigées. Cette initiative démontre comment l'industrie peut tirer parti de l'IA pour renforcer la sécurité des logiciels et anticiper les menaces émergentes.

Source : cybersafe.news