Article
Nous ignorons ce que nous ignorons, n’est-ce pas ? : Le rôle de l’IA dans la cybersécurité est au cœur de l’industrie, mais il se peut que l’IA ne soit pas la technologie ni la réponse tant attendue. Tout d’abord, l’IA est limitée par ses capacités en tant que technologie orientée vers l’offensive, réagissant uniquement aux vulnérabilités identifiées qu’elle a apprises.
De plus, l’IA nécessite du temps pour s’adapter en tant que technologie de défense, établissant ainsi une ligne de protection basée sur ses acquis. De surcroît, elle se montre relativement lente à identifier les nouveaux schémas émergents de la cybercriminalité.
En conclusion, l’IA doit apprendre à faire face aux menaces avancées persistantes (Advanced Persistent Threats, APT) et ne peut détecter les intrusions qu’après que la menace a déjà infiltré les systèmes, la rendant vulnérable à la manipulation !
Vulnérable à la manipulation ? Oui, car le principal problème est bien là : l’IA peut faire l’objet de simulation de fausses menaces, ouvrant la voie aux attaques réelles. Dans ce cas, jusqu’où l’intelligence artificielle ira-t-elle ? Eh bien… peut-être jusqu’à rencontrer un mur ! C’est en tout cas l’analyse de Bertrand Braunschweig dans un article paru dans Le Monde. Bertrand Braunschweig explique que les systèmes d’IA, comme tous les systèmes numériques, sont susceptibles d’être attaqués, piratés, ou compromis par des méthodes « usuelles » telles que l’intrusion, le déchiffrage, les virus, ou la saturation. Cependant, ils sont également vulnérables à des attaques particulières, appelées attaques antagonistes ou adverses (« adversarial attacks » en anglais). Ces attaques consistent à injecter de légères variations dans les données d’entrée, ce qui modifie considérablement la sortie du système. Depuis les exemples célèbres, comme le panneau STOP non reconnu lorsqu’il est tagué par des étiquettes ou le panda confondu avec un gibbon après l’ajout d’une composante de bruit, on sait qu’il est relativement simple de concevoir une attaque capable de modifier radicalement l’interprétation des données par un réseau de neurones. Ces attaques ne se limitent pas aux images, mais peuvent également être conçues pour affecter des signaux temporels (notamment audio, vidéo, ou du texte), etc… Les conséquences d’une telle attaque peuvent être dramatiques, car une mauvaise interprétation des données d’entrée peut entraîner une prise de décision incorrecte. Un rapport du NIST établit une taxonomie intéressante des attaques antagonistes et des défenses correspondantes, montrant qu’il est possible de corrompre les bases d’apprentissage en y ajoutant des exemples antagonistes, compromettant ainsi les systèmes formés sur ces bases.
Quid de nos cybercriminels, dépourvus de considérations éthiques ou légales, se précipitent-ils pour exploiter l’IA dans le développement de nouvelles techniques de piratage innovantes. La réponse est oui ! L’IA joue un rôle essentiel dans la création de centaines de milliers de nouvelles variantes de logiciels malveillants chaque jour, avec environ la moitié de ces attaques malveillantes identifiées et enregistrées, laissant ainsi un écart important en matière de sécurité.
Pour mettre cela en perspective, les pirates informatiques produisent un impressionnant total de 560 000 nouvelles variantes de logiciels malveillants chaque jour avec plus de 350 000 nouveaux programmes malveillants officiellement enregistrés chaque jour. Cela laisse un écart préoccupant de 210 000 attaques non enregistrées et largement inconnues qui sont générées quotidiennement avec l’aide de l’IA.
Une tendance inquiétante !
Lire également : L’innovation : une porte ouverte aux cyber attaques
Auteur : Jean-Luc Cervera