Cybersécurité : est-il risqué de trop miser sur l’intelligence artificielle ?

C’est indéniable, l’intelligence artificielle (IA) appliquée à la cybersécurité montre des résultats probants. Les algorithmes sont aujourd’hui capables de détecter des comportements inhabituels discrets et même de mettre en œuvre automatiquement des actions correctives. Mais l’intelligence artificielle n’est pas la panacée car elle nécessite une vraie maîtrise afin d’être correctement exploitée. Des problématiques techniques aux enjeux éthiques, regard sur un concept qui continue d’effrayer autant qu’il fascine.

L’IA : véritable allié des politiques de cyberdéfense

L’intelligence artificielle (IA), définie comme telle par John McCarthy dès 1965 lors de la conférence de Dartmouth, repose sur le principe de Machine Learning. Cela signifie qu’elle est capable d’établir des règles de classification, de perception et de prévision.

Dans le domaine de la cybersécurité, l’IA est un soutien de choix car elle contribue largement à la détection des comportements inhabituels, souvent synonymes de tentatives d’attaques, et donc à la protection des systèmes d’information. On trouve ainsi des algorithmes d’IA dans les équipements de protection des terminaux (solutions ERD, antivirus, firewalls, etc.), et dans ceux qui surveillent les réseaux (outils NDR par exemple). La plupart du temps, l’IA vient appuyer les systèmes de détection des comportements anormaux pour affiner les alertes et limiter le nombre de faux positifs. Elle permet également d’épauler les équipes des SOC dans la mise en place de réponses aux incidents et augmente l’automatisation des process de cyberdéfense.

Théorie vs réalité : un écart à combler

Sur le papier, l’IA a donc beaucoup à offrir. Mais son efficacité dépend de la capacité des équipes de sécurité d’une entreprise à contextualiser les algorithmes. Bien choisir et bien configurer son IA est donc une clef de réussite. Pour cela, les responsables de la sécurité des systèmes d’information doivent tenir compte de plusieurs facteurs : le volumes des données à analyser, l’endroit où elles sont collectées (notamment pour les entreprises internationales) et le besoin de mises à jour en temps réel.

A l’heure où les cyber-attaquants sont plus prolifiques que jamais, l’IA peut effectivement s’imposer comme une solution miracle appropriée à la réalité des entreprises, sous réserve que les outils soient adaptés à la situation de l’organisation et qu’ils évoluent en fonction des menaces.

L’IA peut-elle vraiment être éthique ?

Au-delà des enjeux techniques, se pose également une question éthique. L’IA peut-elle en être garante ? Autrement dit, comment assure-t-on la cybersécurité des intelligences artificielles ?

Problématique de biais, protection des données, transparence, responsabilité et impact environnemental : autant de sujets qui peuvent être malmenés si les systèmes d’IA sont eux-mêmes attaqués. Pour répondre à ces risques, il existe des solutions de modération, de filtrage des données ou encore des systèmes de prévention d’attaques ciblées. Comme toujours, tout est question de conscience du risque, de vigilance et de mise en place de moyens de protection adaptés.

Bien que complexe à mettre efficacement en place, l’intelligence artificielle peut être une arme redoutable de cyberdéfense. Elle doit s’envisager « en complément de » l’action humaine et non « à la place de ». Accordons dès lors notre confiance aux algorithmes supervisés. Ils viendront démultiplier l’efficacité du duo homme-machine, pour une meilleure protection des systèmes d’information.

Par Laure Castellani, septembre 2021