MAIN MENU
Le blogue Devolutions

Annonces, mises à jour et analyses de Devolutions

Sécurité
Rise offensive ai devolutions blog

D’ami à ennemi : sommes-nous prêts pour l'IA offensive?

L’IA offre des possibilités infinies autant pour la sécurité que pour les activités illicites. Il est donc impératif de renforcer les fondations de notre cybersécurité à l’aide d’IA défensives.

Photo of Laurence Cadieux Laurence Cadieux

L’intelligence artificielle joue un rôle de plus en plus important pour la cybersécurité. Ce faisant, elle présente des avantages majeurs et sans précédent pour certains domaines. Par exemple :

Manifestement, et bien qu’elle n’en soit qu’à ses balbutiements, l’IA est une composante cruciale du domaine de la cybersécurité. D’ici 2030, la taille du marché mondial de la sécurité par l’IA aura atteint les 133,8 milliards USD, soit une augmentation de 118,9 milliards depuis 2021.

La montée des IA offensives

Malgré les nombreuses perspectives réjouissantes qu’offre l’IA, il y a aussi une prise de conscience que les acteurs malveillants vont l’utiliser à leurs fins. On nomme ce phénomène : « l’IA offensive ». Un sondage mené auprès de dirigeants en sécurité, commandé par la firme Darktrace et mené par Forrester, a révélé que :

Qui plus est, un autre sondage mené par Deloitte a révélé que 43 % des PDG partagent des « angoisses majeures, voire extrêmes, en ce qui a trait aux risques posés par l’IA », et que 49 % d’entre eux rapportent qu’il s’agit en effet de leur plus grande peur.

Comment les acteurs malveillants se servent de l’IA

Selon Hubsecurity.com, voici quelques-unes des méthodes qu’utilisent les acteurs malveillants pour exploiter les vulnérabilités des systèmes d’IA et d’apprentissage automatique :

De plus, les acteurs malveillants se servent de l’IA pour mener des campagnes de désinformation (les fameuses fake news). Certaines sont si vraisemblables qu’elles parviennent à tromper des professionnels aguerris de la cybersécurité. Selon le magazine Fast Company :

« Les transformers, tels que BERT de Google et GPT d’OpenAI, utilisent le traitement du langage naturel pour comprendre les textes et produire des traductions, des résumés et des interprétations. Ils peuvent également être utilisés pour véhiculer de fausses informations en ce qui a trait aux cybermenaces. D’ailleurs, ils le font si bien qu’ils confondent même les professionnels formés pour dénicher les cybermenaces. Lorsque ces fausses informations se répandent, il arrive que les équipes chargées de la cybersécurité soient trop occupées à minimiser de faux risques pour traiter les vraies attaques sur leurs systèmes.

Comment protéger les systèmes d’IA

Que peuvent faire les entreprises pour protéger leurs systèmes d’IA? Les experts s’entendent sur ces trois stratégies principales :

Se défendre à l’aide de l’IA

Nous assistons en ce moment à l’émergence et au développement de la « l’IA défensive », à savoir l’utilisation de l’IA et de l’apprentissage automatique pour analyser des quantités importantes de données et ainsi découvrir les comportements normaux et anormaux d’un système. Cette méthode permet de débusquer de nouvelles menaces et d’augmenter la précision des contre-mesures. Selon le Forum économique mondial :

« L’IA défensive n’est pas seulement un avantage technologique dans la lutte contre la cybercriminalité, mais bien un allié vital sur un nouveau champ de bataille. Au lieu de faire confiance à un personnel de sécurité pour réagir directement aux incidents, les entreprises se fieront à l’IA pour se défendre rapidement contre un problème en développement. Pendant ce temps, les équipes humaines superviseront les décisions prises par l’IA et effectueront un travail de correction et amélioreront la résilience globale de l’entreprise pour le long terme ».

Par ailleurs, le rôle principal de l’humain, et plus spécifiquement de l’expert en cybersécurité, n’est pas négligeable. Idéalement, l’IA aura la responsabilité de fouiller dans d’immenses volumes de données, d’effectuer des tâches de routines, et de s’adapter aux nouvelles attaques. Pendant que les ordinateurs sont occupés à effectuer ces opérations, l’humain pourra surveiller l’intégrité, la précision et l’efficacité du processus décisionnel, tout en aidant l’IA à s’améliorer.

ITPro.com précise que :

« Comme bien des usages de l’IA, l’IA défensive aide l’humain à effectuer les travaux lourds, prend des décisions autonomes, apprend avec le temps, fait des rapports aux humains et aux entreprises pour que ces derniers accomplissent leurs objectifs ».

Et Victor Fredung, le contributeur au Forbes Business Council, d’ajouter :

« L’essentiel est de concevoir une vision holistique dans laquelle les analystes humains et les logiciels d’IA travaillent de concert. Le fait de déléguer les opérations chronophages de moindre importance aux logiciels permet aux professionnels de se concentrer sur les aspects de la sécurité qui nécessitent une intervention humaine. Une relation harmonieuse entre l’IA et un personnel qualifié peut faire toute la différence sur le plan de la prévention des cybercrimes ».

Le mot de la fin

Bien qu’elle puisse parfois paraître surnaturelle, l’IA n’est malheureusement pas une solution miracle. En revanche, elle peut et doit jouer un rôle important pour ce qui est de renforcer la cybersécurité, d’autant que les acteurs malveillants ont déjà démontré leur volonté d’utiliser l’IA pour lancer des cyberattaques (ex. : le pollupostage infini ou le brouillage d’IA).

En tant que société, nous avons déjà franchi le cap avec l’IA et le retour en arrière n’est plus possible. S’assurer que les principales mesures de cybersécurité se conjuguent avec la défense par l’IA afin de contrer les IA malveillantes fera de cette nouvelle ère de l’humanité un triomphe retentissant, faute de quoi ou elle pourrait se transformer en grotesque cauchemar.

More from Sécurité

Read more articles