
Cybersecurity, Menaces cyber
IA et cybersécurité : l’humain face aux nouvelles menaces
L’ANSSI ne laisse plus de place au doute : des groupes de hackers exploitent désormais l’IA générative pour industrialiser leurs cyberattaques. Phishing sans la moindre faute, deepfakes vocaux indétectables, campagnes lancées en quelques minutes : l’intelligence artificielle n’est plus seulement un bouclier pour les défenseurs. Elle est devenue l’arme de prédilection des attaquants.
Et leur cible privilégiée n’a pas changé : l’humain. Année après année, les rapports de référence comme le DBIR de Verizon confirment que la majorité des violations de sécurité impliquent une action humaine, clic, transfert de fichier, erreur de jugement. Ce qui a changé, c’est la puissance de cette manipulation. Les emails de phishing générés par IA sont désormais grammaticalement irréprochables, contextuellement pertinents et émotionnellement calibrés.
Cet article explore comment l’IA redéfinit la cybersécurité, pourquoi le facteur humain reste le maillon décisif, et ce que les entreprises peuvent mettre en place pour transformer leurs collaborateurs en véritable ligne de défense.
Comment l’IA redéfinit la cybersécurité et industrialise les attaques
En matière de cybersécurité, l’intelligence artificielle a changé les règles du jeu, et pas seulement du côté des défenseurs. Pour les cybercriminels, elle représente un multiplicateur de force qui transforme des opérations artisanales en attaques industrialisées.
L’accélération et l’automatisation des attaques
L’IA n’a pas inventé les cyberattaques. Elle les a industrialisées. Ce qui nécessitait autrefois des semaines de reconnaissance, de rédaction et de déploiement se fait aujourd’hui en quelques heures.
Les outils d’IA générative permettent à des attaquants peu qualifiés de :
- Générer des scripts malveillants fonctionnels en quelques minutes.
- Identifier des failles dans des infrastructures sans compétences techniques avancées.
- Lancer des campagnes de phishing à grande échelle, personnalisées par langue et par cible.
Pour les équipes sécurité, l’implication stratégique est claire : le volume d’attaques crédibles augmente plus vite que la capacité humaine à les traiter. Selon un sondage du Forum économique mondial, 56 % des dirigeants estiment que l’IA générative donne un avantage net aux attaquants, contre seulement 9 % qui pensent qu’elle favorise les défenseurs. Le déséquilibre ne se comblera pas en ajoutant des analystes, il impose de repenser l’approche.En France, la menace est concrète. Le pays figure désormais parmi les cibles européennes les plus visées. L’ANSSI, qui publie régulièrement ses analyses sur l’état de la menace, souligne que les systèmes d’IA représentent de nouvelles opportunités pour les attaquants en termes d’automatisation, de personnalisation et de mutation de la menace.
Phishing par IA et hyper-personnalisation
En IA et cybersécurité, le phishing reste le vecteur d’attaque n° 1. Mais le phishing de 2026 n’a plus grand-chose à voir avec les emails truffés de fautes qui atterrissaient dans les spams il y a cinq ans. Les LLM (large language models) permettent de générer des messages grammaticalement parfaits, contextuellement adaptés et émotionnellement calibrés, dans n’importe quelle langue, à n’importe quelle échelle.
Un CISO pouvait raisonnablement former ses équipes à repérer un email suspect quand les signaux d’alerte étaient visibles : fautes d’orthographe, adresse incohérente, ton générique. Ces indicateurs sont désormais éliminés par l’IA. Le collaborateur qui reçoit un spear phishing généré par un LLM n’a plus aucun signal classique à détecter. Et quand ce type d’attaque peut être répliqué sur des milliers de cibles en quelques minutes, la détection humaine manuelle atteint ses limites.
C’est ce basculement qui rend l’approche traditionnelle, former une fois par an et espérer que les réflexes tiennent, stratégiquement insuffisante.
Deepfakes et vishing : l’IA au service de la manipulation
Le phishing par email n’est plus le seul terrain de jeu des attaquants. L’IA générative a ouvert un nouveau front : celui de l’usurpation d’identité en temps réel, par la voix et par l’image. Et là encore, c’est la scalabilité du procédé qui change la donne.
La fraude au président 2.0
En 2024, un employé d’une multinationale basée à Hong Kong transfère 25 millions de dollars lors d’une visioconférence, convaincu de suivre les instructions de son directeur financier. Le problème : tous les autres participants à l’appel étaient des deepfakes générés par IA. Un cas spectaculaire, mais le vrai signal d’alarme est ailleurs : ce type d’attaque n’est plus réservé aux opérations de haute volée.
Entre le premier trimestre 2024 et le premier trimestre 2025, les deepfakes utilisés pour usurper des identités ont bondi de 700 % en France, selon l’étude Sumsub. La technologie s’est démocratisée au point qu’un deepfake vocal convaincant coûte aujourd’hui moins de 5 euros à produire. Pour un CISO, cela signifie que la fraude au président n’est plus un risque ponctuel à traiter au cas par cas, c’est une menace systémique qui appelle une réponse structurelle.En France, Cybermalveillance.gouv.fr recense et documente ces nouvelles formes de menaces, du vishing aux arnaques par deepfake, à destination des entreprises comme des particuliers.
L’usurpation d’identité par clonage vocal
La fraude au président classique reposait sur l’urgence et la pression hiérarchique. Le clonage vocal par IA y ajoute un élément redoutable : la confiance auditive. Jusqu’à récemment, reconnaître la voix de son manager au téléphone suffisait à valider une demande. Ce n’est plus le cas.
Les outils de clonage vocal actuels reproduisent une voix avec une fidélité de 99 % à partir d’un échantillon de 30 secondes. Les sources exploitables sont partout :
- Un extrait de webinaire ou de conférence en ligne.
- Une interview publiée sur YouTube.
- Un simple message vocal sur LinkedIn ou WhatsApp.
Sécuriser le maillon humain : de la vigilance à la formation
Les deepfakes, le vishing et le phishing augmenté par IA ont un point commun : ils ne ciblent pas un serveur ou un pare-feu. Ils ciblent une décision humaine. C’est justement là que le lien entre IA et cybersécurité prend tout son sens : dans la réponse humaine.
Pourquoi le risque humain exige une approche structurée
On peut multiplier les couches techniques — filtres anti-phishing, détection d’anomalies, authentification multifacteur. Ces outils sont nécessaires. Mais au bout de la chaîne, c’est toujours un collaborateur qui décide de cliquer, de transférer un fichier, de valider un virement ou de faire confiance à une voix au téléphone.
La question n’est plus de savoir si un collaborateur sera ciblé, mais quand, et comment l’entreprise mesure et réduit ce risque en continu. Comme le montre l’analyse de SoSafe sur le décalage entre perception et réalité de l’IA en entreprise, beaucoup de dirigeants pensent maîtriser l’usage de l’IA dans leur organisation alors que la réalité du terrain leur échappe. Les collaborateurs utilisent des outils d’IA générative au quotidien, souvent sans cadre ni supervision.Le risque humain doit être géré avec la même rigueur que n’importe quel autre risque d’entreprise : mesuré, suivi dans le temps, et adossé à des indicateurs actionnables.
De la formation ponctuelle à la gestion continue du risque humain
Un module e-learning annuel de 45 minutes ne suffit plus. Face à des menaces qui se réinventent en permanence, la réponse doit être continue, mesurable et pilotée par les données.
C’est l’approche du Security Awareness Training de SoSafe : un dispositif de gestion du risque humain qui combine micro-learning personnalisé, simulations de phishing en conditions réelles et données comportementales exploitables. Le tout alimenté par le Human Risk OS™, qui donne aux CISO une vue en temps réel sur le risque humain de leur organisation, avec des indicateurs concrets pour orienter les décisions.
Pour couvrir spécifiquement les menaces liées à l’IA, SoSafe propose également l’AI Awareness add-on : deepfakes, vishing augmenté, usage sécurisé de l’IA générative et mesure des réflexes réels des équipes face à ces scénarios.
Dans un environnement où l’IA industrialise les attaques, la capacité à piloter le facteur humain devient un levier stratégique. La sécurité ne repose plus uniquement sur des outils, mais sur des comportements mesurés, renforcés et alignés avec les enjeux réels de l’organisation.
Vous souhaitez évaluer le niveau de préparation de vos équipes face aux menaces dopées à l’IA ?
Découvrez le Security Awareness Training de SoSafe et son module AI Awareness.













