L'IA au service du crime : une révolution inquiétante
En 2025, l'intelligence artificielle n'est plus réservée aux géants de la tech. Des outils accessibles gratuitement permettent désormais à n'importe qui de créer des deepfakes vidéo, de cloner une voix en quelques secondes ou de générer des emails de phishing indétectables. Au Maroc, Interpol et la DGSSI alertent sur la montée en puissance de ces techniques dans les arnaques visant particuliers et entreprises.
Selon un rapport d'Interpol publié en février 2025, l'Afrique du Nord — et le Maroc en particulier — est devenue une cible privilégiée pour les cybercriminels utilisant l'IA, en raison de la croissance rapide du numérique et d'un taux de sensibilisation encore insuffisant.
Le deepfake vidéo : quand voir n'est plus croire
Les deepfakes vidéo utilisent des réseaux de neurones pour superposer le visage d'une personne sur un autre corps, avec un réalisme troublant. Au Maroc, ces manipulations prennent plusieurs formes :
Arnaques à l'investissement
Des vidéos truquées montrant de fausses déclarations de personnalités marocaines connues circulent sur les réseaux sociaux, incitant les internautes à investir dans des cryptomonnaies ou des plateformes de trading frauduleuses. Ces vidéos, souvent diffusées comme publicités sponsorisées sur Facebook et Instagram, ont piégé des centaines de victimes au premier semestre 2025.
Sextorsion augmentée par l'IA
Plus inquiétant encore, des deepfakes à caractère intime sont créés à partir de simples photos de profil. Les victimes reçoivent ensuite des menaces de diffusion si elles ne paient pas. Cette forme de sextorsion assistée par IA est en forte hausse selon les signalements recueillis par la DGSN en 2025.
Le clonage vocal : l'arnaque au faux proche
Le clonage vocal par IA est devenu l'une des menaces les plus redoutables en 2025. Avec seulement 3 à 5 secondes d'enregistrement vocal — facilement récupérable sur les réseaux sociaux, WhatsApp ou TikTok — les escrocs peuvent reproduire fidèlement la voix de n'importe qui.
Cas typique au Maroc : l'appel du « patron »
Un employé d'une PME casablancaise a reçu en mars 2025 un appel de son « directeur général » lui demandant d'effectuer un virement urgent de 180 000 dirhams vers un compte professionnel. La voix était parfaitement identique. Ce n'est qu'après le transfert qu'il a découvert que l'appel provenait d'un numéro inconnu et que la voix avait été synthétisée par IA.
L'arnaque au faux proche en détresse
Autre scénario répandu : un parent reçoit un appel paniqué de son « fils » ou de sa « fille » prétendant avoir eu un accident ou être retenu par la police et ayant besoin d'argent immédiatement. La voix clonée est suffisamment convaincante pour provoquer une réaction émotionnelle instantanée, empêchant tout raisonnement critique.
Phishing par IA : des emails parfaits et personnalisés
Fini les emails de phishing bourrés de fautes d'orthographe. En 2025, les cybercriminels utilisent des modèles de langage avancés pour rédiger des messages parfaitement écrits en arabe dialectal, en français ou en anglais, personnalisés avec le nom, la banque et même des détails de transactions récentes de la victime.
Ces emails de phishing nouvelle génération sont particulièrement dangereux car ils imitent parfaitement le style de communication des banques marocaines, des opérateurs télécom comme Maroc Telecom, Inwi ou Orange, et même des administrations publiques.
Après la fuite massive de la CNSS en avril 2025, les données personnelles de millions de Marocains se retrouvent entre les mains de cybercriminels, rendant ces campagnes de phishing par IA encore plus ciblées et efficaces.
Comment détecter un deepfake ou une arnaque par IA
Les indices visuels d'un deepfake vidéo
Malgré les progrès de l'IA, les deepfakes présentent encore des imperfections détectables à l'œil nu : contours du visage parfois flous ou scintillants, clignements d'yeux anormalement rares ou fréquents, désynchronisation entre les lèvres et le son, et textures de peau trop lisses ou incohérentes. En cas de doute sur une vidéo, vérifiez si la source originale existe sur les canaux officiels de la personne concernée.
Les indices d'un clonage vocal
Une voix clonée peut présenter un léger écho métallique, des pauses inhabituelles ou un manque de réactions naturelles aux interruptions. Le meilleur réflexe : raccrocher et rappeler directement la personne sur son numéro habituel. Établissez un mot de passe verbal convenu avec vos proches pour les situations d'urgence.
Se protéger concrètement au Maroc
Pour les particuliers
Limitez les contenus vocaux et vidéo publics sur vos réseaux sociaux. Activez l'authentification à deux facteurs sur tous vos comptes. Ne répondez jamais à une demande d'argent urgente sans vérifier par un autre canal. Méfiez-vous des vidéos promotionnelles montrant des célébrités vantant des investissements miraculeux. Signalez tout deepfake ou arnaque par IA à la police via la plateforme e-blagh (www.dgsn.gov.ma).
Pour les entreprises
Mettez en place des protocoles de double validation pour tout virement supérieur à un seuil défini. Formez vos collaborateurs aux risques du clonage vocal et du phishing par IA. Implémentez des solutions de détection de deepfakes dans votre chaîne de validation. Faites réaliser un audit de sécurité par des experts comme Ealison pour identifier vos vulnérabilités face à ces nouvelles menaces.
Le cadre juridique marocain face à l'IA malveillante
Le Maroc dispose de la loi 09-08 relative à la protection des données personnelles et du code pénal qui punit l'usurpation d'identité et l'escroquerie. Cependant, le cadre juridique spécifique aux deepfakes et à l'utilisation malveillante de l'IA reste en construction. La CNDP et la DGSSI travaillent en 2025 sur des recommandations pour adapter le dispositif légal à ces nouvelles menaces, mais en attendant, la prévention reste la meilleure arme.
Questions fréquentes
Qu'est-ce qu'un deepfake et comment le reconnaître ?
Un deepfake est une vidéo ou un audio généré par intelligence artificielle qui imite une personne réelle. Pour le détecter, observez les incohérences : clignements anormaux, contours flous du visage, désynchronisation lèvres-voix et mouvements saccadés.
Les deepfakes sont-ils utilisés au Maroc pour des arnaques ?
Oui, des cas de clonage vocal ont été signalés au Maroc en 2025, où des escrocs imitent la voix d'un proche ou d'un patron pour demander des virements urgents. Des vidéos deepfake de personnalités sont aussi utilisées pour promouvoir de fausses opportunités d'investissement.
Comment se protéger contre le phishing généré par IA ?
Vérifiez toujours l'adresse email de l'expéditeur, méfiez-vous des urgences artificielles, ne cliquez jamais sur des liens suspects même si le message semble personnalisé. Utilisez l'authentification à deux facteurs et contactez directement l'organisme concerné en cas de doute.
L'IA peut-elle cloner ma voix avec un simple appel ?
Techniquement, quelques secondes de voix suffisent aux outils IA modernes pour créer un clone vocal convaincant. Limitez vos messages vocaux publics sur les réseaux sociaux et établissez un mot de passe verbal avec vos proches pour vérifier les appels suspects.
Besoin d'aide en cybersécurité ?
Nos experts Ealison vous accompagnent pour protéger votre entreprise et vos données personnelles au Maroc.
Contactez-nous Urgence Cyber