Google a levé le voile sur une sombre facette de l’intelligence artificielle. Des hackers soutenus par certains États s’appuient désormais sur Gemini, le modèle d’IA développé par Google, pour pousser leurs opérations à un niveau inédit. La reconnaissance, le codage de malwares, et même des campagnes de phishing s’accélèrent grâce à cette technologie !
Le groupe nord-coréen UNC2970, lié au tristement célèbre Lazarus, utilise Gemini pour collecter des infos précises sur ses cibles. Des profils de collaborateurs dans la cybersécurité et la défense, jusqu’aux détails salariaux, rien ne leur échappe. Officiellement, ce genre de recherches semble relever de la « veille professionnelle », mais en réalité, elles servent à créer de faux profils crédibles pour des attaques personnalisées.
Quand Gemini devient l’outil des hackers étatiques pour leurs opérations de reconnaissance
Google Threat Intelligence Group (GTIG) a détaillé comment UNC2970 utilise Gemini à fond. Ce groupe scanne le web pour assembler des données open source et dresser un portrait ultra précis de ses cibles. Résultat : une carte claire des faiblesses humaines et techniques à exploiter lors des phases de reconnaissance, clés dans le cycle d’une attaque.
Ce n’est pas qu’une affaire nord-coréenne. Plusieurs groupes chinois comme Temp.HEX, APT31 ou APT41 ont intégré Gemini dans leurs tactiques pour collecter des informations. Ces acteurs profitent de l’IA pour automatiser la recherche de vulnérabilités ou générer des codes malveillants.
Des attaques plus vite, plus ciblées
L’usage de Gemini ne s’arrête pas à la collecte de renseignements. Le malware HONESTCUE illustre le phénomène : il utilise l’API Gemini pour générer du code malveillant à la volée et lance la deuxième phase d’attaque sans jamais s’écrire sur le disque. Impressionnant et inquiétant !
Le kit de phishing COINBAIT, camouflé en plateforme crypto, s’appuie également sur des générateurs d’IA comme Lovable AI. Ce subterfuge offre un réalisme jamais vu, et fait monter drastiquement les chances de réussite des attaques de collecte d’identifiants.
Modèles d’IA sous pression : Google contre-attaque
Face à ces abus, Google ne reste pas les bras croisés. Le géant développe continuellement des systèmes de sécurité pour détecter et freiner l’utilisation malveillante de Gemini. Ces garde-fous deviennent plus intelligents, capables de repérer les tentatives d’usurpation d’identité – comme se faire passer pour un chercheur en sécurité – qui visent à tromper l’IA.
Cependant, les attaquants innovent constamment. Les différentes expériences pour contourner les protections montrent à quel point la lutte est complexe. Chaque attaque repérée permet à Google de renforcer ses défenses en temps réel.
Attaques en série et extraction de modèles
Le rapport souligne aussi des tentatives à grande échelle d’extraction de modèles. Des acteurs malveillants lancent des centaines de milliers de requêtes pour décortiquer la logique même de Gemini. Le but : cloner l’IA ou s’en servir à des fins détournées.
Un test fameux a réussi à recréer le modèle avec 80% d’exactitude après seulement 1 000 requêtes, preuve que la sécurité des modèles d’IA repose aussi sur la manière dont ils réagissent à chaque interaction.
Source: thehackernews.com
- Le ‘Mode Xbox’ de Microsoft débarque sur les PC Windows 11 dès le mois prochain - mars 12, 2026
- Fedora 44 Beta est lancée : Zoom sur l’installateur, KDE, Wayland et les nouveautés clés - mars 12, 2026
- L’expérience Plein Écran de Windows devient le Mode Xbox et sera déployée sur les PC Windows 11 - mars 12, 2026