La lettre de Frédéric Simottel n°35 ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌
🦾L’IA générative notre meilleure amie -ennemie- pour 2024 | |
La lettre de Frédéric Simottel n°35 | |
Dans la newsletter d’aujourd’hui: | |
Pour les abonnés gratuits: | |
L’édito: L’IA générative notre meilleure amie -ennemie- pour 2024. | |
Pour les abonnés payants: | |
Fin d’année oblige, c’est l’heure de dresser un bilan et de se projeter. Revenir sur cette année 2023, c’est encore citer le trop grand nombre de failles et de cyberattaques. Certes les outils de détections se sont améliorés mais les techniques des pirates aussi. Les organisations se sont adaptées mais sans doute pas assez vite. Mais ce qui m’a marqué le plus, ce sont les profonds traumatismes provoqués par ces cyberattaques auprès des responsables sécurité. Même plusieurs mois après la crise qu’ils ont vécue, certains sont encore très sensibles voire émus lorsque l’on évoque avec eux ces moments. Et si l’on se projette sur 2024, devinez quoi… nous allons beaucoup parler d’IA. La vigilance reste de vigueur et encore plus au cours des fêtes de fin d’année qui, je l’espère pour vous ne seront pas affectées par ces maudites attaques. Passez de bonnes fêtes et rendez-vous à la rentrée–Frédéric Simottel | |
De l’usage de l’Intelligence artificielle générative au Malware-as-a-Service en passant par les attaques via les API cloud, l’imagination des cyberattaquants dispose d’un arsenal complet pour défier entreprises, administrations et citoyens en 2024. Nous en avons eu quelques aperçus au second semestre mais les douze prochains mois ne devraient pas nous épargner. En commençant par l’IA générative. | |
A voir la place que cette technologie a prise dans nos vies privées et professionnelles, il n’est pas étonnant de voir cette technologie débarquer dans le monde cyber. Gen AI for Cyber, Cyber for Gen AI pour le côté éthique de la Force mais aussi et surtout Gen AI for hackers, pour la partie la plus sombre. Les Etats Unis sont déjà en train de pousser beaucoup de contre-feux pour protéger leurs prochaines élections présidentielles qui auront lieu en fin d’année prochaine. Deepfakes, désinformation générée par l'IA ainsi que les campagnes d'ingénierie sociale pourraient jouer un rôle crucial dans l'influence de l'opinion publique, créant un réseau complexe de fausses informations qui met au défi la capacité des électeurs à distinguer la réalité de la manipulation. | |
Mettre en place une équipe éthique autour de l’IA | |
Côté Cyber for Gen AI, sur l’idée d’un IA Act « privé », certains groupements de développeurs (ou d’entreprises comme OpenAI) ont par ailleurs déjà pris l’initiative de mettre en place une équipe d’alerte (preparedness team) chargés de définir un cadre de travail. L’idée est d’avaluer chaque nouveau modèle et de lui assigner un niveau de risque selon quatre catégories. La première porte justement sur la cybersécurité et la capacité du modèle à concevoir des attaques informatiques d’ampleur. La deuxième évalue la propension du logiciel à participer à l’élaboration d’un virus biologique ou à celle d’une arme de guerre ou d’une bombe nocive pour l’être humain. La troisième catégorie mesurée porte sur la capacité du modèle à influencer des comportements (par exemple lors d’évènements politiques comme cité plus haut). Le quatrième volet concerne enfin l’autonomie potentielle de l’IA et au fait qu’elle pourrait échapper au contrôle de ces concepteurs. | |
L’apprentissage automatique pour analyser les données -bonnes et mauvaises- à grande échelle | |
Quant à l’aspect GenAI for Cyber, il comporte des aspects bien moins sombres. Nous devrions enfin voir en 2024 son réel potentiel positif en cybersécurité. Les Modèles de Langage à Grande Échelle (LLM) joueront ainsi un rôle crucial dans l'analyse rapide de gros volumes de données. Combinée à d'autres techniques de big data et d'apprentissage automatique, l'IA permettra aux organisations d'analyser les données de menaces à une échelle sans précédent, offrant de nouvelles perspectives -et remettant en question au passage le récit prédominant selon lequel l'IA est intrinsèquement nuisible-. La détection des vulnérabilités sera plus facile pour tous. Les organisations professionnelles sont par exemple en train de sensibiliser leurs utilisateurs, clients et partenaires sur les tentatives d’hameçonnage de plus ne plus crédibles qui vont arriver en nombre sur nos applications de messagerie. | |
Des modèles d’attaques cyber proposées par abonnement | |
Une autre menace qui irait grandissante en 2024 sera le Malware-as-a-service (Maas) ; autrement dit l’accès par abonnement à des logiciels malveillants (ransomwares, fuite de données). Cette tendance permet à des acteurs de menaces moins expérimentés et moins bien équipés de lancer des cyberattaques sophistiquées et ciblées à grande échelle. Combinée à l'IA générative, cette évolution pourrait avoir des conséquences dévastatrices, à moins que les entreprises ne s'adaptent rapidement. | |
Les API cloud massivement ciblées | |
Enfin, alors que la dépendance aux API (Interface de Programmation d'Applications) basées sur le cloud augmente, les organisations doivent prioriser la sécurisation de leur infrastructure informatique pour prévenir les violations de données via ce canal. Les API sont devenues une cible privilégiée pour les cybercriminels en raison de leur potentiel d'exposition de données sensibles. Elles agissent comme des ponts autorisant différentes applications logicielles à communiquer et à interagir entre elles. Essentielles pour une intégration fluide entre différents systèmes et applications, elles figurent parmi les cibles favorites des pirates informatiques en ce moment. Selon de nombreux témoignages recueillis, ces derniers se concentrent de plus en plus sur l'exploitation de cette vulnérabilité. En réponse, les organisations sont censées adopter des solutions d'automatisation des tests de sécurité pour renforcer leurs défenses contre les attaques d'API. | |
Vous souhaitez lire la suite de cet article ? | Cet article est réservé aux abonnés payants, abonnez vous dès maintenant pour le recevoir en intégralité et lire la suite. | |
Vous avez aimé cette newsletter ? Likez, partagez, abonnez-vous ! | |
BFM Business Cybersécurité | Par Frédéric Simottel | Journaliste à BFM Business en charge notamment des questions de cybersécurité, je suis heureux de partager avec vous chaque semaine l’actualité du secteur mais aussi ma revue de presse et des tribunes | Voir les articles précédents |
| |
"Vous recevez ce mail car vous vous êtes abonné à la newsletter BFM Business Cybersécurité sur Kessel. Pour gérer votre abonnement, cliquez ici. | |