La cybersécurité face aux nouveaux défis des générateurs d’images AI

L’intelligence artificielle (IA) a le potentiel de changer la nature de notre société. Et si les outils d’IA dont nous disposons actuellement sont une indication de ce qui nous attend, nous avons beaucoup à attendre.


Nous devons également faire très attention. À savoir, la militarisation de l’IA par les cybercriminels et d’autres acteurs de la menace. Ce n’est pas une préoccupation théorique, et même les générateurs d’images IA ne sont pas à l’abri des abus.


Que sont les générateurs d’images AI ? Comment travaillent-ils?

Si vous avez déjà utilisé un générateur d’images AI, vous avez une bonne idée de ce dont il s’agit. Même si vous n’en avez jamais utilisé, vous avez très probablement rencontré des images générées par l’IA sur les réseaux sociaux et ailleurs. Le logiciel populaire aujourd’hui fonctionne sur un principe très simple : l’utilisateur tape le texte, et l’IA génère une image basée sur ce texte.

Lire aussi :  Les 10 meilleures applications Linux pour les musiciens : découvrez les outils essentiels pour créer de la musique

Ce qui se passe sous le capot est beaucoup plus complexe. L’IA s’est beaucoup améliorée au cours de la dernière année, et le plus générateurs de texte en image sont aujourd’hui des modèles dits de diffusion. Cela signifie qu’ils sont “formés” sur une longue période de temps sur une énorme quantité de textes et d’images, ce qui rend leurs créations si impressionnantes et étonnamment réalistes.

Ce qui rend ces outils d’intelligence artificielle encore plus impressionnants, c’est le fait qu’ils modifient non seulement les images existantes ou combinent des milliers d’images en une seule, mais créent également de nouvelles images originales à partir de zéro. Plus les gens utilisent ces générateurs de texte en image, plus ils reçoivent d’informations et meilleures sont leurs créations.

Certains des plus célèbres Les générateurs d’images AI sont Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor et Craiyon. De nouveaux apparaissent à gauche et à droite, et les géants de la technologie – y compris Google – publient les leurs, nous ne pouvons donc que spéculer sur ce que l’avenir nous réserve.

4 façons dont les acteurs de la menace militarisent les générateurs d’images AI

L'illustration numérique montre des écrans représentant l'intelligence artificielle

Comme presque toutes les technologies, les générateurs d’images IA peuvent être abusés par des acteurs malveillants. En fait, ils sont déjà utilisés à toutes sortes de fins néfastes. Mais quels types d’escroqueries et de cyberattaques un criminel peut-il réaliser à l’aide de générateurs d’images IA ?

1. Ingénierie sociale

Une chose évidente que les pirates peuvent faire avec les générateurs d’images d’IA est faire de l’ingénierie sociale; par exemple, créer de faux profils de réseaux sociaux. Certains de ces programmes peuvent créer des images incroyablement réalistes qui ressemblent à de vraies photos de vraies personnes, et un escroc peut utiliser ces faux profils de médias sociaux pour la pêche au chat.

Contrairement aux photos de personnes réelles, les photos générées par l’IA ne peuvent pas être découvertes par la recherche d’image inversée, et le cybercriminel n’a pas besoin de travailler avec un nombre limité de photos pour engager sa cible – en utilisant l’IA, il peut générer comme il le souhaite, créer une image en ligne convaincante identité à partir de rien.

Mais il existe des exemples concrets d’acteurs malveillants utilisant des générateurs d’images d’IA pour tromper les gens. En avril 2022, TechTalks Le blogueur Ben Dickinson a reçu un e-mail d’un cabinet d’avocats affirmant qu’il avait utilisé une image sans autorisation. Les avocats ont envoyé à Dickinson un avis de violation du droit d’auteur DMCA lui disant de revenir à un de leurs clients ou de supprimer l’image.

Dickinson a recherché le cabinet d’avocats sur Google et a trouvé le site Web officiel. Tout semblait parfaitement légal ; le site contenait même des photos de 18 avocats, accompagnées de leurs biographies et de leurs références. Mais rien de tout cela n’était réel. Les photos ont toutes été générées par AI, et les supposés avis de violation du droit d’auteur ont été envoyés par quelqu’un qui voulait extorquer des backlinks à des blogueurs sans méfiance, dans le cadre d’un chapeau noir contraire à l’éthique. SEO (optimisation des moteurs de recherche) stratégie.

2. Escroqueries caritatives

Lorsque des tremblements de terre dévastateurs ont frappé la Turquie et la Syrie en février 2023, des millions de personnes dans le monde ont exprimé leur solidarité avec les victimes en faisant don de vêtements, de nourriture et d’argent.

Selon un rapport de Bbc, les escrocs en ont profité et ont utilisé l’IA pour créer des images réalistes et solliciter des dons. Un escroc a montré des images de ruines générées par l’IA sur TikTok Live et a demandé à ses téléspectateurs de faire des dons. Un autre a publié une image générée par l’IA d’un pompier grec sauvant un enfant blessé des décombres et a demandé à ses partisans des dons en Bitcoin.

On ne peut qu’imaginer quel type d’escroqueries caritatives les criminels exécuteront à l’avenir avec l’aide de l’IA, mais il est prudent de supposer qu’ils ne feront que s’améliorer en abusant de ce logiciel.

3. Deepfakes et désinformation

Les gouvernements, les groupes d’activistes et les groupes de réflexion ont depuis longtemps mis en garde contre la les dangers des deepfakes. Les générateurs d’images IA ajoutent une autre composante à ce problème, compte tenu du réalisme de leurs créations. En fait, au Royaume-Uni, il existe même une émission comique appelée Deep Fake Neighbor Wars qui trouve de l’humour dans des couples de célébrités improbables. Qu’est-ce qui empêchera un agent de désinformation de créer une fausse image et de la promouvoir sur les réseaux sociaux à l’aide de bots ?

Cela peut avoir de réelles conséquences, comme ce fut presque le cas en mars 2022, lorsqu’une fausse vidéo montrant le président ukrainien Volodymyr Zelensky disant aux Ukrainiens de se rendre a circulé en ligne, par Radio Nationale Publique. Mais ce n’est qu’un exemple, car les possibilités sont presque infinies et il existe d’innombrables façons pour un acteur menaçant de nuire à la réputation de quelqu’un, de promouvoir un faux récit ou de diffuser de fausses nouvelles à l’aide de l’IA.

4. Fraude publicitaire

TrendMicro des chercheurs ont découvert en 2022 que des escrocs utilisaient du contenu généré par l’IA pour créer des publicités trompeuses et promouvoir des produits louches. Ils ont créé des images suggérant des célébrités populaires utilisant certains produits et ont basé des campagnes publicitaires sur ces images.

Par exemple, une publicité pour une “opportunité de conseil financier” mettait en vedette le milliardaire Elon Musk, fondateur et PDG de Tesla. Bien sûr, Musk n’a jamais approuvé le produit en question, mais les visuels générés par l’IA l’ont fait apparaître, incitant vraisemblablement les téléspectateurs sans méfiance à cliquer sur les publicités.

IA et cybersécurité : un problème complexe auquel nous devons nous attaquer

À l’avenir, les régulateurs gouvernementaux et les experts en cybersécurité devront probablement travailler ensemble pour faire face à la menace émergente de la cybercriminalité alimentée par l’IA. Mais comment réglementer l’IA et protéger les gens ordinaires, sans étouffer l’innovation et limiter les libertés numériques ? Cette question se posera pour les années à venir.

Jusqu’à ce qu’il y ait une réponse, faites ce que vous pouvez pour vous protéger : recherchez attentivement toutes les informations que vous voyez en ligne, évitez les sites Web louches, utilisez des logiciels sécurisés, maintenez vos appareils à jour et apprenez à utiliser l’intelligence artificielle à votre avantage.

Mathieu

Laisser un commentaire

Publicité :