[ad_1]
Les escrocs et les pirates de la cryptographie trouvent de nouvelles façons de pénétrer les mesures de sécurité, alors même que l’industrie de la cryptographie accélère les tentatives d’ajouter des couches de sécurité avancées à diverses plates-formes. Les pirates et les escrocs exploitent désormais les deepfakes de l’IA afin de violer la sécurité des échanges cryptographiques et des entreprises liées au Web3. En utilisant l’IA profonde, des éléments notoires visent à contourner les critères d’identification établis par les plateformes, a déclaré Jimmy Su, responsable de la sécurité de Binance, dans une récente interview.
Les deepfakes sont des photos ou des vidéos générées artificiellement conçues pour reproduire de manière convaincante la voix ainsi que les traits et les expressions du visage d’un individu, vivant ou décédé. Des outils d’intelligence artificielle (IA) et d’apprentissage automatique (ML) sont utilisés pour créer des deepfakes avec des graphismes réalistes.
Si les escrocs réussissent à créer des deepfakes d’investisseurs en crypto, cela augmente leurs chances de contourner la sécurité des plateformes de crypto et de voler les fonds des utilisateurs. « Le pirate cherchera quelque part une image normale de la victime en ligne. Sur cette base, en utilisant de faux outils profonds, ils sont capables de produire des vidéos pour faire le contournement. Une partie de la vérification nécessite que l’utilisateur, par exemple, cligne de l’œil gauche ou regarde vers la gauche ou vers la droite, regarde vers le haut ou vers le bas. Les contrefaçons profondes sont suffisamment avancées aujourd’hui pour pouvoir réellement exécuter ces commandes », a déclaré Su dit Coin Telegraph.
Depuis quelques mois, les acteurs du secteur de la cryptographie soulignent la menace croissante que représentent les deepfakes générés par l’IA pour les victimes non informées et sans méfiance. En février 2023, une vidéo deepfake du PDG de Binance, Changpeng Zhao, a fait surface sur les réseaux sociaux. Dans ce clip, un Zhao généré artificiellement peut être entendu appelant les gens à échanger exclusivement de la crypto avec eux.
L’IA profondément fausse constitue une menace sérieuse pour l’humanité, et ce n’est plus seulement une idée farfelue. Je suis récemment tombé sur une vidéo présentant un faux profond de @cz_binance et c’est terriblement convaincant. pic.twitter.com/BRCN7KaDgq
—DigitalMicropreneur.eth (@rbkasr) 24 février 2023
Une vidéo deepfake similaire d’Elon Musk partageant des conseils d’investissement cryptographiques trompeurs a également été repérée sur les réseaux sociaux au début du mois.
Étant donné que ces vidéos deepfakes sont très attrayantes, de nombreuses personnes pourraient ne pas être en mesure de repérer certains signes avant-coureurs indiquant qu’il s’agit de deepfakes. Dans les temps à venir, Su prédit que l’IA pourra détecter les parties inégales des deepfakes et améliorera la qualité.
« Lorsque nous regardons ces vidéos, il y a certaines parties que nous pouvons détecter à l’œil humain. par exemple, lorsque l’utilisateur doit tourner la tête sur le côté. L’IA surmontera [them] au fil du temps. Donc, ce n’est pas quelque chose sur lequel on peut toujours compter. Même si nous pouvons contrôler nos propres vidéos, il existe des vidéos qui ne nous appartiennent pas. Donc, une chose, encore une fois, est l’éducation des utilisateurs », a déclaré Su dans l’interview.
Un rapport récent de la société de recherche sur la blockchain CertiK estime qu’un énorme 103 millions de dollars (environ Rs. 840 crore) a été volé dans des exploits cryptographiques cette année en avril. Les escroqueries à la sortie et les prêts flash sont devenus la principale source de fonds volés dans les crimes cryptographiques. Au cours des quatre derniers mois de 2023, CertiK estime que 429,7 millions de dollars (environ 3 510 crores de roupies) ont été volés par des escrocs et des pirates informatiques.
[ad_2]
Source link