<p> [ad_1]<br />
</p>
<div id="center_content_div">
<div class="content_text row description">
<p>Environ la moitié des Indiens interrogés ont déclaré qu&rsquo;ils étaient incapables de faire la différence entre la voix réelle et clonée d&rsquo;une personne, tandis que 83% des victimes d&rsquo;escroqueries vocales ont subi une perte d&rsquo;argent, a déclaré la société de sécurité en ligne McAfee dans un rapport.</p>
<p>L&rsquo;enquête auprès de 7 054 personnes a été menée dans sept pays, dont 1 010 répondants indiens, autour des escroqueries vocales utilisant l&rsquo;intelligence artificielle par des imposteurs.</p>
<p>Le rapport suggère d&rsquo;utiliser un mot de passe verbal entre les membres de la famille et les amis proches de confiance comme l&rsquo;une des mesures de protection contre les escroqueries vocales.</p>
<p>« Environ la moitié (47%) des adultes indiens ont subi ou connaissent quelqu&rsquo;un qui a subi une sorte d&rsquo;escroquerie vocale basée sur l&rsquo;IA, soit près du double de la moyenne mondiale (25%). 83% des victimes indiennes ont déclaré avoir perdu de l&rsquo;argent &#8211; avec 48 % perdant plus de Rs. 50 000 », indique le rapport.</p>
<p>McAfee a mené une enquête sur la façon dont la technologie de l&rsquo;intelligence artificielle (IA) alimente une augmentation des escroqueries vocales en ligne, avec seulement trois secondes d&rsquo;audio nécessaires pour cloner la voix d&rsquo;une personne.</p>
<p>« L&rsquo;enquête révèle que plus de la moitié (69%) des Indiens pensent qu&rsquo;ils ne savent pas ou ne peuvent pas faire la différence entre une voix d&rsquo;IA et une vraie voix », indique le rapport.</p>
<p>L&rsquo;enquête a révélé que 66% des répondants indiens ont déclaré qu&rsquo;ils répondraient à un message vocal ou à une note vocale prétendant provenir d&rsquo;un ami ou d&rsquo;un être cher ayant besoin d&rsquo;argent.</p>
<p>« En particulier s&rsquo;ils pensaient que la demande provenait de leur parent (46 %), de leur partenaire ou conjoint (34 %) ou de leur enfant (12 %). Les messages les plus susceptibles de susciter une réponse étaient ceux affirmant que l&rsquo;expéditeur avait été victime d&rsquo;un vol (70 %). pour cent), a été impliqué dans un accident de voiture (69 pour cent), a perdu son téléphone ou son portefeuille (65 pour cent) ou a eu besoin d&rsquo;aide lors d&rsquo;un voyage à l&rsquo;étranger (62 pour cent) », indique le rapport. L&rsquo;enquête a également révélé que la montée des contrefaçons profondes et de la désinformation a conduit les gens à se méfier de ce qu&rsquo;ils voient en ligne, 27% des adultes indiens déclarant qu&rsquo;ils font désormais moins confiance aux médias sociaux que jamais auparavant et 43% s&rsquo;inquiètent de la hausse. de mésinformation ou de désinformation.</p>
<p>« L&rsquo;intelligence artificielle offre des opportunités incroyables, mais avec n&rsquo;importe quelle technologie, il y a toujours le potentiel qu&rsquo;elle soit utilisée à des fins malveillantes entre de mauvaises mains. C&rsquo;est ce que nous constatons aujourd&rsquo;hui avec l&rsquo;accès et la facilité d&rsquo;utilisation des outils d&rsquo;IA aidant les cybercriminels à évoluer leurs efforts de manière de plus en plus convaincante », a déclaré Steve Grobman, CTO de McAfee.</p>
<hr />
<div><em>Xiaomi a lancé son smartphone phare Xiaomi 13 Ultra axé sur l&rsquo;appareil photo, tandis qu&rsquo;Apple a ouvert ses premiers magasins en Inde cette semaine. Nous discutons de ces développements, ainsi que d&rsquo;autres rapports sur les rumeurs liées aux smartphones et plus encore sur Orbital, le podcast thebuzzly. Orbital est disponible sur <a rel="nofollow noopener" href="https://open.spotify.com/show/1TQIHsTESxrsHleJVhUKcr" target="_blank">Spotify</a>, <a rel="nofollow noopener" href="https://pricee.com/api/redirect/t.php?from=gadgets360&;redirect=https%3A%2F%2Fgaana.com%2Fpodcast%2Forbital-season-1" target="_blank">Gaana</a>, <a rel="nofollow noopener" href="https://pricee.com/api/redirect/t.php?from=gadgets360&;redirect=https%3A%2F%2Fwww.jiosaavn.com%2Fshows%2Forbital%2F1%2Fr9VmNAJ211U" target="_blank">JioSaavn</a>, <a rel="nofollow noopener" href="https://pricee.com/api/redirect/t.php?from=gadgets360&;redirect=https%3A%2F%2Fpodcasts.google.com%2Ffeed%2FaHR0cHM6Ly9jZG4uZ2FkZ2V0czM2MC5jb20vY29udGVudC9kYXRhL3htbC9vcmJpdGFsLnhtbA" target="_blank">Podcasts Google</a>, <a rel="nofollow noopener" href="https://itunes.apple.com/in/podcast/orbital-gadgets-360-podcast/id1121036073" target="_blank">Podcast Apple</a>, <a rel="nofollow noopener" href="https://pricee.com/api/redirect/t.php?from=gadgets360&;redirect=https%3A%2F%2Fmusic.amazon.in%2Fpodcasts%2Fe3a8ca64-3005-4427-a89e-b3e8ec828c3b%2FOrbital" target="_blank">Amazon Musique</a> et partout où vous obtenez vos podcasts.</em></div>
<div class="downloadtxt"><i>Des liens d&rsquo;affiliation peuvent être générés automatiquement &#8211; consultez notre déclaration d&rsquo;éthique pour plus de détails.</i></div>
</div>
<p class="downloadtxt margin_b20">Pour les dernières nouvelles et critiques techniques, suivez thebuzzly sur <a rel="nofollow noopener" href="https://twitter.com/gadgets360" target="_blank">Twitter</a>, <a rel="nofollow noopener" href="https://facebook.com/gadgets360" target="_blank">Facebook</a>et <a rel="nofollow noopener" href="https://news.google.com/publications/CAAqBwgKMILm3AowtoHPAQ?hl=en-IN&;gl=IN&;ceid=IN%3Aen" target="_blank">Actualités de Google</a>. Pour les dernières vidéos sur les gadgets et la technologie, abonnez-vous à notre <a rel="nofollow noopener" href="https://www.youtube.com/channel/UCx5e1u7BX0aKwEj3sdYXdXg?sub_confirmation=1" target="_blank">Chaîne Youtube</a>.</p>
<div class="story_nextprv">
<div class="left_story">
<p> <i class="sprite" /></p>
<div class="story_image">
 <img class="lazy" src="https://thebuzzly.com/wp-content/uploads/2023/01/Microsoft-devoile-VALL-E-une-IA-audio-capable-de-simuler-nimporte.png" data-original="https://i.gadgets360cdn.com/large/meta_reuters_thumb_1679548651851.jpg?downsize=90:68&;output-quality=70" alt="Près de la moitié des Indiens sont victimes de fausses escroqueries vocales utilisant l'IA : enquête McAfee" width="90" height="68" loading="lazy" />
 </div>
<p> <span>Meta a déclaré viser 7 milliards de dollars dans sa deuxième vente d&rsquo;obligations de premier ordre</span></p></div>
</div>
<p> <;!&#8211;</p>
<div class="adhead">
 <span>Advertisement</span></p>
<div id='div-gpt-ad-1667475893419-0' style="min-width: 728px;min-height: 90px;text-align:center"></div>
</div>
<p>&#8211;>;</p></div>
<p>[ad_2]<br />
<br /><a href="https://www.gadgets360.com/internet/news/artificial-intelligence-enabled-fake-voice-scams-almost-half-indian-mcafee-survey-3996419#rss-gadgets-all">Source link </a></p>

Près de la moitié des Indiens sont victimes de fausses escroqueries vocales utilisant l’IA : enquête McAfee
-
by thebuzzly

Metaverse Pourrait Ouvrir Un Nouveau Monde De Cybercriminalite Craint Interpol
- Categories: TECH
- Tags: desenquêteescroqueriesfaussesindienslIAMcAfeemoitiéprèssontutilisantvictimesvocales
Related Content
Sora : la création de vidéos par intelligence artificielle d'OpenAI
by
thebuzzly
18/02/2024