Une étude récente de l’Université Queen Mary de Londres révèle que 58 % des clones vocaux générés par IA sont confondus avec des voix humaines par les auditeurs, posant de sérieuses questions éthiques et sécuritaires.
Résultats de l’étude en détail
Publiée dans PLOS One, la recherche a impliqué 50 participants britanniques âgés de 18 à 65 ans, qui ont évalué 80 extraits audio incluant des voix IA et humaines avec divers accents. Les voix IA, particulièrement celles à accent britannique, ont été jugées aussi réalistes que les véritables et souvent plus fiables.
Technologie sous-jacente et exemples concrets
Cette sophistication s’explique par des algorithmes d’apprentissage profond entraînés sur d’immenses ensembles de données vocales, capables de reproduire pitch, intonation et accents à partir de courts échantillons. Un cas concret illustre les risques : en Italie, des hommes d’affaires ont été victimes d’un appel frauduleux utilisant un deepfake de la voix du ministre de la Défense Guido Crosetto, simulant un enlèvement. Seul Massimo Moratti, ex-propriétaire de l’Inter Milan, a envoyé de l’argent, qui a été gelé par la police.
Risques et applications positives
Les préoccupations montent face à l’explosion des fraudes téléphoniques : les pertes mondiales dues aux deepfakes ont atteint 547,2 millions de dollars entre janvier et juin 2025, contre 200 millions au premier trimestre. Les experts craignent aussi l’usurpation d’identité, la désinformation et la création de contenus sexuels abusifs, y compris impliquant des mineurs. Nadine Lavan, co-auteure de l’étude, attribue cette évolution à des datasets de haute qualité, tandis que les applications positives incluent la restauration de voix pour les personnes aphasiques.
Par ailleurs, les deepfakes vidéo pourraient atteindre 8 millions d’exemplaires partagés en ligne d’ici fin 2025, contre 500 000 en 2023, selon DeepMedia, soulignant l’urgence de régulations.
