Faire tenir à un politicien, une célébrité ou un proche des propos créés de toutes pièces. C’est la promesse de Lyrebird, une application créée par une start-up canadienne. Cette intelligence artificielle isole les caractéristiques de la voix et du phrasé, pour générer de parfaites imitations. Fascinant et inquiétant, de l’aveu même de ses créateurs.

(Image Pexels – Libre de droits)
La start-up canadienne Lyrebird affirme avoir mis au point une technologie capable d’imiter avec exactitude tout type de voix. De quoi faire tenir n’importe quel propos à une personne de son choix. Il suffit pour cela d’un échantillon audio d’une minute de la voix ciblée. L’intelligence artificielle (IA) est en mesure d’isoler l’ADN d’une voix, de le transformer en clé unique et de l’utiliser pour générer des paroles que le modèle original n’a jamais prononcées.
Technologie en développement
Le concept d’ADN appliqué à la voix reste davantage une formule marketing qu’une réalité. Reconnaître, analyser et reproduire les caractéristiques principales d’une voix et d’une diction ouvre cependant des perspectives aussi prometteuses qu’inquiétantes. Comme l’indique 01Net, l’IA de Lyrebird est encore en développement. En revanche, ses créateurs ont mis en ligne des exemples de ce dont leur logiciel est capable leur logiciel. Ils ont notamment créé de toutes pièces une conversation entre Hillary Clinton, Barack Obama et Donald Trump. Les trois politiciens commentent l’arrivée de Lyrebird, et se félicitent que ses concepteurs mettent la technologie à disposition de tous. Les fausses voix gardent encore un phrasé légèrement mécanique, mais l’imitation impressionne. Reste à confirmer avec la version bêta de Lyrebird, que sa technologie fonctionne aussi bien avec d’autres voix.
Relativiser les enregistrements audio
Lyrebird tient à s’assurer que son application ne servira pas à des fins de « contrefaçon ou d’usurpation d’identité ». L’entreprise canadienne estime que la diffusion de sa technologie au plus grand nombre devrait limiter les risques. « Nous espérons que le public prendra conscience qu’imiter une voix est devenu possible et que cela doit relativiser à l’avenir la valeur de preuve accordée aux enregistrements audio » a écrit Lyrebird sur son site internet.
Ajouter un commentaire