OpenAI, le géant de l’intelligence artificielle, a dévoilé son dernier-né baptisé « Voice Engine », une nouvelle IA capable de reproduire la voix d’une personne à partir d’un échantillon audio de seulement 15 secondes.
Afin d’éviter les abus tels que la fraude ou les crimes liés à l’usurpation d’identité, OpenAI prévient cependant que son utilisation sera étroitement contrôlée.
Dans un communiqué, l’entreprise a souligné les risques sérieux associés à la capacité de créer des voix ressemblant à celles de personnes réelles, surtout en cette année électorale cruciale. OpenAI collabore avec des partenaires gouvernementaux, des médias, des acteurs du divertissement, de l’éducation et de la société civile pour développer cet outil tout en tenant compte de leurs retours.
Les risques de l’IA générative: OpenAI adopte une approche prudente face aux dangers des voix synthétiques.
Les chercheurs en désinformation craignent particulièrement une utilisation abusive des applications d’IA générative, telles que les outils de clonage vocal, qui sont non seulement bon marché et faciles à utiliser, mais également difficiles à retracer.
OpenAI a donc adopté une approche prudente en raison du potentiel d’abus des voix synthétiques. Cette prudence fait suite à un incident majeur lorsqu’un consultant travaillant pour la campagne présidentielle d’un rival démocrate de Joe Biden a développé un programme automatisé qui imitait la voix du président américain pour inciter les électeurs à s’abstenir lors des primaires du New Hampshire. Depuis, les États-Unis ont interdit les appels par des voix clonées générées par l’IA pour lutter contre les arnaques politiques ou commerciales.
OpenAI renforce la sécurité de « Voice Engine » avec des règles strictes et des mesures de transparence.
OpenAI a également précisé que les partenaires testant « Voice Engine » ont accepté des règles strictes, notamment le consentement explicite et informé de toute personne dont la voix est dupliquée, ainsi que la transparence pour les auditeurs, qui doivent être informés que les voix qu’ils entendent sont générées par l’IA.
Enfin, l’entreprise a mis en place des mesures de sécurité, dont un filigrane pour retracer l’origine de tout son généré par Voice Engine, ainsi qu’un contrôle proactif de son utilisation. Cette annonce intervient après que la Maison Blanche ait dévoilé des règles pour encadrer le développement de l’IA, notamment celui de la transparence, suite aux préoccupations exprimées par Joe Biden concernant l’utilisation criminelle potentielle de cette technologie.