L'utilisation de ce modèle d'IA sera restreinte pour empêcher des fraudes ou des crimes, comme l'usurpation d'identité, a indiqué OpenAI dans un communiqué.
>> Lire aussi : Intelligence artificielle : OpenAI promet des "superpouvoirs" pour tous
"Nous reconnaissons que la capacité de générer des voix ressemblant à celles de personnes comporte de sérieux risques, qui sont particulièrement importants en cette année électorale", a fait savoir l'entreprise, ajoutant qu'elle travaille avec des partenaires américains et internationaux issus du gouvernement, des médias, du divertissement, de l'éducation, de la société civile et d'autres secteurs, tout en prenant en compte leurs commentaires
OpenAI a assuré avoir adopté "une approche prudente et informée" avant une diffusion plus large du nouvel outil "en raison du potentiel d'utilisation abusive des voix synthétiques", précisant que les partenaires qui testent "Voice Engine" ont accepté des règles exigeant notamment le consentement explicite et informé de toute personne dont la voix est dupliquée et la transparence pour les auditeurs, ainsi que la mise en place d'un ensemble de mesures de sécurité, y compris une marque en filigrane pour pouvoir retracer l'origine de tout son généré par IA.
Cette présentation prudente intervient après un incident politique majeur, quand une personne a mis au point un programme automatisé qui usurpait l'identité du président américain, en campagne pour sa réélection, appelant les électeurs pour les inciter à s'abstenir.
Les Etats-Unis ont depuis interdit les appels par des voix clonées, générées par de l'IA, afin de lutter contre les arnaques politiques ou commerciales.
>> Lire aussi : Intelligence artificielle : OpenAI promet des "superpouvoirs" pour tous
"Nous reconnaissons que la capacité de générer des voix ressemblant à celles de personnes comporte de sérieux risques, qui sont particulièrement importants en cette année électorale", a fait savoir l'entreprise, ajoutant qu'elle travaille avec des partenaires américains et internationaux issus du gouvernement, des médias, du divertissement, de l'éducation, de la société civile et d'autres secteurs, tout en prenant en compte leurs commentaires
OpenAI a assuré avoir adopté "une approche prudente et informée" avant une diffusion plus large du nouvel outil "en raison du potentiel d'utilisation abusive des voix synthétiques", précisant que les partenaires qui testent "Voice Engine" ont accepté des règles exigeant notamment le consentement explicite et informé de toute personne dont la voix est dupliquée et la transparence pour les auditeurs, ainsi que la mise en place d'un ensemble de mesures de sécurité, y compris une marque en filigrane pour pouvoir retracer l'origine de tout son généré par IA.
Cette présentation prudente intervient après un incident politique majeur, quand une personne a mis au point un programme automatisé qui usurpait l'identité du président américain, en campagne pour sa réélection, appelant les électeurs pour les inciter à s'abstenir.
Les Etats-Unis ont depuis interdit les appels par des voix clonées, générées par de l'IA, afin de lutter contre les arnaques politiques ou commerciales.