OpenAI se vio obligada a pausar la voz de su asistente virtual «Sky» tras las acusaciones de Scarlett Johansson de que sonaba «extrañamente parecida» a la suya.
La actriz reveló que la empresa la había contactado para que fuera la voz de Sky, pero ella se negó. Sin embargo, dos días antes del lanzamiento del nuevo producto, OpenAI lanzó la voz que, según muchos usuarios, era un clon de la de Johansson.
Tras las presiones legales del equipo de Johansson, OpenAI aceptó retirar la voz. La actriz exige «claridad absoluta» sobre el proceso de creación de la voz y la protección de la identidad en el mundo digital.
Este caso pone de relieve las complejas cuestiones que rodean la propiedad intelectual y la ética en la inteligencia artificial. ¿Quién es dueño de la voz de una persona? ¿Se puede replicar sin consentimiento? ¿Qué medidas se deben tomar para proteger la identidad de las personas en el mundo digital?
El caso de Johansson es un aviso para las empresas que desarrollan tecnologías de IA. Deberán actuar con responsabilidad y transparencia, y respetar los derechos de las personas.
La batalla legal de Johansson podría tener un impacto significativo en el futuro de la IA. Es posible que se establezcan nuevas regulaciones y directrices para proteger la identidad y la privacidad de las personas en el mundo digital.