A atriz Scarlett Johansson disse em comunicado enviado ao CNN na segunda-feira (20) que ela ficou “chocada, irritada e incrédula” com o fato de o CEO da OpenAI, Sam Altman, usar uma voz sintética lançada com uma atualização do ChatGPT “tão estranhamente semelhante” à dela.
A declaração vem depois que a OpenAI anunciou que está pausando a atualização após comparações com um assistente de voz fictício interpretado por Johansson no filme quase distópico de 2013 “Her”.
A retirada da OpenAI segue uma reação à voz artificial, conhecida como Sky, que os críticos descreveram como excessivamente familiar aos usuários e soava como se tivesse surgido da fantasia de um desenvolvedor masculino. Ela foi amplamente ridicularizada por seu tom de flerte.
“Recebemos perguntas sobre como escolhemos vozes no ChatGPT, especialmente no Sky”, disse OpenAI em um post no X na segunda-feira. “Estamos trabalhando para pausar o uso do Sky enquanto resolvemos esses problemas.”
Johansson disse que Altman se ofereceu para contratá-la em setembro passado para dar voz ao sistema ChatGPT 4.0. Ela disse que recusou a oferta por “motivos pessoais”.
“Dois dias antes do lançamento da demonstração do ChatGPT 4.0, o Sr. Altman contatou meu agente, pedindo-me para reconsiderar. Antes que pudéssemos nos conectar, o sistema já estava disponível.”
Johansson disse que contratou consultores jurídicos e que a OpenAI “concordou relutantemente” em remover a voz “Sky” depois que seu advogado enviou duas cartas a Altman.
“Numa altura em que todos lidamos com deepfakes e protegemos a nossa própria imagem, o nosso trabalho, as nossas próprias identidades, acredito que estas são questões que merecem clareza absoluta. Aguardo com expectativa uma resolução na forma de transparência e a aprovação de legislação apropriada para ajudar a garantir que os direitos individuais sejam protegidos”, escreveu Johansson.
A empresa disse em um blog no domingo que a voz em questão não é derivada da de Johansson, mas sim “pertence a uma atriz profissional diferente, usando sua própria voz natural”.
Altman reiterou a posição da empresa de que “Sky” foi dublado por uma atriz diferente em um comunicado na segunda-feira após as alegações de Johansson.
“A voz de Sky não é a de Scarlett Johansson e nunca foi planejada para soar como a dela”, disse Altman. “Escolhemos a atriz por trás da voz de Sky antes de qualquer contato com a Sra. Johansson. Por respeito à Sra. Johansson, pausamos o uso da voz da Sky em nossos produtos. Pedimos desculpas à Sra. Johansson por não ter se comunicado melhor.”
A OpenAI disse que, com cada uma de suas vozes de IA, tentou criar “uma voz acessível que inspira confiança”, que contenha um “tom rico” e seja “natural e fácil de ouvir”. O modo de voz do ChatGPT que usava a voz da Sky ainda não havia sido amplamente divulgado, mas vídeos do anúncio do produto e teasers de funcionários da OpenAI falando com ele se tornaram virais na semana passada.
Alguns que ouviram Sky ridicularizaram-no por ser talvez muito fácil de ouvir. Na semana passada, a polêmica inspirou um segmento no The Daily Show em que o correspondente sênior Desi Lydic descreveu Sky como uma “voz pervertida de bebê robô”.
“Isso foi claramente planejado para alimentar os egos dos caras”, disse Lydic. “Você pode realmente dizer que um homem construiu esta tecnologia.”
Até mesmo Altman pareceu reconhecer os paralelos generalizados que os usuários traçavam com Johansson quando ela postou no X no dia do anúncio do produto: “ela”. Johansson disse que Altman usou aquela postagem para sugerir que “a semelhança era intencional”.
“Her” é o título do filme de 2013 em que Johansson interpreta uma assistente de voz com inteligência artificial por quem o protagonista, interpretado por Joaquin Phoenix, se apaixona, apenas para ficar com o coração partido quando a IA admite que ela também está apaixonada. centenas de outros usuários e subsequentemente torna-se completamente inacessível.
Assista ao trailer de “Ela”
Perguntas de liderança
As críticas em torno da Sky realçam preocupações sociais mais amplas sobre os potenciais preconceitos de uma tecnologia concebida por empresas tecnológicas, em grande parte lideradas ou financiadas por homens brancos.
O anúncio ocorreu depois que os líderes da OpenAI foram forçados a defender suas práticas de segurança no fim de semana, depois que um funcionário que deixou a empresa questionou as prioridades da empresa.
Jan Leike, que anteriormente liderou uma equipe focada na segurança de longo prazo da IA, mas deixou a OpenAI na semana passada junto com o cofundador e cientista-chefe Ilya Sutskever, postou uma continuação do X na sexta-feira, alegando que “nos últimos anos, a segurança a cultura e os processos ficaram em segundo plano em relação aos produtos chamativos” na OpenAI. Ele também levantou preocupações de que a empresa não estava dedicando recursos suficientes para se preparar para um possível futuro de “inteligência artificial geral” (AGI) que poderia ser mais inteligente que os humanos.
Altman respondeu rapidamente, dizendo que apreciava o compromisso de Leike com a “cultura de segurança” e acrescentou: “Ele está certo, temos muito mais a fazer; estamos empenhados em fazê-lo.” A empresa também confirmou CNN que, nas últimas semanas, começou a dissolver a equipa liderada por Leike, integrando os seus membros em diversos grupos de investigação. Um porta-voz da empresa disse que esta estrutura ajudaria a OpenAI a atingir melhor seus objetivos de segurança.
O presidente da OpenAI, Greg Brockman, respondeu em uma postagem mais longa no sábado, assinada com seu nome e o de Altman, detalhando a abordagem da empresa para a segurança de IA de longo prazo.
“Temos aumentado a conscientização sobre os riscos e oportunidades da AGI para que o mundo possa se preparar melhor para ela”, disse Brockman. “Demonstramos repetidamente as incríveis possibilidades de escalar a aprendizagem profunda e analisamos suas implicações; apelámos à governação internacional da AGI antes de tais apelos se tornarem populares; e ajudamos a ser pioneiros na ciência de avaliação de sistemas de IA para riscos catastróficos.”
Ele acrescentou que à medida que a IA se torna mais inteligente e mais integrada na vida quotidiana das pessoas, a empresa está focada em ter “um ciclo de feedback muito apertado, testes rigorosos, consideração cuidadosa em cada passo, segurança de classe mundial e harmonia entre segurança e capacidades”.
ChatGPT supera médicos em fazer diagnóstico em consulta, diz estudo
Compartilhar: