A OpenAI está preocupada que as pessoas possam começar a confiar demais no ChatGPT para companhia, o que pode levar ao “vício” devido ao seu novo modo de voz com som humano.
A revelação veio em um relatório divulgado na quinta-feira pela OpenAI sobre a revisão de segurança que realizou na ferramenta – que começou a ser disponibilizada para usuários pagos na semana passada – e o grande modelo de linguagem de IA em que se baseia.
O modo de voz avançado do ChatGPT parece extremamente realista. Ele responde em tempo real, pode se ajustar às interrupções, emite os tipos de sons que os humanos fazem durante as conversas, como rir ou fazer “hmms”. Você também pode avaliar o estado emocional de um locutor com base em seu tom de voz.
Poucos minutos depois de a OpenAI anunciar o recurso em um evento no início deste ano, ele foi comparado ao assistente digital de IA do filme “Her” de 2013, pelo qual o protagonista se apaixona, apenas para ficar com o coração partido quando a IA admite que também se relaciona com centenas de outros usuários.
Agora, a OpenAI está aparentemente preocupada que esta história fictícia esteja se tornando um pouco real demais, depois de observar usuários falando no modo de voz do ChatGPT em uma linguagem que “expressa laços compartilhados” com a ferramenta.
Eventualmente, “os utilizadores podem formar relações sociais com IA, reduzindo a sua necessidade de interação humana – o que poderia beneficiar indivíduos solitários, mas possivelmente afetar relacionamentos saudáveis”, afirma o relatório. O documento acrescenta que ouvir informações de um bot que parece humano pode levar os usuários a confiar mais na ferramenta do que deveriam, dada a propensão da IA a cometer erros.
O relatório destaca um risco maior em torno da inteligência artificial: as empresas tecnológicas estão a correr para disponibilizar rapidamente ao público ferramentas de IA que, segundo elas, podem mudar a forma como vivemos, trabalhamos, socializamos e encontramos informação.
Mas as empresas estão a fazer isto antes que alguém realmente compreenda quais são essas implicações. Tal como acontece com muitos avanços tecnológicos, as empresas muitas vezes têm uma ideia de como as suas ferramentas podem e devem ser utilizadas, mas os utilizadores desenvolvem uma série de outras aplicações potenciais, muitas vezes com consequências indesejadas.
Algumas pessoas já estão formando o que descrevem como relacionamentos românticos com chatbots de IA, o que está levantando preocupações entre os especialistas em relacionamento.
“É uma grande responsabilidade para as empresas realmente navegar nisso de forma ética e responsável, e tudo está em fase de experimentação neste momento”, disse Liesel Sharabi, professora da Universidade Estadual do Arizona que estuda tecnologia e comunicação humana, em entrevista ao CNN em junho. “Eu me preocupo com as pessoas que estão formando conexões realmente profundas com uma tecnologia que pode não existir a longo prazo e está em constante evolução.”
A OpenAI afirmou que as interações dos usuários humanos com o modo de voz do ChatGPT também podem, com o tempo, influenciar o que é considerado normal nas interações sociais.
“Nossos modelos são deferenciais, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para uma IA, seria antinormativo nas interações humanas”, afirmou a empresa no relatório.
Por enquanto, a OpenAI afirma estar comprometida em construir IA “com segurança” e planeja continuar estudando o potencial de “dependência emocional” dos usuários em suas ferramentas.
Compartilhar:
melhor banco para emprestimo consignado
caixa simulador emprestimo
empréstimo consignado sem margem
qual o melhor banco para fazer emprestimo consignado
melhores bancos para empréstimo consignado
simulação emprestimo caixa
qual banco faz empréstimo acima de 80 anos
o que é emprestimo consignado inss
número banco bmg
lojas help telefone
consignação empréstimo bancário
numero do banco bmg