O chefe da Comissão Federal de Comunicações apresentou na quarta-feira uma proposta que exigiria que os anunciantes políticos divulgassem quando usassem conteúdo gerado por IA em anúncios de TV e rádio.
A proposta, se adotada pela Comissão, acrescentaria uma camada de transparência que muitos legisladores e especialistas em inteligência artificial têm pedido, à medida que as ferramentas generativas de IA, que avançam rapidamente, produzem imagens, vídeos e clipes de áudio realistas que ameaçam enganar os eleitores nas próximas eleições nos EUA. .
Mas a FCC, o principal regulador de telecomunicações do país, só tem autoridade sobre televisão, rádio e alguns fornecedores de cabo. Quaisquer novas regras não cobririam o crescimento explosivo da publicidade em plataformas digitais e de streaming.
“À medida que as ferramentas de inteligência artificial se tornam mais acessíveis, a comissão quer garantir que os consumidores estejam totalmente informados quando a tecnologia for usada”, disse a presidente da FCC, Jessica Rosenworcel, em comunicado na quarta-feira. “Hoje, partilhei com os meus colegas uma proposta que deixa claro que os consumidores têm o direito de saber quando as ferramentas de IA estão a ser utilizadas nos anúncios políticos que veem, e espero que atuem rapidamente nesta questão.”
Esta é a segunda vez este ano que a comissão começa a tomar medidas significativas para combater a utilização crescente de ferramentas de inteligência artificial nas comunicações políticas. Anteriormente, a FCC confirmou que as ferramentas de clonagem de voz de IA em chamadas automáticas são proibidas pela lei existente. Essa decisão ocorreu após um incidente nas eleições primárias de New Hampshire, quando chamadas automatizadas usaram software de clonagem de voz. imitar o presidente Joe Biden para dissuadir os eleitores de irem às urnas.
Se adotada, a proposta pediria às emissoras que verificassem com os anunciantes políticos se o seu conteúdo foi gerado usando ferramentas de IA – como criadores de texto para imagem ou software de clonagem de voz. A FCC tem autoridade sobre a publicidade política em canais de transmissão de acordo com a Lei de Reforma de Campanha Bipartidária de 2002.
Mas os comissários ainda teriam de discutir vários detalhes, incluindo se as emissoras teriam de divulgar o conteúdo gerado pela IA numa mensagem no ar ou apenas nos ficheiros políticos da estação de televisão ou rádio, que são públicos. Eles também terão a tarefa de chegar a um acordo sobre uma definição de conteúdo gerado por IA, um desafio que se tornou complicado à medida que ferramentas de retoque e outros avanços de IA se tornam cada vez mais incorporados em todos os tipos de software criativo.
Rosenworcel espera ter os regulamentos em vigor antes das eleições.
Jonathan Uriarte, porta-voz e consultor político da Rosenworcel, disse que pretende definir conteúdo gerado por IA como aquele gerado por meio de tecnologia computacional ou sistemas baseados em máquinas, “incluindo, em particular, vozes geradas por IA que soam como vozes humanas, e Atores gerados por IA que parecem ser atores humanos.” Ele disse que o projeto de definição dela provavelmente mudará durante o processo regulatório.
A proposta surge num momento em que as campanhas políticas já experimentaram fortemente a IA generativa, desde a construção de chatbots para os seus websites até à criação de vídeos e imagens utilizando a tecnologia.
No ano passado, por exemplo, o RNC lançou um anúncio inteiramente gerado por IA destinado a mostrar um futuro distópico sob outra administração Biden. Empregou fotos falsas, mas realistas, mostrando vitrines fechadas com tábuas, patrulhas militares blindadas nas ruas e ondas de imigrantes criando pânico.
As campanhas políticas e os maus atores também utilizaram imagens, vídeos e conteúdos de áudio altamente realistas para enganar, enganar e privar os eleitores. Nas eleições da Índia, vídeos recentes gerados por IA que deturpam estrelas de Bollywood enquanto criticam o primeiro-ministro exemplificam uma tendência que os especialistas em IA dizem estar a surgir nas eleições democráticas em todo o mundo.
Rob Weissman, presidente do grupo de defesa Public Citizen, disse estar feliz em ver a FCC “se esforçando para enfrentar proativamente as ameaças de inteligência artificial e deepfakes, inclusive especialmente à integridade eleitoral”.
Ele instou a FCC a exigir a divulgação no ar para benefício do público e instou outra agência, a Comissão Eleitoral Federal, por seus atrasos, pois também considera a possibilidade de regular os deepfakes gerados por IA em anúncios políticos.
A deputada Yvette Clarke, uma democrata de Nova York, disse que é hora de o Congresso agir sobre a disseminação de desinformação online, sobre a qual a FCC não tem jurisdição. Ela introduziu legislação para requisitos de divulgação de conteúdo gerado por IA em anúncios online.
À medida que a IA generativa se tornou mais barata, acessível e fácil de utilizar, vários grupos bipartidários de legisladores apelaram a uma legislação para regular a tecnologia na política. Faltando pouco mais de cinco meses para as eleições de Novembro, ainda não foram aprovados quaisquer projectos de lei.
A projeto de lei bipartidário introduzido pela senadora Amy Klobuchar, uma democrata de Minnesota, e pela senadora Lisa Murkowski, uma republicana do Alasca, exigiria que os anúncios políticos tivessem uma isenção de responsabilidade se fossem feitos ou significativamente alterados usando IA. Exigiria que a Comissão Eleitoral Federal respondesse às violações.
Uriarte disse que Rosenworcel percebe que a capacidade da FCC de agir contra ameaças relacionadas à IA é limitada, mas quer fazer o que puder antes das eleições de 2024.
“Esta proposta oferece os padrões máximos de transparência que a comissão pode fazer cumprir sob a sua jurisdição”, disse Uriarte. “Esperamos que as agências governamentais e os legisladores possam aproveitar este importante primeiro passo no estabelecimento de um padrão de transparência sobre o uso de IA na publicidade política”.