O Google informou aos anunciantes na segunda-feira que está adicionando uma nova ferramenta de divulgação obrigatória aos seus sistemas, projetada para identificar anúncios políticos que foram alterados ou criados usando inteligência artificial.

Em uma atualização em seu site de políticas de publicidade, o Google disse que agora irá exigir que os anunciantes marquem uma caixa de seleção se um anúncio político contiver “conteúdo sintético ou alterado digitalmente que retrate de forma não autêntica pessoas reais ou com aparência realista”. O Google disse que, em alguns casos, gerará divulgações automáticas no anúncio, enquanto em outros ainda exigirá que os anunciantes incluam uma divulgação proeminente, além de marcar a caixa de seleção de autoidentificação.

As ações do Google são as mais recentes de uma série de esforços em toda a indústria de tecnologia para responder às crescentes ondas de conteúdo que são criadas ou alteradas por ferramentas de IA. Empresas de tecnologia, incluindo gigantes da web como a Alphabet, dona do Google, e a Meta, dona do Instagram, identificaram a IA como uma tecnologia-chave para espalhar desinformação e informações falsas antes da eleição presidencial dos EUA de 2024 em novembro. Ainda mais revelador, os pesquisadores do Google disseram que atores de má-fé usam esmagadoramente a IA para criar desinformação sobre políticos e celebridades, de acordo com um relatório do mês passado no Financial Times.

Consulte Mais informação: Quão perto está essa foto da verdade? O que saber na era da IA

ai-atlas-tag.png

No início desta semana, a Meta anunciou uma atualização de suas políticas sobre quaisquer postagens em suas redes sociais Facebook, Instagram ou Threads que possam ser criadas ou editadas por IA. Nesses casos, a empresa disse que, quando detectar manipulação de IA, adicionará um botão “Informações de IA” à postagem, incentivando os usuários a aprender mais sobre o que seus sistemas detectaram. Adobe, Apple, OpenAI, Google e outras empresas de tecnologia também prometeram adicionar rótulos de metadados a imagens criadas ou editadas com ferramentas de IA, embora atores de má-fé estejam frequentemente encontrando novas maneiras de enganar os sistemas de detecção.

Para o Google, essa nova regra de divulgação de IA expande os esforços dos últimos dois anos. Em 2022, a empresa proibiu semelhanças “deepfake” intencionalmente enganosas de outras pessoas manipuladas por IA. Então, no ano passado, a empresa atualizou suas políticas de conteúdo político para exigir que os anunciantes “divulguem com destaque quando seus anúncios contiverem conteúdo sintético que retrate pessoas ou eventos reais ou de aparência realista de forma não autêntica”. Como Connie Guglielmo da CNET relatou na época, a política do Google ia além de imagens, vídeos ou áudios criados por IA. O Google também estava alertando sempre que ferramentas de IA são usadas para edições que resultam em representações imprecisas de eventos reais.



Fuente