A TikTok começará a trabalhar com um sistema de marca d’água digital chamado Content Credentials para ajudar a identificar mais fotos, vídeos e conteúdo somente de áudio criado usando ferramentas de inteligência artificial de empresas como Microsoft, Adobe e OpenAI.

A gigante chinesa das redes sociais, que luta contra uma potencial proibição nos EUA por questões de segurança nacional, já rotula o conteúdo gerado por IA feito com as ferramentas de efeitos de IA do TikTok. A empresa disse que suas novas medidas farão parte de um esforço crescente para combater a desinformação e a desinformação.

Etiqueta de distintivo de arte AI Atlas

“A IA permite oportunidades criativas incríveis, mas pode confundir ou enganar os espectadores se eles não souberem que o conteúdo foi gerado pela IA”, diz TikTok disse em um comunicado. “A rotulagem ajuda a tornar esse contexto claro.”

Consulte Mais informação: Quão próxima está essa foto da verdade? O que saber na era da IA

As ações do TikTok marcam outra maneira pela qual a indústria de tecnologia está respondendo às crescentes preocupações sobre a difusão do conteúdo gerado por IA. Nos últimos anos, em particular, a tecnologia de IA que cria texto, vídeos e áudio tornou-se muito mais fácil de usar. (Confira as análises práticas da CNET sobre ferramentas de geração de imagens de IA, como ImageFX do Google, Adobe Firefly e Dall-E 3 da OpenAI, bem como mais dicas, explicadores e notícias sobre IA em nossa página de recursos AI Atlas.)

Ao mesmo tempo, o conteúdo de IA também se tornou muito mais verossímil. Especialistas em meios de comunicação e informação alertaram que estas tendências convergentes podem criar riscos significativos para o público, com mentiras realistas e desinformação a inundar a Internet.

As preocupações não são apenas teóricas. No início deste ano, um consultor político fez ligações automáticas em grande escala usando uma recriação da voz do presidente dos EUA, Joe Biden, alimentada por IA. Nesse caso, a gravação de IA que soava muito real encorajou as pessoas em New Hampshire a não votarem nas eleições primárias.

Os especialistas acreditam que é apenas o começo do rumo que a desinformação da IA ​​provavelmente está tomando, especialmente com as próximas eleições presidenciais de 2024.

A TikTok não é a única empresa de mídia social que trabalha para identificar postagens baseadas em IA. No mês passado, Meta, proprietária do Facebook e do Instagram, anunciou planos para rotular vídeos, áudio e imagens como “feitos com IA” quando seus sistemas detectam envolvimento de IA, independentemente de os criadores divulgarem essas informações durante um upload.

O YouTube do Google também exigiu a divulgação de vídeos manipulados por IA dos criadores, citando exemplos incluindo semelhanças “realistas” de pessoas ou cenas, bem como imagens alteradas de eventos ou lugares reais. OpenAI também disse que irá adicione dados de identificação de IA a todas as imagens gerado usando seus sistemas.

Até agora, parece que os usuários apreciam amplamente esses esforços. No mês passado, Meta citou um estudo no qual 82% de mais de 23.000 entrevistados de 13 países preferiram rótulos em conteúdo gerado por IA “que retrata pessoas dizendo coisas que não disseram”.

A TikTok disse que planeja expandir seus esforços de rotulagem de IA, inclusive adicionando dados a fotos ou vídeos criados usando ferramentas de IA em sua plataforma, que as pessoas podem baixar e compartilhar em outro lugar.

“À medida que a IA evolui, continuamos a investir no combate ao conteúdo prejudicial gerado pela IA, evoluindo os nossos modelos de deteção proativa, consultando especialistas e estabelecendo parcerias com pares em soluções partilhadas”, acrescentou a empresa.

Consulte Mais informação: AI Atlas: seu guia para a inteligência artificial atual

Nota do editor: A CNET usou um mecanismo de IA para ajudar a criar várias dezenas de histórias, que são rotuladas de acordo. A nota que você está lendo está anexada a artigos que tratam substancialmente do tópico de IA, mas são criados inteiramente por nossos editores e escritores especializados. Para mais, veja nosso Política de IA.



Fuente