Índice do Artigo

Será que vai pegar?

Adobe revela símbolo para identificar imagens geradas por inteligência artificial

Content Credentials entregam se imagem é editada e tem até créditos dos autores e programas utilizados.

Adobe revela símbolo para identificar imagens geradas por inteligência artificial
Créditos: Divulgação/Content Credentials

A empresa Adobe, dona da plataforma de edição e criação de conteúdo por assinatura Creative Cloud, revelou oficialmente os planos da marca para tentar reduzir as enganações causadas por conteúdos gerados via inteligência artificial (IA).

A novidade é um símbolo chamado Content Credentials, criado por uma organização chamada Coalition for Content Provenance and Authenticity (C2PA) e formada por empresas como a própria Adobe; Leica e Nikon, do setor de fotografia; e a Microsoft. Ele existe desde 2021, mas agora terá o seu uso especificado para a IA.

O que é a Content Credentials da Adobe para IA

A ideia por trás da logo é que esse ícone seja adicionado em imagens geradas por IA criadas por softwares desse grupo, como o Photoshop ou o Bing Chat. Dessa forma, qualquer ilustração que traga o símbolo no canto superior direito da tela “denuncia” que ela foi feita digitalmente usando total ou parcialmente esses elementos gerados de forma artificial.

Ao clicar no icone, o usuário é então direcionado a uma tela de metadados com mais detalhes sobre o arquivo, como a data de criação, o responsável pela criação e a ferramenta de IA utilizada.

O ícone é também adicionado ao histórico de edições daquele arquivo, ficando gravado em acessos posteriores.

Por enquanto, o método de identificação de que o conteúdo foi feito por IA ainda é opcional e a inclusão do Content Credential depende do próprio responsável pela produção — ou seja, se ele quiser de fato enganar alguém, não precisa fazer o procedimento por enquanto.

Além disso, cópias dessa imagem feitas por captura de tela, por exemplo, já não trariam esse mecanismo de segurança.

Mais marcas atrás de métodos

Ainda assim, esse é um dos primeiros métodos práticos apresentados para tentar identificar conteúdos feitos por IA. O buscador da Google já está em fases avançadas de desenvolvimento de uma marca d’água invisível para esse tipo de imagem, enquanto o Instagram também já trabalha em tags que denunciam materiais editados ou feitos artificialmente.

A Adobe é uma das empresas mais comprometidas com a segurança desse tipo de imagem atualmente por ela mesma ser uma interessada no assunto: o Firefly, recurso de IA generativa do Photoshop, teve a disponibilidade expandida e ganhou recursos melhorados para editar até mesmo objetos individuais de uma imagem.

Fontes: The Verge, Content Credentials