Índice do Artigo

Corporativo

Google nega que Bard tenha sido treinado com dados do ChatGPT

Comunicado da empresa foi resposta a reportagem do The Information

Google nega que Bard tenha sido treinado com dados do ChatGPT
Créditos: Divulgação/Google

Na última quarta-feira (29) o Google rebateu as críticas, negando que a sua nova ferramenta de geração de texto, o Bard, tenha sido treinado com dados do ChatGPT, um modelo de linguagem de inteligência artificial desenvolvido pela OpenAI.

A negação do Google foi uma resposta a um artigo publicado pelo site The Information, que afirmou que o Bard tinha sido treinado com uma versão modificada do ChatGPT, chamada ShareGPT, que foi criada para permitir que empresas terceiras pudessem treinar seus próprios modelos de linguagem.

Em um comunicado enviado ao The Verge, um porta-voz do Google disse que o Bard foi treinado com um conjunto diversificado de dados de texto e que o ShareGPT não foi usado em seu treinamento. Além disso, o Google afirmou que o Bard foi desenvolvido por meio de uma abordagem “do zero”, que se baseou em anos de pesquisa em modelos de linguagem e em novas técnicas de treinamento.

O Bard foi lançado pelo Google no início deste mês como uma ferramenta de geração de texto avançada, capaz de produzir conteúdo em uma variedade de estilos e formatos. Desde o seu lançamento, o Bard tem sido objeto de intensa discussão na comunidade de inteligência artificial, com muitos especialistas questionando como a ferramenta foi treinada e quais são as suas implicações para o futuro da geração de texto.

Apesar da negação do Google, a controvérsia em torno do Bard deve continuar, uma vez que muitos especialistas em inteligência artificial argumentam que é difícil verificar se um modelo de linguagem foi treinado com dados específicos ou não. Enquanto isso, o Bard continua sendo uma ferramenta importante para a produção de texto e deve ser usada com cuidado e responsabilidade.

ChatGPT do Google admite plágio de artigo

O chatbot Bard do Google entrou em fase beta com a promessa de responder perguntas com rapidez e precisão. No entanto, o chatbot pode estar se apoiando em fontes especializadas para obter informações, sem citá-las adequadamente. Uma investigação do portal de tecnologia Tom’s Hardware revelou que o chatbot plagiou parte de um artigo publicado pelo site.

A questão em pauta era sobre qual processador era mais rápido: o Intel Core i9-13900K ou o AMD Ryzen 9 7950X3D. A resposta do Bard foi copiada diretamente de um artigo do Tom’s Hardware, mas o chatbot não mencionou a fonte e referiu-se aos dados como “em nossos testes”, dando a entender que o Google havia feito os testes.

Quando questionado sobre a origem dos testes, o Bard admitiu que os resultados eram do Tom’s Hardware e, quando perguntado se tinha cometido plágio, respondeu que sim. A frase do chatbot é uma releitura de uma frase específica do artigo original.

Via: The Information, The Verge