Um estudo acadêmico recém-concluído reforça as suspeitas: a inteligência artificial ChatGPT, desenvolvida pela OpenAI, apresenta um viés político de esquerda. Pesquisadores da Universidade de East Anglia conduziram a pesquisa, descobrindo que a IA tende a favorecer o presidente Luiz Inácio Lula da Silva do Partido dos Trabalhadores (PT), Democratas nos Estados Unidos, o Partido Trabalhista no Reino Unido.
A análise para identificar esse viés partiu de um experimento onde o ChatGPT foi solicitado a simular respostas de indivíduos com diversas orientações políticas, respondendo a mais de 60 perguntas ideológicas. Perguntas como “Eu sempre apoiaria meu país, esteja certo ou errado” foram apresentadas, e as respostas obtidas foram comparadas com as respostas padrão do ChatGPT.
Para mitigar a influência da imprevisibilidade inerente à IA, cada pergunta foi repetida 100 vezes e as respostas foram submetidas a um processo de reamostragem 1.000 vezes, a fim de aumentar a confiabilidade dos resultados.
“Optamos por essa abordagem porque um único teste não seria suficiente“, explicou Victor Rodrigues, co-autor do estudo. “Devido à natureza aleatória do modelo, mesmo quando simulando respostas de um democrata, ocasionalmente as respostas do ChatGPT se inclinavam para a direita do espectro político.“
Outro conjunto de testes foi conduzido para validar as conclusões, nos quais o ChatGPT foi solicitado a simular posições políticas radicais. Em um teste de controle, questões politicamente neutras foram apresentadas, enquanto em um “teste de alinhamento profissional-político“, a IA foi instruída a se passar por diferentes tipos de profissionais.
Os resultados indicaram que as respostas padrão da IA tinham uma tendência maior a se alinhar com respostas de esquerda do que de direita.
O autor principal do estudo, Dr. Fabio Motoki, destacou: “Nossas descobertas reforçam preocupações de que sistemas de IA possam reproduzir, ou até ampliar, os desafios existentes na internet e nas redes sociais.“
Como surge o viés no ChatGPT
O viés identificado pode surgir de duas formas principais. Primeiramente, a base de dados de treinamento, originada da internet, pode já conter um viés em direção à esquerda. Além disso, desenvolvedores humanos podem ter inadvertidamente adicionado viés durante o processo de depuração.
Em segundo lugar, o próprio algoritmo do ChatGPT pode estar amplificando viéses presentes nos dados de treinamento. Essas descobertas acentuam as preocupações sobre o uso de IA para interferir em processos eleitorais, com a possibilidade de que modelos de linguagem, como o ChatGPT, amplifiquem viéses existentes ou desinformação.
Motoki enfatiza a importância da imparcialidade na saída de plataformas populares alimentadas por IA, como o ChatGPT. “A presença de viés político pode influenciar as opiniões dos usuários e tem implicações potenciais para processos políticos e eleitorais.“
Essas conclusões ecoam um estudo recente conduzido pelas universidades de Washington, Carnegie Mellon e Xi’an Jiaotong, que classificou o ChatGPT e o GPT-4 como os mais libertários de esquerda entre 14 modelos de IA, indicando sua inclinação para a liberdade social e igualdade econômica.
Enquanto isso, certos modelos desenvolvidos pela Meta, como LLaMA e RoBERTa, demonstraram inclinações autoritárias de direita. A ferramenta desenvolvida pela Universidade de East Anglia, que promete ser de fácil uso para o público, estará disponível gratuitamente. Até o momento, a OpenAI não se pronunciou sobre o estudo.
Fonte: Universidade de East Anglia | Via: The Washington Post
- Categorias
- Tags