Manaus, sexta-feira 6 de fevereiro de 2026
Pesquisar

booked.net

Pesquisa internacional aponta estereótipos sobre o Amazonas em respostas de IA

Foto: Reprodução/ Internet

*Da Redação Dia a Dia Notícia

Pesquisadores da Universidade de Oxford (Reino Unido) divulgaram em janeiro um relatório global que identificou vieses regionais em respostas de sistemas de inteligência artificial, entre eles o ChatGPT. O estudo, chamado The Silicon Gaze (“O Olhar de Silício”), sugere que as respostas da IA podem refletir estereótipos e desigualdades geográficas, com impactos mais visíveis em análises subnacionais de países como Brasil, Estados Unidos e Reino Unido.

No Brasil, a análise incluiu 20,3 milhões de consultas ao ChatGPT e, a partir de uma metodologia própria dos pesquisadores, gerou um ranking comparativo sobre como a IA responde a questões associadas a diferentes estados. Nesse contexto, Amazonas e Maranhão apareceram com classificações mais baixas, enquanto estados como São Paulo, Minas Gerais e o Distrito Federal ficaram entre aqueles com notas mais altas em termos de atributos ligados a “inteligência” no relatório.

É importante destacar que o estudo não afirma que o ChatGPT literalmente considere moradores de determinadas regiões “menos inteligentes”. O que os pesquisadores observaram foi que, em determinadas consultas, respostas automáticas da IA tendiam a associar características cognitivas ou socioeconômicas de forma desigual entre regiões, um reflexo de vieses presentes nos dados nos quais o modelo foi treinado.

Especialistas em ética e tecnologia alertam que sistemas de IA podem reproduzir preconceitos históricos e desigualdades sociais, principalmente quando fazem inferências simplistas ou generalizam atributos humanos a grupos amplos com base em padrões estatísticos. A própria OpenAI reconhece que modelos como o ChatGPT podem refletir vieses, e que esse é um dos grandes desafios da tecnologia.

O relatório de Oxford pretende justamente destacar esses padrões e incentivar melhores práticas de desenvolvimento e uso de IA, com foco em vigilância contínua, transparência e ajustes que reduzam estereótipos indesejados.

Pesquisadores envolvidos no estudo recomendam cautela ao interpretar rankings e “pontuações” atribuídas pela análise automatizada, lembrando que qualquer sistema de IA deve ser complementado por contexto humano e revisão crítica, especialmente em temas sensíveis como educação, capacidade cognitiva ou comparações entre populações.

Entre no nosso Grupo no WhatsApp

Antes de ir, que tal se atualizar com as notícias mais importantes do dia? Acesse o WhatsApp do Portal Dia a Dia Notícia e acompanhe o que está acontecendo no Amazonas e no mundo com apenas um clique

Você pode escolher qualquer um dos grupos, se um grupo tiver cheio, escolha outro grupo.