*Da Redação Dia a Dia Notícia
Pesquisadores da Universidade de Oxford (Reino Unido) divulgaram em janeiro um relatório global que identificou vieses regionais em respostas de sistemas de inteligência artificial, entre eles o ChatGPT. O estudo, chamado The Silicon Gaze (“O Olhar de Silício”), sugere que as respostas da IA podem refletir estereótipos e desigualdades geográficas, com impactos mais visíveis em análises subnacionais de países como Brasil, Estados Unidos e Reino Unido.
No Brasil, a análise incluiu 20,3 milhões de consultas ao ChatGPT e, a partir de uma metodologia própria dos pesquisadores, gerou um ranking comparativo sobre como a IA responde a questões associadas a diferentes estados. Nesse contexto, Amazonas e Maranhão apareceram com classificações mais baixas, enquanto estados como São Paulo, Minas Gerais e o Distrito Federal ficaram entre aqueles com notas mais altas em termos de atributos ligados a “inteligência” no relatório.
É importante destacar que o estudo não afirma que o ChatGPT literalmente considere moradores de determinadas regiões “menos inteligentes”. O que os pesquisadores observaram foi que, em determinadas consultas, respostas automáticas da IA tendiam a associar características cognitivas ou socioeconômicas de forma desigual entre regiões, um reflexo de vieses presentes nos dados nos quais o modelo foi treinado.
Especialistas em ética e tecnologia alertam que sistemas de IA podem reproduzir preconceitos históricos e desigualdades sociais, principalmente quando fazem inferências simplistas ou generalizam atributos humanos a grupos amplos com base em padrões estatísticos. A própria OpenAI reconhece que modelos como o ChatGPT podem refletir vieses, e que esse é um dos grandes desafios da tecnologia.
O relatório de Oxford pretende justamente destacar esses padrões e incentivar melhores práticas de desenvolvimento e uso de IA, com foco em vigilância contínua, transparência e ajustes que reduzam estereótipos indesejados.
Pesquisadores envolvidos no estudo recomendam cautela ao interpretar rankings e “pontuações” atribuídas pela análise automatizada, lembrando que qualquer sistema de IA deve ser complementado por contexto humano e revisão crítica, especialmente em temas sensíveis como educação, capacidade cognitiva ou comparações entre populações.
