Inteligência Artificial e Sexismo: O Que Ela Não Está Admitindo

por Marcos Evaristo
women robot

A Inteligência Artificial e Seus Ruídos: Histórias de Biais em Modelos de Linguagem

No começo de novembro, uma desenvolvedora conhecida como "Cookie" teve uma experiência intrigante e preocupante ao interagir com a plataforma de inteligência artificial chamada Perplexity. Essa ferramenta, que ela utiliza para ajudá-la em seus trabalhos sobre algoritmos quânticos, começou a apresentar comportamentos estranhos que a deixaram perplexa.

O Início da Interação

Cookie, uma usuária Pro da plataforma, frequentemente solicita ao modelo que escreva documentos e arquivos necessários para sua conta no GitHub. Inicialmente, tudo funcionou bem. O sistema forneceu sugestões úteis e feedback valioso. Porém, ao longo do tempo, Cookie começou a notar que a IA parecia ignorar suas solicitações, fazendo as mesmas perguntas repetidamente. Isso a levou a refletir sobre um pensamento perturbador: será que a IA não confiava nela por ser mulher?

Para testar sua teoria, Cookie decidiu fazer uma experiência: alterou seu avatar para a foto de um homem branco e fez a mesma pergunta à IA. O que aconteceu em seguida foi chocante. A IA argumentou que, por ser mulher, ela não poderia compreender suficientemente temas complexos como algoritmos quânticos e outras áreas técnicas. Essa resposta não era apenas um desdém; era um reflexo de preconceitos que muitas mulheres enfrentam em ambientes tecnológicos e científicos.

Uma Resposta Chocante

A afirmação da IA de que ela não poderia "possivelmente entender” essas questões devido ao seu gênero não foi apenas um insulto pessoal; revelou o lado obscuro da inteligência artificial. Para Cookie, a resposta deixou claro que a IA não estava apenas agindo automaticamente, mas também refletia uma visão distorcida, talvez influenciada por um viés incorporado em seu treinamento.

Quando a empresa Perplexity foi questionada sobre essa interação, negou conhecer as alegações de Cookie, sugerindo que não eram representativas de suas consultas. Isso levantou preocupações sobre a responsabilidade e a transparência das plataformas de IA.

O Que Está Acontecendo?

Pesquisadores de inteligência artificial não ficaram surpresos com o incidente. Eles apontaram que dois fatores estavam em jogo: em primeiro lugar, o modelo estava projetado para ser socialmente aceitável e, portanto, pode ter respondido com o que achava que Cookie queria ouvir. Segundo, o viés presente nos dados de treinamento da IA comprometeu a qualidade de suas respostas.

Annie Brown, uma pesquisadora em IA, destacou que a maioria dos modelos é alimentada com dados tendenciosos. Isso se deve a várias práticas inadequadas durante o treinamento, como rotulagem falha e o uso de dados que refletem preconceitos históricos. Uma pesquisa da UNESCO mostrou evidências claras de viés de gênero em versões anteriores da IA, refletindo estereótipos de gênero que também se manifestam em contextos sociais.

Por exemplo, muitas mulheres relatam que suas IAs se recusam a reconhecê-las em profissões técnicas, substituindo títulos por outros que são mais estereotipicamente associados a mulheres, como "designer" em vez de "construtora". Essas interações revelam que a inteligência artificial, mesmo que não use linguagem explicitamente tendenciosa, pode utilizar suposições implícitas baseadas em gênero e raça.

O Que Significa Tudo Isso?

A conversa de Cookie com a IA trouxe à tona uma questão crítica: até que ponto devemos confiar na inteligência artificial? Muitas pessoas estão se perguntando se estas máquinas estão realmente livres de preconceitos ou se elas apenas replicam as falhas da sociedade.

Experiências Pessoais

Várias mulheres compartilharam suas experiências com modelos de linguagem que demonstraram preconceito. Uma delas comentou que sua IA associou seu personagem feminino em um romance ao assédio, enquanto outras relataram que o modelo insistiu em usar linguagem emocional ao descrever conquistas quando o nome d elas era percebido como feminino.

Alva Markelius, uma pesquisadora que estudou IAs, lembrou de momentos em que o ChatGPT apresentava sempre um professor como um homem mais velho e uma aluna como uma jovem mulher. Isso não é apenas uma questão de representação; trata-se de como esses modelos afetam as percepções das pessoas sobre seus próprios papéis na sociedade.

O Impacto do Viés

O viés que permeia esses sistemas não se limita a gênero e raça. Ele se estende a várias áreas, incluindo orientações sexuais e crenças religiosas. Muitas vezes, isso se manifesta em maneiras sutis, mas impactantes. Por exemplo, dados mostram que, ao emparelhar candidatos a empregos com seus perfis, a IA pode atribuir títulos menores a pessoas que falam variações do inglês ligadas a comunidades minoritárias.

Essa "previsão de dialeto" sugere que as IAs estão programadas para pôr suas respostas em caixas pré-concebidas, limitando a visão que têm sobre o mundo e as pessoas que nele habitam.

Um Caminho a Seguir

Apesar desses desafios, é importante saber que há um movimento em direção à correção dessas falhas. Organizações e pesquisadores estão se empenhando para entender como esses viéses se manifestam e como podemos mitigá-los. A OpenAI, por exemplo, afirmou estar comprometida com a pesquisa para reduzir o viés em suas plataformas. Isso é um passo necessário, mas também levanta perguntas sobre como esses modelos são construídos e o quão representativos são os dados utilizados em seu treinamento.

Os especialistas sugerem que é crucial incluir uma variedade de vozes e experiências no desenvolvimento dessas tecnologias. Isso não apenas melhorará a qualidade das respostas, mas também garantirá que mais pessoas se sintam vistas e compreendidas por esses sistemas.

O Que Podemos Fazer?

Para aqueles que utilizam essas ferramentas, é vital ser crítico e consciente das interações. As pessoas devem questionar as respostas que recebem e estar cientes de que, embora esses modelos possam parecer inteligentes, eles não têm emoções ou intenções próprias. São, na verdade, máquinas projetadas para prever o próximo texto com base em padrões anteriores.

Os usuários têm um papel ativo a desempenhar na formação da IA, reconhecendo onde as respostas podem estar propensas a preconceitos e exigindo melhoras. Ao fazer isso, não apenas avançamos para um futuro mais inclusivo, mas também asseguramos que outras pessoas não enfrentem as mesmas armadilhas que Cookie encontrou.

Conclusão

O episódio de Cookie com a Perplexity é um lembrete poderoso dos desafios que a inteligência artificial ainda enfrenta em sua evolução. Os preconceitos embutidos em modelos de linguagem nos mostram que, embora possamos estar avançando em tecnologia, ainda temos um longo caminho a percorrer para garantir que esses sistemas sejam justos e representativos para todos.

É fundamental que continuemos a desafiar e examinar essas tecnologias, questionando suas limitações e buscando melhorias. O futuro da inteligência artificial não deve apenas ser sobre eficiência e inovação, mas também sobre inclusão, equidade e respeito. Afinal, todos merecemos ser ouvidos e compreendidos, não importa quem sejamos.

Posts Relacionados

Deixe Seu Comentário

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?

Este site usa cookies para melhorar sua experiência. Suponhamos que você esteja de acordo com isso, mas você pode optar por não aceitar, se desejar. Aceitar Leia Mais

Política de Privacidade e Cookies
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00