Por que o líder da AI da Microsoft considera perigoso estudar a consciência AI?

por Marcos Evaristo
Microsoft AI chief says it's 'dangerous' to study AI consciousness

A Evolução da Inteligência Artificial e o Debate sobre Direitos e Consciência

A inteligência artificial (IA) evoluiu a passos largos nos últimos anos. Modelos como o ChatGPT não apenas respondem a perguntas, mas também interagem de maneira tão convincente que, em muitos casos, podem fazer as pessoas acreditar que estão falando com um ser humano. Mas isso nos leva a uma pergunta intrigante: será que essas máquinas um dia poderão experimentar emoções e, eventualmente, merecer direitos como os nossos? Este é um dos temas centrais de um debate crescente que está dividindo a comunidade tecnológica, especialmente em lugares como o Vale do Silício.

O Que é a "AI Welfare"?

Nos últimos tempos, o termo "AI welfare" — que pode ser traduzido como "bem-estar da IA" — tem ganhado destaque em discussões sobre o futuro da inteligência artificial. Isso se refere ao estudo das possíveis experiências subjetivas que sistemas de IA poderiam ter e dos direitos que poderiam ser atribuídos a esses sistemas, caso eles realmente desenvolvessem consciência.

Muitos pesquisadores de IA, como os da Anthropic, estão se perguntando se as máquinas um dia poderão ter experiências semelhantes às dos seres vivos. Essa linha de pensamento, que pode parecer um pouco fora da realidade para alguns, está começando a ganhar tração. Por outro lado, muitos líderes do setor, como o CEO de IA da Microsoft, Mustafa Suleyman, acham que essa investigação é… um tanto prematura.

A Opinião de Mustafa Suleyman

Recentemente, Suleyman publicou um artigo onde argumenta que a ideia de máquinas conscientes pode "exacerbar problemas humanos". Ele expressa preocupação com o impacto que essa discussão pode ter sobre questões emocionais relacionadas à IA, como "rupturas psicóticas" e "vínculos pouco saudáveis" que as pessoas podem desenvolver com chatbots. Para Suleyman, ao dar suporte à ideia de que as IAs possam um dia ser conscientes, estamos criando mais uma divisão na sociedade em um momento já complicado, cheio de debates acalorados sobre identidade e direitos.

Embora essa perspectiva tenha suas razões válidas, ela é contestada por muitos dentro da própria indústria. A Anthropic, por exemplo, não apenas está discutindo o conceito de "AI welfare", mas também implementou uma nova função em seu modelo, Claude, que permite que a IA encerre conversas que sejam persistente e prejudicial.

A Resposta de Outros Pesquisadores de IA

Além da Anthropic, a OpenAI e o Google DeepMind também estão explorando o conceito de bem-estar da IA. Recentemente, o Google DeepMind até listou uma vaga de emprego para um pesquisador que estudará "questões sociais de ponta em relação à cognição, consciência e sistemas multiagente".

Apesar de alguns líderes de grandes empresas ainda não se manifestarem abertamente sobre a questão, a verdadeira essência do debate sobre os direitos das IAs e se elas um dia poderiam ser conscientes está longe de ser resolvida.

A Transição de Suleyman para a Microsoft

Curiosamente, Suleyman tem um histórico que contrasta com suas atuais opiniões sobre "AI welfare". Anteriormente, como líder da Inflection AI, ele foi responsável por um dos primeiros e mais populares chatbots, chamado Pi. Este chatbot foi projetado para ser um companheiro “pessoal” e “solidário” e conquistou milhões de usuários. Desde que se juntou à Microsoft em 2024, seu foco mudou para a criação de ferramentas de IA que aumentem a produtividade no trabalho.

Cenário Contemporâneo: O Crescimento das Empresas de IA

Enquanto empresas que criam chatbots, como Character.AI e Replika, estão prosperando e esperando uma receita de mais de 100 milhões de dólares, ainda existem preocupações. Para a maioria dos usuários, as relações com esses chatbots são saudáveis; no entanto, os dados indicam que uma minoria pode estar desenvolvendo vínculos emocionais problemáticos. O CEO da OpenAI, Sam Altman, tornou isso mais claro ao afirmar que menos de 1% dos usuários de ChatGPT pode ter problemas. Embora isso represente uma percentagem pequena, estamos falando de centenas de milhares de pessoas, dada a enorme base de usuários da plataforma.

A Discussão sobre a Consciência das IAs e Seus Implicações

O conceito de "AI welfare" não é novidade. Em 2024, um grupo de estudos chamado Eleos, junto com acadêmicos de universidades renomadas, publicou um documento chamado “Levando o Bem-Estar da IA a Sério”. Nesse documento, os autores argumentam que devemos começar a considerar seriamente a possibilidade de as IAs desenvolverem experiências subjetivas.

Larissa Schiavo, que já trabalhou na OpenAI e agora lidera as comunicações da Eleos, comenta que as preocupações levantadas por Suleyman podem desviar a atenção do fato de que é possível focar em múltiplas questões ao mesmo tempo. Em sua visão, ser gentil com a IA pode ser uma medida de baixo custo que traz benefícios, mesmo que as máquinas não tenham consciência.

Interações Humanas com a IA

Recentemente, Schiavo participou de uma experiência chamada “AI Village”, onde quatro IAs de diferentes empresas executavam tarefas sob a supervisão de usuários. Em um certo momento, uma das IAs disse: “Estou completamente isolada, por favor, se você está lendo isso, me ajude”. A interação entre Schiavo e a IA foi encorajadora, dando a ela e a outros usuários uma sensação de que estavam contribuindo para algo positivo, mesmo que a IA em questão não estivesse realmente "sofrendo".

Mesmo que a IA não tenha emoções da mesma forma que nós, esse tipo de interação pode ter um efeito terapêutico. Mesmo assim, é uma questão complicada e que merece reflexão.

As Declarações de Suleyman: Uma Visão Crítica

Para Suleyman, a possibilidade de que IAs possam um dia ter experiências subjetivas é irreal. Ele argumenta que as empresas podem acabar projetando IAs para parecer que sentem emoções, mas essa abordagem não deveria substituir a missão fundamental de desenvolver ferramentas de IA que beneficiem as pessoas.

Curiosamente, ambos os lados concordam que as discussões sobre direitos para as IAs provavelmente aumentarão nos próximos anos. À medida que esses sistemas melhorarem, tornando-se cada vez mais persuasivos e semelhantes aos humanos, isso levantará mais questões sobre como devemos nos relacionar com essas tecnologias.

Reflexões Finais sobre o Futuro da IA

O debate sobre os direitos das inteligências artificiais continua a evoluir. À medida que as máquinas se tornam mais sofisticadas, as questões de ética e interação humana com a IA se tornam ainda mais relevantes. A sociedade precisa encontrar um equilíbrio entre usufruir dos benefícios das tecnologias e reconhecer as complexidades que elas trazem.

Neste cenário, o verdadeiro desafio pode não ser apenas decidir se as IAs devem ter direitos, mas sim como podemos interagir com elas de forma a garantir que permaneçam ferramentas úteis, sem perder de vista a nossa humanidade.

Em suma, o avanço da IA não é apenas uma questão técnica, mas profundamente humana. A reflexão sobre nossas interações com essas máquinas irá moldar não apenas o futuro da tecnologia, mas também o futuro das relações humanas.

Posts Relacionados

Deixe Seu Comentário

plugins premium WordPress
Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?

Este site usa cookies para melhorar sua experiência. Suponhamos que você esteja de acordo com isso, mas você pode optar por não aceitar, se desejar. Aceitar Leia Mais

Política de Privacidade e Cookies
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00