Nova York aprova uma lei para evitar desastres impulsionados por inteligência artificial.

por Marcos Evaristo
NY Lieutenant Governor Kathy Hochul

Na última quinta-feira, os legisladores do estado de Nova York aprovaram uma nova legislação que busca garantir a segurança da inteligência artificial (IA). A lei, conhecida como RAISE Act, visa regular modelos de IA avançados da OpenAI, Google e Anthropic, assegurando que não contribuam para cenários de desastres que poderiam causar danos significativos, incluindo a morte ou lesão de mais de 100 pessoas ou perdas superiores a US$ 1 bilhão.

A aprovação do RAISE Act é considerada uma vitória para o movimento em prol da segurança da IA, que enfrentou desafios nos últimos anos, especialmente com o foco de Silicon Valley e da administração Trump em velocidade e inovação. Defensores da segurança em IA, como o laureado Nobel Geoffrey Hinton e o pioneiro Yoshua Bengio, têm apoiado firmemente o projeto. Caso seja sancionado, o RAISE Act estabelecerá o primeiro conjunto de padrões legais de transparência para laboratórios de IA de fronteira nos Estados Unidos.

Embora o RAISE Act compartilhe algumas semelhanças com a polêmica legislação de segurança em IA da Califórnia, o SB 1047, que foi vetado, o senador de Nova York Andrew Gounardes, coautor do projeto, afirmou em entrevista ao TechCrunch que se esforçou para criar uma lei que não inibisse a inovação entre startups ou pesquisadores acadêmicos – uma crítica comum ao SB 1047.

“A janela para implementar medidas de segurança está se fechando rapidamente, considerando a velocidade com que essa tecnologia está evoluindo”, declarou o senador Gounardes. “As pessoas que têm o melhor entendimento de IA afirmam que esses riscos são extremamente prováveis […] Isso é alarmante.”

O RAISE Act agora segue para a mesa da governadora de Nova York, Kathy Hochul, que pode sancionar a lei, enviá-la de volta para emendas ou vetá-la completamente.

Se sancionado, o projeto de lei exigirá que os maiores laboratórios de IA do mundo publiquem relatórios detalhados sobre a segurança e confiabilidade de seus modelos de IA avançados. Além disso, será necessário que os laboratórios relatem incidentes de segurança, como comportamentos preocupantes de modelos de IA ou ações de agentes mal-intencionados que consigam roubar um modelo de IA. O não cumprimento dessas normas poderá resultar em penalidades civis que podem chegar a US$ 30 milhões, conforme previsto no RAISE Act.

O RAISE Act tem como objetivo regular especificamente as maiores empresas de tecnologia do mundo, estejam elas baseadas na Califórnia (como OpenAI e Google) ou na China (como DeepSeek e Alibaba). As exigências de transparência aplicam-se às empresas cujos modelos de IA foram treinados utilizando mais de US$ 100 milhões em recursos computacionais, quantia que parece superá-los todos os modelos de IA disponíveis atualmente e que estão sendo oferecidos aos residentes de Nova York.

Apesar das semelhanças com o SB 1047, o RAISE Act foi elaborado para abordar críticas a projetos anteriores de segurança em IA. Nathan Calvin, Vice-Presidente de Assuntos Estaduais e Conselheiro Geral da Encode, que trabalhou neste projeto e no SB 1047, destacou que, diferentemente de outras medidas, o RAISE Act não exige que os desenvolvedores incluam um “kill switch” (interruptor de emergência) em seus modelos, nem responsabiliza as empresas que realizam o pós-treinamento de modelos de IA avançados por danos críticos.

As reações negativas da indústria de tecnologia ao projeto foram significativas, conforme mencionado pelo deputado estadual de Nova York e coautor do RAISE Act, Alex Bores, em declarações ao TechCrunch. Bores descreveu a resistência da indústria como previsível, mas reforçou que o RAISE Act não limitara a inovação nas empresas de tecnologia.

“O RAISE Act de NY é mais um projeto de lei ridículo que só prejudicará os EUA, enquanto nossos adversários estão avançando rapidamente”, afirmou Anjney Midha, sócio da Andreessen Horowitz, em um post recente na rede X. A empresa Andreessen Horowitz e o incubador de startups Y Combinator foram alguns dos opositores mais ferozes do SB 1047.

A Anthropic, laboratório de IA focado em segurança que pediu normas federais de transparência para empresas de IA mais cedo neste mês, ainda não divulgou uma posição oficial sobre o projeto, conforme declarado por seu cofundador Jack Clark em um post recente na rede X. Contudo, Clark expressou algumas preocupações sobre a amplitude do RAISE Act, notando que isso poderia representar um risco para empresas menores.

Quando questionado sobre as críticas da Anthropic, o senador Gounardes respondeu ao TechCrunch afirmando que considera tais preocupações “deslocadas”, enfatizando que o projeto foi estruturado para não afetar pequenas empresas.

Grandes nomes como OpenAI, Google e Meta também não comentaram sobre o pedido de posicionamento do TechCrunch.

Outra crítica comum ao RAISE Act é que os desenvolvedores de modelos de IA poderiam optar por não disponibilizar seus modelos mais avançados no estado de Nova York. Essa mesma crítica já havia sido apresentada contra o SB 1047 e é o que, em grande parte, ocorreu na Europa devido às rígidas regulamentações de tecnologia do continente.

O deputado Bores destacou ao TechCrunch que a carga regulatória do RAISE Act é relativamente leve e, portanto, não deve impedir que empresas de tecnologia operem seus produtos em Nova York. Levando em conta que Nova York possui o terceiro maior PIB dos EUA, retirar-se do estado não é uma decisão que a maioria das empresas tomaria de ânimo leve.

“Não quero subestimar a mesquinhez política que pode ocorrer, mas estou muito confiante de que não há razão econômica para que essas empresas de IA não disponibilizem seus modelos em Nova York”, afirmou Bores.

Posts Relacionados

Deixe Seu Comentário

plugins premium WordPress
Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?

Este site usa cookies para melhorar sua experiência. Suponhamos que você esteja de acordo com isso, mas você pode optar por não aceitar, se desejar. Aceitar Leia Mais

Política de Privacidade e Cookies
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00