Anthropic Apoia a Proposta de Segurança em IA da Califórnia: SB 53

por Marcos Evaristo
State Senator Scott Wiener, a Democrat from California, right, during the Bloomberg BNEF Summit in San Francisco, California, US, on Wednesday, Jan. 31, 2024. The summit provides the ideas, insights and connections to formulate successful strategies, capitalize on technological change and shape a cleaner, more competitive future. Photographer: David Paul Morris/Bloomberg via Getty Images

A Nova Era da Regulação da IA: O Que Precisamos Saber Sobre o SB 53 da Califórnia

A discussão sobre a ética e a segurança em torno da inteligência artificial (IA) nunca foi tão relevante. Com a rápida evolução da tecnologia, surgem também preocupações sobre como garantir que esses avanços sejam utilizados de forma segura e responsável. Um dos esforços mais significativos nesse sentido é o projeto de lei conhecido como SB 53, que busca estabelecer normas de transparência para os maiores desenvolvedores de IA do mundo. Neste artigo, vamos explorar o que esse projeto significa, as reações que ele gerou e seu potencial impacto no futuro da IA.

O Que É o SB 53?

Na última segunda-feira, a Anthropic, uma das principais empresas de tecnologia em IA, anunciou seu apoio ao projeto de lei SB 53, que foi introduzido pelo senador Scott Wiener na Califórnia. Esta lei, se aprovada, se tornará a primeira do tipo nos Estados Unidos a exigir que as grandes empresas de IA, como OpenAI e Google, implementem normas de segurança e transparência antes de lançarem seus modelos no mercado.

A importância da transparência em IA

A proposta de SB 53 tem como objetivo garantir que as empresas desenvolvedoras de IA mantenham padrões de segurança rigorosos e publiquem relatórios periódicos sobre segurança e riscos associados aos seus produtos. Isso é crucial, pois a falta de regulamentação pode levar a consequências perigosas.

A Necessidade de Profundidade e Consciência

"Enquanto acreditamos que a segurança da IA de ponta deve ser tratada em nível federal, e não através de um emaranhado de regulamentações estaduais, os avanços poderosos da IA não esperarão um consenso em Washington." Essa afirmação da Anthropic ressalta a urgência de ações e decisões que não podem ser procrastinadas.

O que se espera com o SB 53 é um caminho mais reflexivo e proativo na criação de normas para garantir que a IA não somente avance, mas que avance de maneira segura.

Detalhes do Projeto de Lei

Se o SB 53 for aprovado, ele exigirá que as plataformas de IA desenvolvam sistemas de segurança e apresentem relatórios públicos sobre esses riscos antes de implementarem suas tecnologias. Além disso, o projeto também protegerá os denunciantes, ou seja, funcionários que reportarem preocupações relacionadas à segurança dos sistemas.

Foque nos Riscos Catastróficos

Um dos pontos principais do SB 53 é limitar o uso de modelos de IA que possam resultar em "riscos catastróficos". Esse termo refere-se a situações em que a IA poderia causar a morte de pelo menos 50 pessoas ou gerar danos superiores a um bilhão de dólares. A proposta visa evitar que a IA contribua para a criação de armas biológicas ou ciberataques.

O Caminho Até Aqui

Embora o Senado da Califórnia já tenha aprovado uma versão anterior do SB 53, ainda faltam votações finais antes que o projeto chegue à mesa do governador. Até o momento, Gavin Newsom não se manifestou sobre o projeto, embora anteriormente tenha vetado outra medida de segurança em IA, o SB 1047.

As propostas que buscam regular as empresas de IA enfrentaram resistência tanto de grupos de tecnologia do Vale do Silício quanto da administração Trump, que defendem que tais regulamentações poderiam prejudicar a inovação dos Estados Unidos na corrida com países como a China.

A Resistência da Indústria

As críticas ao SB 53 não se limitaram aos grupos tradicionais. Investidores como Andreessen Horowitz e Y Combinator também manifestaram preocupações, argumentando que essas leis estaduais poderiam infringir a Cláusula de Comércio da Constituição, que proíbe que os estados criem leis que afetem o comércio interestadual.

A opinião dos críticos

O chefe de políticas de IA da Andreessen Horowitz, Matt Perault, e o diretor jurídico, Jai Ramaswamy, expressaram em um artigo que as leis estaduais atuais podem levar à violação da mencionada Cláusula. Essa visão é compartilhada por muitos que acreditam que a regulação deveria ser uma responsabilidade federal.

O Papel da Anthropic

Jack Clark, cofundador da Anthropic, defende que a indústria tecnológica está avançando rapidamente e não pode esperar que o governo federal atue. Ele comentou, “Temos dito que preferiríamos um padrão federal, mas na ausência disso, isso cria um bom modelo para a governança da IA que não pode ser ignorado.”

A pressão de outras empresas de tecnologia

A OpenAI também se manifestou a favor de regulamentações que não afastem startups da Califórnia. No entanto, a oposição interna parece ser um reflexo da ansiedade do setor em relação a qualquer tipo de regulação que possa limitar seu crescimento.

Uma Abordagem Mais Equilibrada

Ainda assim, especialistas afirmam que o SB 53 representa uma abordagem mais moderada em comparação com projetos anteriores. Dean Ball, um especialista em políticas e ex-assessor de IA na Casa Branca, acredita que o SB 53 tem uma chance maior de se tornar lei, pois seus redatores mostraram respeito pela realidade técnica e uma medida de contenção legislativa.

Influências na formulação do projeto

Além disso, o senador Wiener declarou que o SB 53 foi influenciado por um painel de especialistas em políticas que o governador Newsom convocou, co-liderado pela pesquisadora respeitada Fei-Fei Li, da Stanford.

A Realidade Atual das Empresas de IA

A grande maioria dos laboratórios de IA já possui algum tipo de política interna de segurança. Empresas como OpenAI, Google DeepMind e Anthropic frequentemente divulgam relatórios sobre a segurança de seus modelos. No entanto, a realidade é que essas diretrizes não são obrigatórias, permitindo que as empresas às vezes se atrasem em cumprir seus próprios compromissos de segurança.

Uma necessidade de padrões obrigatórios

O SB 53 busca transformar essas recomendações em leis, obrigando as empresas a seguir normas de segurança que já deveriam ser padrão na indústria.

O Futuro da Regulação em IA

Em setembro, os legisladores da Califórnia aprovaram uma alteração no SB 53 que removeu a exigência de auditorias de terceira parte. Essas auditorias eram vistas como um ônus excessivo pelas empresas tecnológicas, e essa modificação foi uma tentativa de equilibrar o que pode ser uma regulamentação necessária com o desejo de manter a competitividade.

Conclusão: Um Caminho para o Futuro da IA

O SB 53 é uma iniciativa inovadora que visa trazer uma maior transparência e responsabilidade à crescente indústria de inteligência artificial. Como o campo da IA avança a passos largos, é crucial que haja regulamentos que garantam não apenas a inovação, mas também a segurança da sociedade.

Com a crescente pressão para uma governança eficaz, o projeto pode abrir portas para um modelo que outras regiões podem seguir, enquanto inova na segurança da IA. Resta ver como o projeto se desenvolverá e se encontrará um equilíbrio satisfatório entre regulamentação e liberdade de inovação. Acompanharemos de perto os desdobramentos deste importante tema.

Essa jornada de regulamentação está apenas começando, e cada passo dado na Califórnia poderá influenciar o futuro da inteligência artificial no mundo inteiro.

Posts Relacionados

Deixe Seu Comentário

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?

Este site usa cookies para melhorar sua experiência. Suponhamos que você esteja de acordo com isso, mas você pode optar por não aceitar, se desejar. Aceitar Leia Mais

Política de Privacidade e Cookies
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00