Tecnologia

Governo dos EUA e big techs fecham acordo para ampliar segurança da IA

São signatárias do acordo a Amazon, Anthropic, Alphabet (Google) Inflection, Meta, Microsoft e a OpenAI

Empresas vão adotar salvaguardas para o desenvolvimento da nova tecnologia (Seventy Four/Getty Images)

Empresas vão adotar salvaguardas para o desenvolvimento da nova tecnologia (Seventy Four/Getty Images)

Estadão Conteúdo
Estadão Conteúdo

Agência de notícias

Publicado em 22 de julho de 2023 às 12h24.

As sete companhias líderes em inteligência artificial (IA) nos Estados Unidos concordaram voluntariamente em adotar salvaguardas para o desenvolvimento da nova tecnologia. O acordo foi anunciado nesta sexta-feira, 21, pelo governo dos Estados Unidos, que coordenou as negociações para formalizar o compromisso das empresas em adotar novos padrões de segurança, proteção e confiança para as suas ferramentas de IA.

São signatárias do acordo a Amazon, Anthropic, Alphabet (Google) Inflection, Meta, Microsoft e a OpenAI. De acordo com a Casa Branca, as empresas concordaram em respeitar mecanismos para garantir que os seus produtos sejam seguros antes de lançá-los ao público. "Se gerenciada adequadamente, a IA pode contribuir enormemente para a prosperidade, igualdade e segurança de todos" disse o governo dos EUA em comunicado.

Os saltos tecnológicos no campo da inteligência artificial têm gerado temores sobre a disseminação de desinformação à medida que os computadores "autoconscientes" evoluem. Por isso, as salvaguardas voluntárias são vistas apenas como um primeiro passo, enquanto a Casa Branca e outros governos ao redor do mundo correm para estabelecer marcos regulatórios e legais para o desenvolvimento da IA.

Por isso, o pacto anunciado ontem reflete a urgência da administração Joe Biden e dos legisladores americanos em responder à rápida evolução da tecnologia, enquanto os órgãos reguladores ainda se debatem sobre formas de maior controle das redes sociais.

Segurança

Pelo acordo anunciado ontem, as empresas se comprometeram a permitir que especialistas em segurança independentes testem seus sistemas antes de serem lançados, além de criar ferramentas para identificar os conteúdos que produzem por meio da IA, como marcas d'água, a fim de reduzir a desinformação.

"Esses testes protegem contra algumas das fontes mais significativas de riscos de IA, como a biossegurança e a segurança cibernética, bem como seus efeitos sociais mais amplos", disse a Casa Branca.

As empresas também se comprometeram a desenvolver e investir em segurança cibernética para proteger os dados dos usuários, a compartilhar dados sobre a segurança de seus sistemas com o governo e acadêmicos, e a facilitar a realização de auditorias externas em seus sistemas para aperfeiçoar os produtos e encontrar vulnerabilidades.

Elas também terão de relatar publicamente eventuais falhas e riscos em suas tecnologias, apontando riscos de segurança e sociais - como justiça e preconceito.

Várias das signatárias já haviam concordado publicamente com algumas ações semelhantes às do compromisso da Casa Branca. Antes de a OpenAI lançar amplamente seu sistema GPT-4, ela trouxe uma equipe de profissionais externos para exercícios, um processo conhecido como "redteaming". Da mesma forma, o Google já disse em um post que está desenvolvendo uma marca d'água, que empresas e formuladores de políticas afirmam ser uma forma de abordar as preocupações de que a IA poderia sobrecarregar a disseminação de desinformação.

Riscos

Os compromissos voluntários são uma maneira imediata de lidar com os riscos, antes de um esforço de longo prazo para fazer com que o Congresso americano aprove leis que regulem a tecnologia. Alguns defensores da regulamentação da IA disseram que a ação de Biden é um começo, mas é preciso fazer mais para responsabilizar as empresas e seus produtos. "A história indica que muitas empresas de tecnologia não cumprem o compromisso voluntário de agir com responsabilidade e apoiar regulamentações rígidas", disse um comunicado de James Steyer, fundador e CEO da organização sem fins lucrativos Common Sense Media. O líder da maioria no Senado, Chuck Schumer (Democrata), já disse que apresentará uma legislação para regular a IA.

"Este é um primeiro passo para garantir que limites sejam estabelecidos para a IA e que também cria um modelo para outros governos seguirem", disse o presidente para assuntos globais da Meta, Nick Glegg. (COM AGÊNCIAS INTERNACIONAIS)

Acompanhe tudo sobre:Estados Unidos (EUA)Inteligência artificialempresas-de-tecnologia

Mais de Tecnologia

BYD China lança Sea Lion 06 GT: esportivo elétrico com alto desempenho

Revolução digital: mergulhe na terceira onda - e prepare-se para a quarta

Inteligência Artificial traz oportunidades e desafios para a liderança

CEOs revelam que 40% do tempo de suas equipes é perdido