Anthropic Propõe Estrutura de Transparência para Desenvolvimento de Modelos de IA

Photo by 2H Media on Unsplash

Anthropic Propõe Estrutura de Transparência para Desenvolvimento de Modelos de IA

Tempo de leitura: 3 minuto

A empresa de IA Anthropic propôs uma estrutura de transparência na segunda-feira para modelos avançados de IA e empresas que desenvolvem sistemas de IA de fronteira, destinados à aplicação em níveis regionais ou internacionais. A startup delineou medidas de segurança, ações práticas e padrões mínimos para aumentar a transparência da IA.

Está com pressa? Aqui estão os fatos rápidos:

  • Anthropic propôs um modelo de transparência para modelos avançados de IA e empresas que desenvolvem sistemas de IA de fronteira.
  • A empresa de tecnologia reconhece o ritmo acelerado do desenvolvimento da IA e a urgência de se concordar com estruturas de segurança para desenvolver produtos seguros.
  • O modelo proposto é voltado para grandes empresas do setor.

Anthropic explicou em um anúncio em seu site que o desenvolvimento de modelos de IA tem progredido mais rapidamente do que a criação de salvaguardas e acordos por empresas, governos ou academia. A empresa de tecnologia instou todas as partes interessadas a acelerarem seus esforços para garantir o desenvolvimento seguro de produtos de IA e ofereceu seu quadro de transparência como um modelo ou referência.

“Precisamos de medidas provisórias para garantir que a IA muito poderosa seja desenvolvida de forma segura, responsável e transparente”, afirma o anúncio. “Estamos, portanto, propondo um framework de transparência direcionado, que poderia ser aplicado no nível federal, estadual ou internacional, e que se aplica apenas aos maiores sistemas de IA e desenvolvedores, estabelecendo requisitos claros de divulgação para práticas de segurança.”

A abordagem da Anthropic foi simplificada para mantê-la flexível e leve. “Não deve impedir a inovação em IA, nem deve retardar nossa capacidade de perceber os benefícios da IA – incluindo a descoberta de medicamentos que salvam vidas, a entrega rápida de benefícios públicos e funções críticas de segurança nacional”, esclareceu a empresa.

A empresa de tecnologia reconheceu que estruturas e padrões rígidos podem rapidamente se tornar obsoletos à medida que a tecnologia continua avançando em um ritmo acelerado.

Anthropic sugere que os requisitos de transparência da IA devem se aplicar apenas aos grandes desenvolvedores de modelos de fronteira, a fim de evitar sobrecarregar pequenas startups e desenvolvedores de baixo impacto. O limiar proposto é de $100 milhões em receita anual ou $1 bilhão em despesas de capital anuais.

Grandes desenvolvedores também devem criar um Framework Público de Desenvolvimento Seguro que inclua como eles irão mitigar riscos, incluindo danos causados por modelos desalinhados e a criação de armas químicas, nucleares, biológicas ou radiológicas.

Uma das propostas mais rigorosas visa proteger os denunciantes. “Tornar explicitamente uma violação da lei para um laboratório mentir sobre sua conformidade com seu framework”, escreveu a Anthropic no documento compartilhado. A empresa enfatizou que os padrões de transparência devem incluir uma linha de base mínima e permanecer flexíveis, com requisitos leves para ajudar a alcançar consenso.

A Anthropic espera que o anúncio e a proposta de estrutura de transparência sirvam como diretrizes para que os governos adotem em lei e promovam a “prática responsável”.

Após lançar seu último modelo de IA, Claude 4, a Anthropic incluiu um aviso de segurança— rotulando o modelo Opus 4 no Nível de Segurança 3 devido aos seus riscos potenciais.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback