A OpenAI Anuncia Novas Medidas de Segurança para Adolescentes

Photo by Karla Rivera on Unsplash

A OpenAI Anuncia Novas Medidas de Segurança para Adolescentes

Tempo de leitura: 3 minuto

A OpenAI anunciou na terça-feira que implementará novas medidas de segurança para proteger os adolescentes, a liberdade do usuário e a segurança geral. O CEO da empresa, Sam Altman, compartilhou uma declaração dizendo que a empresa está construindo um sistema de verificação de idade para impedir que o chatbot discuta tópicos como autolesão ou suicídio, bem como evite envolver-se em conversas flertantes com usuários menores de idade.

Com pressa? Aqui estão os fatos rápidos:

  • A OpenAI está desenvolvendo um sistema de verificação de idade para impedir que o chatbot discuta tópicos como suicídio e automutilação.
  • Isso pode exigir que os usuários do ChatGPT forneçam identidades emitidas pelo governo em certos países.
  • A decisão foi tomada após uma família processar a OpenAI pela morte por suicídio de seu filho adolescente.

De acordo com o anúncio da OpenAI, a empresa está introduzindo novas camadas de segurança para proteger dados privados como parte de seu primeiro princípio: segurança. A empresa enfatizou que nem mesmo seus funcionários podem acessar os dados privados, exceto em casos envolvendo uso indevido relatado pela IA ou riscos críticos.

O segundo princípio, liberdade, foca em dar aos usuários mais flexibilidade e opções de como eles utilizam as ferramentas de IA. No entanto, o terceiro princípio da empresa, segurança, prioriza a proteção para crianças.

Altman explicou que a empresa deseja seguir seu lema interno, “trate nossos usuários adultos como adultos”, mas sem causar danos, e com novos filtros para determinar a idade do usuário.

“Por exemplo, o comportamento padrão do nosso modelo não levará a muita conversa flertante, mas se um usuário adulto pedir, ele deve obtê-la”, afirma o documento. “Para um exemplo muito mais difícil, o modelo por padrão não deve fornecer instruções sobre como cometer suicídio, mas se um usuário adulto estiver pedindo ajuda para escrever uma história fictícia que retrata um suicídio, o modelo deve ajudar com esse pedido.”

A decisão foi tomada após uma família processar a OpenAI em agosto pela morte por suicídio de um adolescente de 16 anos, e enquanto outras empresas de tecnologia, como a Meta, têm sido acusadas de se envolver em chats sensuais com crianças e exploração infantil via chatbots de IA.

A OpenAI acrescentou que está trabalhando em um sistema de previsão de idade e que, em certos países, pode exigir identificações oficiais emitidas pelo governo dos usuários, reconhecendo que isso pode causar oposição de usuários adultos que desejam proteger sua privacidade.

“Percebemos que esses princípios estão em conflito e nem todos concordarão com a forma como estamos resolvendo esse conflito”, escreveu Altman. “São decisões difíceis, mas, após conversar com especialistas, é isso que acreditamos ser o melhor e queremos ser transparentes em nossas intenções.”

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback