
Image by Choong Deng Xiang, from Unsplash
A OpenAI Lança Codex: Um Assistente de IA para Desenvolvedores
A OpenAI acabou de introduzir o Codex, um novo assistente de IA baseado na nuvem projetado para ajudar desenvolvedores com tarefas de software.
Está com pressa? Aqui estão os fatos rápidos:
- Codex é a nova IA baseada em nuvem da OpenAI para tarefas de desenvolvimento de software.
- Disponível para usuários Pro, Team e Enterprise; Plus e educação em breve.
- Executa tarefas em um ambiente seguro com registros e resultados de testes em tempo real.
Agora está disponível para os usuários do ChatGPT Pro, Team e Enterprise, com suporte para usuários Plus e de educação em breve.
O Codex opera no codex-1, um modelo especialmente treinado para engenharia de software. Ele pode escrever funcionalidades, corrigir bugs, responder a questões de código e propor solicitações de pull – tudo em paralelo. Cada tarefa é executada em um ambiente seguro carregado com o código do usuário, tornando-o seguro e fácil de rastrear.
O Codex é fácil de usar: basta digitar um prompt no ChatGPT, clicar em “Código” ou “Perguntar”, e ele começa a trabalhar. Ele edita arquivos, executa testes e até mostra o progresso ao vivo. As tarefas podem levar de 1 a 30 minutos, dependendo da complexidade delas.
“O Codex fornece evidências verificáveis de suas ações por meio de citações de registros de terminal e resultados de testes”, explicou a OpenAI. Os usuários podem revisar esses resultados, solicitar alterações ou incorporá-los diretamente ao seu código.
O Codex também pode ler instruções especiais de arquivos AGENTS.md dentro do seu repositório de códigos. Esses arquivos ajudam a entender seu processo de teste e padrões de codificação. Ainda assim, “o codex-1 mostra um desempenho forte mesmo sem os arquivos AGENTS.md”, afirmou a OpenAI.
A Codex também corrigiu recentemente um bug na função separability_matrix da biblioteca Astropy. Um usuário observou: “De repente, as entradas e saídas não são mais separáveis? Isso me parece um bug.” A Codex identificou o problema e propôs uma correção que foi aceita – demonstrando seu valor prático.
A OpenAI chama isso de “preview de pesquisa”, o que significa que ainda está sendo aprimorado. Eles enfatizam a importância da segurança, transparência e supervisão humana: “Ainda é essencial que os usuários revisem e validem manualmente todo o código gerado pelo agente antes da integração e execução.”