
Os novos modelos o3 e o4-mini da OpenAI são todos sobre ‘pensar com imagens’
Apenas dois dias após anunciar o GPT-4.1, a OpenAI está lançando não apenas um, mas dois novos modelos. A empresa anunciou hoje a disponibilidade pública do o3 e o4-mini. Enquanto o o3 é descrito como o modelo de raciocínio mais avançado da OpenAI, com desempenho forte em tarefas de codificação, matemática e ciência, o o4-mini é apresentado como uma alternativa de custo mais baixo que ainda oferece resultados impressionantes nessas mesmas áreas. Ambos os modelos oferecem capacidades novas não encontradas nos sistemas anteriores da OpenAI. Pela primeira vez, os modelos de raciocínio da empresa podem usar e combinar todas as ferramentas disponíveis no ChatGPT, incluindo navegação na web e geração de imagens. Essa capacidade permite que o o3 e o4-mini resolvam problemas desafiadores de múltiplas etapas de forma mais eficaz e deem passos reais em direção à independência.
Além disso, o o3 e o4-mini não apenas podem ver imagens, mas também interpretá-las e “pensar” sobre elas de uma maneira que estende significativamente suas capacidades de processamento visual. Por exemplo, é possível carregar imagens de quadros brancos, diagramas ou esboços – mesmo os de baixa qualidade – e os novos modelos irão entendê-los. Eles também podem ajustar as imagens como parte de seu raciocínio.
Separadamente, a OpenAI está lançando um novo agente de codificação chamado Codex CLI, destinado a dar aos desenvolvedores uma interface mínima que podem usar para ligar os modelos da OpenAI com o código local. Ele funciona com o o3 e o4-mini, com suporte para o GPT-4.1 a caminho.
A notícia de hoje vem depois que o CEO da OpenAI, Sam Altman, disse que a empresa estava mudando de rumo no roteiro que ele detalhou em fevereiro. Na época, Altman indicou que a OpenAI não lançaria o o3 como um produto independente, como foi previamente anunciado. No entanto, no início de abril, ele anunciou uma “mudança de planos”, afirmando que a OpenAI seguiria em frente com o lançamento do o3 e o4-mini.
OpenAI lança novos modelos o3 e o4-mini focados em “pensar com imagens”
A OpenAI surpreendeu a todos ao anunciar não um, mas dois novos modelos apenas dois dias após revelar o GPT-4.1. O o3 é apresentado como o modelo de raciocínio mais avançado da empresa, com um desempenho sólido em diversas áreas, como codificação, matemática e ciência. Já o o4-mini é uma alternativa de custo mais baixo que ainda oferece resultados impressionantes.
O grande diferencial desses modelos é a capacidade de usar e combinar todas as ferramentas disponíveis no ChatGPT, incluindo navegação na web e geração de imagens. Com isso, o o3 e o4-mini conseguem resolver problemas complexos de forma mais eficaz, dando um passo adiante em direção à independência.
Além disso, esses novos modelos podem interpretar e “pensar” sobre imagens, ampliando suas capacidades de processamento visual. Isso permite o reconhecimento de imagens de baixa qualidade, como esboços ou diagramas, e sua manipulação durante o raciocínio.
A OpenAI também está lançando o Codex CLI, um agente de codificação projetado para facilitar a integração dos modelos da empresa com o código local. Com suporte para o GPT-4.1 a caminho, a empresa promete novidades emocionantes no futuro próximo.
Essas novidades marcam uma mudança na estratégia da OpenAI, com o CEO Sam Altman decidindo seguir em frente com a liberação do o3 e o4-mini. A expectativa é que essa decisão permita melhorar o GPT-5 e atender à demanda sem precedentes que é esperada no futuro.