ChatGPT: tudo o que você precisa saber sobre os novos modelos o3 e o4-mini

A OpenAI apresentou oficialmente dois novos modelos de linguagem que prometem elevar o nível do raciocínio artificial: o3 e o4-mini. A novidade não está apenas na capacidade de entender e gerar texto, mas principalmente na habilidade de “pensar com imagens” — algo inédito até então.

Um novo passo na linha de modelos “o”

Captura de tela 2025 04 17 142930

Esses dois modelos fazem parte da família “o”, que prioriza o raciocínio estruturado. A ideia é simples: dar ao modelo mais tempo e recursos para refletir antes de entregar uma resposta. Segundo a OpenAI, tanto o o3 quanto o o4-mini foram treinados para identificar quando e como usar ferramentas como Python, navegador web e geração de imagens, tudo de forma autônoma.

Esses modelos conseguem interpretar comandos complexos, acessar arquivos enviados pelo usuário, buscar informações atualizadas na web, e ainda raciocinar com base em entradas visuais — como fotos, diagramas e gráficos. Tudo isso em menos de um minuto, segundo a empresa.

Interação visual: quando a IA enxerga e entende

A grande virada está na capacidade de usar imagens como parte do processo de raciocínio. Agora, o usuário pode enviar uma foto de uma lousa, um gráfico mal escaneado ou até um rabisco feito à mão — e o modelo vai entender, analisar, e usar aquilo como parte da resposta.

Além disso, esses modelos conseguem manipular imagens durante o raciocínio, girando, ampliando ou ajustando os elementos visuais conforme necessário. Isso desbloqueia uma nova categoria de tarefas que misturam visão computacional e interpretação textual.

OpenAI o3: mais preciso e analítico

O modelo o3 é o mais avançado da nova geração. Ele se destaca em áreas como:

  • Programação

  • Matemática e ciências

  • Percepção visual

  • Consultoria e ideação criativa

Em testes conduzidos por avaliadores independentes, o o3 cometeu 20% menos erros do que o modelo o1 em tarefas complexas do mundo real. Ele se mostrou eficiente tanto na análise de código quanto na resolução de problemas científicos e técnicos, especialmente em contextos como biologia e engenharia.

Usuários que testaram o o3 destacaram sua capacidade de gerar hipóteses originais e de argumentar de forma crítica, sendo um parceiro sólido para brainstorming e resolução de problemas difíceis.

OpenAI o4-mini: leve, rápido e eficiente

O o4-mini é uma versão otimizada, pensada para raciocínio ágil e custo-benefício. Apesar de ser menor, ele impressiona pelo desempenho, especialmente em tarefas envolvendo:

  • Programação básica

  • Visualização de dados

  • Resolução de problemas matemáticos e lógicos

O modelo foi destaque nos benchmarks AIME 2024 e 2025, superando até mesmo o o3-mini em tarefas fora do eixo STEM (ciência, tecnologia, engenharia e matemática), como em ciência de dados e raciocínio verbal.

Além disso, o o4-mini tem limites de uso mais generosos, o que o torna ideal para aplicações de alto volume e custo controlado.

Disponibilidade

Ambos os modelos já estão disponíveis para usuários dos planos ChatGPT Plus, Pro e Team, além de poderem ser acessados via API para desenvolvedores.

Um novo padrão de inteligência artificial

Com os modelos o3 e o4-mini, a OpenAI estabelece uma nova referência em IA: modelos capazes de combinar texto e imagem em um único fluxo de pensamento, utilizando ferramentas integradas para entregar respostas mais completas, naturais e adaptadas ao contexto.

Se antes a IA precisava de descrições textuais para funcionar bem, agora ela pensa visualmente — e isso pode mudar completamente a forma como interagimos com sistemas inteligentes.

Adicionar aos favoritos o Link permanente.