A NVIDIA estabeleceu uma parceria com a OpenAI para disponibilizar uma nova geração de modelos de inteligência artificial abertos diretamente ao público. A grande novidade é que uma IA de última geração, anteriormente restrita a data centers na Cloud, poderá funcionar em acesso local e com grande desempenho em computadores pessoais e estações de trabalho com placas gráficas GeForce RTX.
Este lançamento assinala o início de uma nova era de inteligência artificial local, mais rápido e eficiente que é potenciado pelas capacidades das Placas Gráficas GeForce RTX e RTX PRO. Foram disponibilizadas duas versões diferentes dos modelos, desenvolvidas para abranger diferentes níveis de hardware:
- gpt-oss-20b: Otimizado para PCs equipados com RTX AI com pelo menos 16 GB de memória gráfica (VRAM), por exemplo consegue atingir velocidades até 250 tokens por segundo numa RTX 5090.
- gpt-oss-120b: Um modelo mais robusto que é indicado para estações de trabalho profissionais com Placas Gráficas RTX PRO.
Ambos os modelos foram treinados com as Placas Gráficas NVIDIA H100 e são os primeiros a incorporar MXFP4, uma técnica que melhora a precisão e fidelidade dos modelos sem sacrificar o desempenho.
Destaques técnicos:
- Capacidade de contexto até 131.072 tokens, uma das mais elevadas na inferência local.
- Estrutura baseada em arquitetura mixture-of-experts (MoE).
- Suporte para raciocínio passo-a-passo (chain-of-thought), execução de instruções e integração com ferramentas.
Como começar a explorar os modelos com RTX
A NVIDIA indicou três formas práticas de experimentar os modelos gpt-oss com placas gráficas RTX:
- Ollama
Uma das maneiras mais simples de testar os modelos. A aplicação tem interface intuitiva e suporte completo para sistemas equipados com componentes RTX. - Llama.cpp (via GitHub)
Em colaboração com a comunidade open-source, a NVIDIA está a otimizar o desempenho com ferramentas como CUDA Graphs, que reduzem o tempo de execução. - Microsoft AI Foundry Local (versão de pré-visualização)
Nos sistemas Windows, os programadores podem executar o seguinte comando no terminal: “Foundry model run gpt-oss-20b”.