A OpenAI deu um passo significativo no campo da inteligência artificial com o lançamento de um novo modelo conhecido como OpenAI o1, também chamado de “Strawberry”. Este modelo representa uma mudança na abordagem do desenvolvimento da IA, destacando que seu tamanho não é o único fator determinante para o avanço desta tecnologia.
No ano passado, a OpenAI introduziu o GPT-4, um modelo que expandiu o tamanho de suas redes neurais. No entanto, a conclusão do OpenAI o1 sinaliza uma evolução nas capacidades de raciocínio lógico. Ao contrário de outros modelos, que tendem a gerar respostas instantaneamente, ou são capazes de raciocinar e pensar em voz alta, semelhante a um ser humano, antes de chegar a uma conclusão.
Mira Murati, CTO da OpenAI, explica que este modelo não pretende substituir o GPT-4, mas sim complementá-lo. A empresa está atualmente trabalhando no GPT-5, que será significativamente maior do que seu antecessor. Murati esclarece que há dois paradigmas em jogo: a escala e esta nova abordagem ao raciocínio, e a intenção e integração.
Modelos de linguagem, como Large Language Models (LLMs), são alimentados por vastas redes neurais treinadas em grandes volumes de dados. Se você é competente em tarefas linguísticas e lógicas, frequentemente luta com problemas aparentemente simples, como operações matemáticas básicas. O OpenAI o1 usa aprendizado por reforço para melhorar sua capacidade de raciocínio, fornecendo feedback positivo ou negativo com base na precisão de suas respostas. Esse tipo de aprendizado pode ser eficaz em aplicações como design de chips e criação de chatbots mais sofisticados.
Mark Chen, vice-presidente de pesquisa da OpenAI, demonstrou o potencial de 1 ano para resolver problemas complexos que o GPT-4 não conseguia resolver, incluindo missões de química e quebra-cabeças matemáticos intrincados. Chen observa que o novo modelo aprende a raciocinar autonomamente, em vez de simplesmente imitar o pensamento humano como os modelos anteriores faziam.
Em termos de desempenho, o OpenAI o1 prova ser superior em uma variedade de áreas, incluindo codificação, matemática, física, biologia e química. Por exemplo, em um teste de matemática de um aluno, o GPT-4 resolveu 12% de dois problemas, enquanto 83% alcançaram resultados impressionantes.
No entanto, o novo modelo também tem desvantagens. Ele é mais lento que o GPT-4 e não consegue realizar pesquisas na Internet, ou limita sua capacidade em certas tarefas. Melhor raciocínio em LLMs é um tópico de interesse crescente em pesquisa, e simultaneamente com o Google explorando abordagens semelhantes.
A OpenAI acredita que seu novo modelo pode levar a um comportamento mais seguro que esteja alinhado com as normas sociais. Murati diz que, ao raciocinar sobre as consequências de suas ações, ele só pode evitar gerar resultados prejudiciais, potencialmente levando a uma IA menos perigosa.
Especialistas em inteligência artificial como Oren Etzioni enfatizam a importância de treinar modelos para resolver problemas complexos e usar ferramentas apropriadas. Apesar do progresso, desafios permanecem, como a “alucinação” e a veracidade das informações geradas.
Chen concluiu que a abordagem de raciocínio não é apenas assustadora, mas também promete tornar a IA mais acessível e econômica, alinhando-se ao fracasso da OpenAI em democratizar o acesso à IA.