Após meses de rumores e especulações, a OpenAI enfim anunciou oficialmente o GPT-4 nesta terça-feira (14), a versão mais recente do seu modelo de linguagem que alimenta ferramentas de IA como o ChatGPT e o novo Bing da Microsoft.

A empresa afirma que o modelo ficou “mais criativo e colaborativo do que nunca” e agora “pode resolver problemas difíceis com mais precisão”. Tudo graças ao seu nível conhecimento geral que ficou mais amplo e a novas “habilidades para resolução de problemas”.

publicidade

Leia mais:

O que mudou no GPT-4?

  • No anúncio do GPT-4, a OpenAI enfatizou que o sistema passou por seis meses de treinamento.
  • Em testes internos, a nova versão era “82% menos propensa a responder solicitações de conteúdo não permitido e 40% mais propensa a produzir respostas factuais” quando comparada ao GPT-3.5.
  • Em uma postagem no seu blog, a OpenAI disse que no fim a distinção entre o GPT-4 e seu irmão mais velho, o GPT-3.5, ainda é “sutil” em conversas mais casuais. 
  • A diferença entre as versões do modelo de linguagem de IA aparecem quando confrontadas por tarefas mais complexas.
  • A OpenAI diz que já fechou parceria com várias empresas para integrar o GPT-4 em seus produtos, um exemplo é o Duolingo. 
  • O novo modelo também estará disponível no próprio ChatGPT Plus e como uma API. 
  • Quem quiser testar a novidade em primeira mão deve se cadastrar na lista de espera.

Também foram implementadas melhorias de desempenho vistas em vários testes, incluindo os exames Uniform Bar Exam, LSAT, SAT Math e SAT Evidence-Based Reading & Writing. Segundo a OpenAI, em todos mencionados antes o GPT-4 obteve pontuação mínima de 88%.

publicidade

No ano passado, as primeiras especulações sugeriam que a novidade iria representar um grande salto em relação às gerações anteriores. Curiosamente, o boato mais recente sobre o lançamento ganhou força na semana passada, quando um executivo da Microsoft deixou escapar que o sistema seria lançado esta semana. 

O CTO da Microsoft, Andreas Braun, também revelou que o seria GPT-4 multimodal, ou seja, capaz de trabalhar com outras mídias além de texto. O GPT-4 é de fato multimodal. A OpenAI diz que o novo sistema já aceita entradas de texto e imagens e pode analisar tudo simultaneamente, o que permite interpretar conversas mais complexas.

publicidade

No exemplo abaixo, a IA explica que há um homem amarrado em um táxi passando roupa após analisar a foto.

Imagem: Reprodução/OpenAi

Vale ressaltar que o ChatGPT vem desencadeando um verdadeiro “frenesi” no mundo da tecnologia desde o lançamento em novembro do ano passado. A Microsoft correu para lançar o seu próprio chatbot no Bing, enquanto o Google também não ficou parado e acaba de anunciar novos recursos de IA para os seus aplicativos.

publicidade

Imagem principal: Muhammad S0hail/Shutterstock

Via: The Verge

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!