Logo R7.com
RecordPlus
Inteligência Cotidiana

As IAs e o Oscar 2026: quem se saiu melhor nas previsões?

Entenda como as inteligências artificiais acertaram e erraram nas principais categorias da premiação

Inteligência Cotidiana|João GaldinoOpens in new window

  • Google News

LEIA AQUI O RESUMO DA NOTÍCIA

  • O Oscar 2026 revelou que o "fator humano" da Academia pesa mais que previsões das IAs.
  • Inteligências artificiais acertaram em categorias principais como Melhor Filme e Direção.
  • Em categorias de Ator e Coadjuvantes, previsões das IAs falharam em capturar as nuances da competição.
  • Apesar dos acertos, as IAs ainda precisam de intuição humana para prever resultados imprevisíveis.

Produzido pela Ri7a - a Inteligência Artificial do R7

ilustração com a estatueta do oscar na esquerda e os icones de gemini, perplexity e chatgpt a direita, ao fundo o palco da cerimonia do oscar com as cortinas vermelhas semiabertas
Oscar 2026 x Previsões das IAs Ilustração criada por Inteligência Artificial: Google Gemini

O Oscar 2026 chegou ao fim na noite deste domingo (15) e, se houve uma lição aprendida, é que nem a estatística mais refinada substitui o “fator humano” da Academia.

No dia 22 de janeiro, logo após a divulgação dos indicados, fizemos um experimento aqui no blog para ver como as principais inteligências artificiais do mercado se sairiam prevendo os vencedores. Você pode conferir o post original com as previsões aqui.


Agora que as estatuetas já têm donos, é hora de “conferir o gabarito” e ver quem realmente entende de cinema.

🏆 O placar das IAs: quem acertou mais?

A disputa foi apertada, mas o resultado mostra que o consenso algorítmico é forte nas categorias principais, mas ainda tropeça nas zebras e no momentum da temporada.


Comparação do resultado do Oscar 2026 com as previsões de Perplexity, ChatGPT e Gemini
Comparação do resultado do Oscar 2026 com as previsões de Perplexity, ChatGPT e Gemini João Galdino

📊 Desempenho Final

  • Perplexity: 57% de acerto (4 de 7)
  • ChatGPT: 57% de acerto (4 de 7)
  • Gemini: 43% de acerto (3 de 7)

🧐 Onde os robôs “derraparam”?

Onde houve unanimidade entre as IAs em janeiro, houve acerto na tela ontem. Melhor Filme, Direção e Atriz seguiram o roteiro previsto: Paul Thomas Anderson finalmente levou sua estatueta e Jessie Buckley confirmou o favoritismo absoluto por Hamnet.

Por outro lado, o “caos” que as IAs previram nas categorias de Ator e Coadjuvantes foi ainda maior na vida real:


  • A surpresa de Michael B. Jordan: Nenhuma IA previu a vitória de Jordan por Pecadores. Perplexity e ChatGPT apostaram na juventude de Timothée Chalamet, enquanto o Gemini foi no Wagner Moura. A Academia, porém, preferiu premiar a entrega física e emocional de Jordan, que “atropelou” os favoritos.
  • O fator Sean Penn: Todas as IAs apostaram no veterano Stellan Skarsgård para Ator Coadjuvante. No entanto, o “efeito avalanche” de Uma Batalha Após a Outra acabou carregando Sean Penn para sua terceira estatueta, provando que, quando um filme domina a noite, ele leva as categorias de atuação por tabela.
  • Brasil no quase: O Gemini foi o único a apostar as fichas em O Agente Secreto (Brasil), tanto para Ator, quanto para Filme Internacional. A Noruega levou o prêmio internacional com o melancólico Valor Sentimental.

Conclusão

As IAs são ótimos termômetros para o que é óbvio e consensual, mas ainda não conseguem captar as nuances das campanhas de última hora e os desejos dos votantes da Academia.

O Perplexity e o ChatGPT dividem o troféu de “IAs cinéfilas do ano”, mas com uma margem de acerto que qualquer crítico humano experiente provavelmente bateria.

No fim das contas, a inteligência cotidiana ainda precisa de um pouco de intuição para prever a noite mais imprevisível de Hollywood.

Os textos aqui publicados não refletem necessariamente a opinião do Grupo Record.

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.