A OpenAI revelou o Sora 2, que atinge novos níveis de realismo na geração de vídeos AI.
A OpenAI apresentou o
Sora 2, a nova versão do seu modelo de geração de vídeo e áudio. A primeira versão, lançada em Fevereiro de 2024, foi vista como o "momento GPT-1 do vídeo", ao demonstrar pela primeira vez comportamentos básicos como a permanência de objectos. Agora, com o Sora 2, a empresa diz estar a entrar no "momento GPT-3.5", com capacidades muito mais avançadas na simulação do mundo físico.
O grande destaque do Sora 2 é a forma como lida com as leis da física. Em vez de "dobrar" a realidade para cumprir um pedido textual, como faziam modelos anteriores, consegue lidar com falhas naturais. Por exemplo, se um jogador de basquetebol falhar um lançamento, a bola pode bater no aro e cair, em vez de desaparecer magicamente dentro do cesto. O modelo também demonstra movimentos complexos como saltos olímpicos, e outras acrobacias. Além disso, o Sora 2 dá um salto na controlabilidade e persistência de estado, permitindo criar sequências mais longas e detalhadas sem quebrar a coerência visual. É capaz de gerar vídeos em estilos realistas, cinematográficos ou anime, sempre acompanhados por áudio sincronizado, incluindo música, efeitos sonoros e até vozes. A tecnologia também suporta a inserção de pessoas, animais ou objectos reais em cenários gerados por AI, mantendo a aparência e voz de forma fidedigna.
Sound on. pic.twitter.com/QHDxq6ubGt
— OpenAI (@OpenAI) September 30, 2025
Além de servir como resposta ao Veo da Google, que estava a ganhar grande popularidade, a OpenAI joga ainda outra cartada para tentar cimentar o uso do Sora 2. O novo modelo AI vai ser acompanhado por uma app social "Sora" que, ao estilo do TikTok, será dedicada à partilha e remixes de vídeos AI gerados pelo modelo - que podem incluir o próprio ou qualquer outra pessoa que deseje (validando o "receio" de que efectivamente não se pode acreditar no que se vê).
O grande problema é que o acesso à app fica severamente limitado por um sistema de convites, que pode acabar por repetir o erro do primeiro Sora, que demorou quase um ano até ficar efectivamente acessível aos utilizadores. No entanto, não deixa de ser uma boa táctica para ir gerando o "desejo" dos utilizadores, ao mesmo tempo que permite ir controlando os recursos de hardware disponíveis para a geração de vídeos.
Preparem-se para overdose de vídeos incríveis gerados pelo Sora 2 nas próximas semanas:
Sora's realism is very convincing. OpenAI has actually managed to catch up with Google's Veo3. Nevertheless, OpenAI will incur immense costs with Sora2, and the social media app Sora will only pay off in the future. pic.twitter.com/II1uYYCrbw
— Chubby♨️ (@kimmonismus) September 30, 2025
My test of any new AI video model is whether it make an otter using wifi on an airplane
Here is Sora 2 doing a nature documentary... 80s music video... a thriller... 50s low budget SciFi film... a safety video.. film noir... anime... 90s video game cutscene... French arthouse pic.twitter.com/6O1f1zOogH
— Ethan Mollick (@emollick) October 1, 2025
This is legitimately mind-blowing...
How the FUCK does Sora 2 have such a perfect memory of this Cyberpunk side mission that it knows the map location, biome/terrain, vehicle design, voices, and even the name of the gang you're fighting for, all without being prompted for any of… pic.twitter.com/GoJTcHgtFs
— Pliny the Liberator 🐉󠅫󠄼󠄿󠅆󠄵󠄐󠅀󠄼󠄹󠄾󠅉󠅭 (@elder_plinius) September 30, 2025
ok, they cooked...wtf did they put in this model? 😳
prompt: "generate a video but flip it across the x-axis and play it in reverse with a photonegative filter applied" pic.twitter.com/LRSF9T9BuO
— Pliny the Liberator 🐉󠅫󠄼󠄿󠅆󠄵󠄐󠅀󠄼󠄹󠄾󠅉󠅭 (@elder_plinius) September 30, 2025