RSS

Blog

Geforce RTX 5060 já disponível: DLSS4 com Multi Frame Generation, Renderização Neural e Blackwell Inavations, para todos os usuários.
Geforce RTX 5060 já disponível: DLSS4 com Multi Frame Generation, Renderização Neural e Blackwell Inavations, para todos os usuários.

A nova GeForce RTX 5060 já está à venda. Modelos com clock padrão e overclock de fábrica estão disponíveis nos principais fabricantes de placas de vídeo, como ASUS, Colorful, Gainward, Galaxy, GIGABYTE, INNO3D, MSI, Palit, PNY e ZOTAC. Além disso, desktops pré-montados de integradores e fabricantes de sistemas também já podem ser adquiridos.

Se você quer adicionar uma das nossas novas placas de vídeo ao seu PC para um upgrade revolucionário ou deseja um computador pré-montado equipado com nossa tecnologia transformadora, acesse o GeForce RTX 5060 Product Finder — que será atualizado conforme os varejistas incluam seus produtos — para encontrar placas de vídeo e PCs parceiros disponíveis para compra em toda a web.

Desempenho acelerado pela arquitetura NVIDIA Blackwell RTX

As placas de vídeo GeForce RTX 5060 aprimoram seus jogos e aplicativos favoritos com ray tracing e shaders neurais, reduzem a latência do PC com o NVIDIA Reflex e aceleram significativamente as taxas de quadros usando o DLSS 4 com Multi Frame Generation.

A NVIDIA é líder mundial em gráficos e IA, e nosso objetivo com a GeForce RTX sempre foi e continua sendo avançar o estado da arte em gráficos computacionais em tempo real. Por meio de inovações em hardware e software, estamos impulsionando a indústria, permitindo que desenvolvedores criem experiências antes impossíveis, renderizem mundos imersivos com gráficos foto-realistas e ofereçam aos jogadores títulos melhores, mais realistas e mais divertidos. Alguns dos jogos mais recentes que utilizam essas tecnologias podem ser vistos em nosso artigo sobre jogos com DLSS e RTX.

O dobro do desempenho da geração anterior

As placas GeForce RTX 5060 oferecem o dobro do desempenho da geração anterior (RTX 4060) em jogos com DLSS 4 Multi Frame Generation, e um salto ainda maior para quem está atualizando de GPUs mais antigas, como a GeForce GTX 1660 ou RTX 2060.

Confira a comparação entre as RTX 5060 e RTX 4060, 3060 e 2060

Esse avanço permite que os jogadores experimentem níveis superiores de fidelidade gráfica e joguem seus títulos favoritos com controles mais responsivos. Com a RTX 5060, é possível aproveitar seus jogos preferidos a mais de 100 quadros por segundo.

Tecnologia de ponta da série GeForce RTX 50

As placas GeForce RTX 5060 contam com as mesmas inovações de hardware do restante da série RTX 50, incluindo:

  • Núcleos de shader, Tensor Cores e Ray Tracing Cores de última geração
  • Memória GDDR7 ultrarrápida para a melhor experiência em jogos
  • Codificação e decodificação de vídeo mais rápidas, com hardware líder do mercado
  • Suporte a monitores DisplayPort 2.1 UHBR20

Mais de 125 jogos e apps com DLSS 4 Multi Frame Generation

O DLSS 4 com Multi Frame Generation gera até três quadros adicionais para cada quadro renderizado tradicionalmente, trabalhando em conjunto com todas as tecnologias DLSS para multiplicar o desempenho em relação à renderização convencional. Esse ganho massivo de performance nas GPUs da série RTX 50 permite jogar com gráficos no máximo e taxas de quadros incríveis.

Lançado no final de janeiro, o DLSS 4 com Multi Frame Generation já está disponível em mais de 125 jogos e aplicativos — número que cresce semanalmente. Para ver a lista completa, acesse nosso artigo sobre jogos e apps com RTX.

Além disso, em mais de 220 jogos, é possível ativar o DLSS Super Resolution, nosso modelo de IA que melhora a qualidade de imagem.

Driver Game Ready para a RTX 5060 já disponível

O mais recente Game Ready Driver é essencial para quem adquiriu a nova GeForce RTX 5060 e inclui suporte otimizado para novos jogos, muitos deles com tecnologias DLSS e RTX.

Baixe e instale o driver pela aba Drivers do NVIDIA App ou em GeForce.com após instalar sua nova placa para aproveitar todo seu desempenho e recursos.

A GeForce RTX 5060 já está no mercado

Com o lançamento da família GeForce RTX 5060, tecnologias como DLSS 4 Multi Frame Generation, renderização neural e inovações da arquitetura Blackwell chegam a todos os jogadores. Obtenha as taxas de quadros mais altas já vistas em uma placa da classe 60, experimente gráficos com ray tracing imersivo, melhore a qualidade de imagem com modelos de IA do DLSS, torne os controles mais responsivos com NVIDIA Reflex e muito mais.

Modelos com clock padrão e overclock de fábrica já estão disponíveis nos principais fabricantes, como ASUS, Colorful, Gainward, Galaxy, GIGABYTE, INNO3D, MSI, Palit, PNY e ZOTAC, além de integradores de sistemas. Acesse o NVIDIA Marketplace Product Finder para encontrar placas de vídeo e PCs com RTX 5060 à venda em toda a web.

*Texto traduzido e adaptado do texto escrito e publicado por Andrew Burnes em 19 de maio de 2025.

** Link para o texto original: https://www.nvidia.com/en-us/geforce/news/rtx-5060-out-now/

Liberte Todo o Potencial da GPU: Sobreponha Comunicação e Computação com Triton-Distributed
Liberte Todo o Potencial da GPU: Sobreponha Comunicação e Computação com Triton-Distributed

Na computação distribuída, cargas de trabalho de IA exigem alto paralelismo e movimentação eficiente de dados. Um dos principais desafios é sobrepor eficientemente a computação com a comunicação para maximizar o desempenho. As GPUs são excelentes em processar cálculos, mas seu potencial muitas vezes não é totalmente aproveitado devido ao tempo relativamente longo de comunicação entre GPUs. Isso faz com que suas unidades de computação fiquem ociosas por longos períodos enquanto aguardam outras transferências de dados. Neste texto, mostraremos como você pode usar o framework Triton-Distributed para gerar kernels que sobrepõem modelos de comunicação, resultando em desempenho comparável a bibliotecas altamente otimizadas.

O que é o Triton-Distributed Compiler?

O Triton-Distributed é uma extensão inovadora do framework OpenAI Triton que permite a execução simultânea de computação e transferência de dados entre GPUs. Seu objetivo é transformar a forma como os desenvolvedores lidam com o equilíbrio entre desempenho e a sobrecarga de latência induzida pelo compilador. O Triton-Distributed capacita os desenvolvedores a escrever kernels que otimizam automaticamente tanto os cálculos locais quanto os padrões de comunicação entre dispositivos. Por exemplo, um único kernel do Triton-Distributed pode ajustar dinamicamente os padrões de acesso à memória para ocultar latência durante operações como all-reduce. 

O Triton-Distributed Compiler herda os pontos fortes do OpenAI Triton, um compilador conhecido por simplificar a programação de GPUs. Em CUDA/HIP, a criação de kernels otimizados exige profundo conhecimento em microarquitetura de hardware e programação de baixo nível, o que demanda ajustes manuais complexos (propensos a erros e demorados) ou o uso de bibliotecas rígidas que limitam a flexibilidade. O Triton muda essa equação, oferecendo um nível mais alto de abstração enquanto mantém flexibilidade, eficiência e produtividade. 

Ao encapsular otimizações complexas, como gerenciamento de memória compartilhada, uso de núcleos de tensor/matriz e paralelismo em nível de warp, em passes de compilação reutilizáveis, o Triton-Distributed permite que os desenvolvedores se concentrem na inovação algorítmica em vez de detalhes arquitetônicos de baixo nível. Imagine escrever um kernel de multiplicação de matrizes uma vez e alcançar desempenho comparável a bibliotecas altamente ajustadas para várias configurações de entrada em múltiplos nós de GPU. 

O Triton-Distributed visa oferecer: 

Kernels eficientes comparáveis a bibliotecas altamente otimizadas, como Distributed-GEMM, cuBLASMp e FLUX. 

Abstrações de alto nível e um design focado em produtividade, tornando a portabilidade de desempenho acessível a um público mais amplo. 

A abstração da complexidade da programação distribuída em GPUs em uma compilação acessível e extensível. 

Vamos explorar como começar com o Triton-Distributed.

Começando com o Triton-Distributed

A seguir estão os passos para instalar e usar o Triton-Distributed em GPUs AMD.

Passo 1. Instale o Triton-Distributed a partir do código-fonte: 
Consulte o Guia de Compilação para melhores práticas na compilação e configuração do TritonDistributed para GPUs AMD.

Passo 2. Como usar o Triton-Distributed:
O Triton-Distributed fornece um conjunto de primitivas de fácil uso para desenvolver kernels que sobrepõem computação e comunicação. Todas as primitivas são expostas por [triton.distributed.language], que são recursos adicionais que complementam os principais recursos do Triton, mantendo sua composição sem modificar o núcleo. 

As primitivas são divididas em conjuntos de baixo e alto nível. Enquanto as primitivas de alto nível (descritas no artigo MLSys 2025) serão lançadas no futuro, a versão atual inclui as seguintes primitivas 
de baixo nível:

Primitivas de Baixo Nível – Consulta de Contexto 

  •  rank(axis=-1, _builder=None)
  •  num_ranks(axis=-1, _builder=None)
  •  symm_at(ptr, rank, _builder=None)

Primitivas de Baixo Nível – Controle de Sinal

  • wait(barrierPtrs, numBarriers, scope: str, semantic: str, 
    _builder=None)
  • consume_token(value, token, _builder=None)
  • notify(ptr, rank, signal=1, sig_op="set", comm_scope="inter_node", 
    _builder=None)

Os usuários podem combinar a parte de comunicação com a parte de computação para projetar kernels sobrepostos. 

Teste e Reproduza o Desempenho com Triton-Distributed em AMD CDNA3

Abaixo está o script para testar e reproduzir o desempenho do ReduceScatter GEMM em um único nó:

#!/bin/bash   
set -e   
SHAPES=(   
    "8192 4096 12288"   
    "8192 4096 14336"   
    "8192 3584 14336"   
    "8192 4608 36864"   
    "8192 8192 28672"   
    "8192 8192 30720"   
)   
for shape in "${SHAPES[@]}"; do   
    read -r m n k <<< "$shape"   
    echo "Testing GEMM_RS shape: m=$m, n=$n, k=$k"   
    bash ./third_party/distributed/launch_amd.sh 
./third_party/distributed/distributed/test/amd/test_gemm_rs_intra 
_node.py ${m} ${n} ${k} --warmup 5 --iters 20   
done  

A Figura 1 abaixo mostra o aumento de desempenho ao usar o Triton-Distributed em comparação com RocmBlas+RCCL. Nos casos ajustados, observamos uma melhoria de 30% com essa abordagem. 

AllGather GEMM em Nó Único

Abaixo está o script para testar e reproduzir o desempenho do AllGather GEMM em um único nó: 

set -e   
SHAPES=(   
    "8192 4096 12288"   
    "8192 4096 14336"   
    "8192 3584 14336"   
    "8192 4608 36864"   
    "8192 8192 28672"   
    "8192 8192 30720"   
)   
for shape in "${SHAPES[@]}"; do   
    read -r m n k <<< "$shape"   
    echo "Testing AG_GEMM shape: m=$m, n=$n, k=$k"   
    bash ./third_party/distributed/launch_amd.sh 
./third_party/distributed/distributed/test/amd/test_ag_gemm_intra_node.py 
${m} ${n} ${k} --warmup 5 --iters 20   
done  

A Figura 2 abaixo mostra o aumento de desempenho ao usar o Triton-Distributed em comparação com 
RocmBlas+RCCL. Nos casos ajustados, observamos uma melhoria de 30-40% com essa abordagem. 

Resumo

O Triton-Distributed é um compilador baseado no framework Triton da OpenAI e representa um avanço na computação distribuída em GPUs. Ele aborda um dos maiores desafios em cargas de trabalho de IA: equilibrar eficientemente a computação com a comunicação entre GPUs. Ao permitir a sobreposição de computação e comunicação, o Triton-Distributed possibilita que os kernels continuem processando enquanto os dados são transferidos, maximizando assim a utilização da GPU, reduzindo ciclos ociosos e melhorando o desempenho geral do sistema. 

O Triton-Distributed herda as abstrações de alto nível do Triton, eliminando a necessidade de conhecimento profundo de hardware ou o uso de bibliotecas rígidas. Ele permite a criação de kernels distribuídos portáteis e de alto desempenho—como o Distributed-GEMM—que rivalizam com implementações em CUDA otimizadas manualmente. Ao encapsular otimizações complexas, como gerenciamento de memória compartilhada e paralelismo em nível de warp, em passes de compilação, ele capacita os desenvolvedores a focar no design algorítmico em vez de detalhes de baixo nível. 

Além disso, o Triton-Distributed traz essas capacidades para GPUs AMD, ampliando o acesso e a portabilidade de desempenho entre diferentes plataformas de hardware. Ele oferece uma solução de ponta que permite aos desenvolvedores:

  • Libertar todo o potencial do hardware AMD GPU 
  • Expandir os limites do desempenho distribuído 
  • Acelerar a inovação em sistemas de IA 
Project G-Assist: Um assistente de IA para PCs com GeForce RTX, já está disponível no aplicativo NVIDIA
Project G-Assist: Um assistente de IA para PCs com GeForce RTX, já está disponível no aplicativo NVIDIA

Adaptado e traduzido do texto de Andrew Burnes e Guillermo Siman

A NVIDIA apresentou, na Computex 2024, o Project G-Assist — uma demonstração tecnológica que ofereceu um vislumbre de como os assistentes de IA podem elevar a experiência do PC para jogadores, criadores e muito mais. Posteriormente, foi lançada uma versão experimental do recurso Project G-Assist System Assistant para usuários de desktop GeForce RTX, por meio do aplicativo NVIDIA, com suporte para laptop GeForce RTX em uma atualização futura.

À medida que os PCs modernos se tornam mais capazes, eles também se tornam mais complexos em sua operação. Os usuários hoje enfrentam mais de um trilhão de combinações possíveis de configurações de hardware e software ao configurar um PC para desempenho máximo — abrangendo GPU, CPU, placa-mãe, monitores, periféricos e muito mais.

Construímos o Project G-Assist, um assistente de IA que roda localmente em PCs GeForce RTX AI, para simplificar essa experiência. O G-Assist ajuda os usuários a controlar uma ampla gama de configurações do PC, desde a otimização de configurações de jogo e sistema, gráficos de taxas de quadros e outras estatísticas importantes de desempenho, até o controle de configurações de periféricos selecionados, como iluminação — tudo por meio de comandos básicos de voz ou texto.

Project G-Assist | AI Assistant For Your GeForce RTX PC - Available Now

Assistente de Sistema do Projeto G-Assist

O Projeto G-Assist usa um Small Language Model (digamos que é um modelo que precisa de pouco código pra operar) especialmente ajustado para interpretar com eficiência instruções em linguagem natural e chamar uma variedade de APIs de PC da NVIDIA e de terceiros para executar ações no PC.

O G-Assist pode fornecer diagnósticos e recomendações em tempo real para aliviar gargalos do sistema, melhorar a eficiência de energia, otimizar as configurações do jogo, fazer overclock da sua GPU e muito mais.

Project G-Assist | AI Assistant For Your RTX PC - Analyzing Performance

Ele pode mapear e exportar várias métricas de desempenho, como FPS, latência, utilização de GPU, temperaturas, entre outras.

Project G-Assist | AI Assistant For Your RTX PC - CPU & GPU Usage

Ele pode responder a perguntas sobre o hardware do seu PC ou sobre o software NVIDIA integrado à sua GPU GeForce RTX.

Project G-Assist | AI Assistant For Your RTX PC - System Information

O G-Assist pode até mesmo controlar periféricos e aplicativos de software selecionados com comandos simples, permitindo que os usuários comparem ou ajustem as velocidades do ventilador ou alterem a iluminação em dispositivos Logitech G, Corsair, MSI e Nanoleaf compatíveis .

Project G-Assist | AI Assistant For Your RTX PC - Device Customization

O Project G-Assist usa um SLM de terceiros projetado para rodar localmente; ele não tem a intenção de ser uma IA de conversação ampla. Para obter os melhores resultados com o Project G-Assist, consultea lista de funções suportadas, que será atualizada conforme novos comandos e recursos forem adicionados.

IA no dispositivo

Ao contrário de modelos massivos de IA hospedados na nuvem que exigem acesso online e assinaturas pagas, o G-Assist roda na sua GPU GeForce RTX. Isso significa que ele é responsivo, gratuito para usar e pode rodar offline.

Sob o capô, o G-Assist agora usa um modelo Instruct baseado em Llama com 8 bilhões de parâmetros, empacotando a compreensão da linguagem em uma pequena fração do tamanho dos modelos de IA de grande escala de hoje. Isso permite que o G-Assist seja executado localmente no hardware GeForce RTX. E com o ritmo rápido da pesquisa de SLM, esses modelos compactos estão se tornando mais capazes e eficientes a cada poucos meses. Quando o G-Assist é solicitado a ajudar pressionando Alt+G — digamos, para otimizar as configurações gráficas ou verificar as temperaturas da GPU — sua GPU GeForce RTX aloca brevemente uma parte de sua potência para inferência de IA. Se você estiver jogando simultaneamente ou executando outro aplicativo pesado de GPU, uma pequena queda na taxa de renderização ou na velocidade de conclusão da inferência pode ocorrer durante esses poucos segundos. Assim que o G-Assist termina sua tarefa, a GPU retorna a fornecer desempenho total para o jogo ou aplicativo.

O Projeto G-Assist requer os seguintes componentes de PC e sistema operacional:

  • Sistema operacional:Windows 10, Windows 11
  • GPU: ›GPUs de desktop GeForce RTX séries 30, 40 e 50 com 12 GB de VRAM ou superior
  • CPU:›Intel Pentium G Series, Core i3, i5, i7 ou superior›AMD FX, Ryzen 3, 5, 7, 9, Threadripper ou superior
  • Espaço em disco necessário: ›Assistente de Sistema: 6,5 GB›Comandos de Voz: 3 GB
  • Driver: ›Driver GeForce 572.83 ou posterior

 O Project G-Assist é lançado com suporte para GPUs de desktop, com suporte para laptops em uma atualização futura. Você pode encontrar uma lista completa dos requisitos de sistema do G-Assist, incluindo aqueles para periféricos de parceiros aqui.

Assistentes de energia para ISVs e desenvolvedores comunitários

O G-Assist é construído comNVIDIA ACE— o mesmo conjunto de tecnologia de IA que os desenvolvedores de jogos usampara dar vida aos NPCs. OEMs e ISVs já estão aproveitando a tecnologia ACE para criar Assistentes de IA personalizados como o G-Assist. Por exemplo,a MSI revelou o mecanismo “AI Robot” na CES, projetado para alimentar Assistentes de IA integrados ao MSI Center e ao MSI Afterburner. A Logitech está usando o ACE para desenvolvero Streamlabs Intelligent AI Assistant, completo com um avatar interativo que pode conversar com o streamer, comentar sobre a jogabilidade e muito mais. E a HP também está trabalhando para aproveitar o ACE para recursos de assistente de IA noOmen Gaming Hub.

Desenvolvedores e entusiastas de IA também podem aproveitar e ampliar os recursos do G-Assist.

O G-Assist foi criado para expansão orientada pela comunidade. Para começar, a NVIDIA publicou um repositório GitHubcom amostras e instruções para criar plugins que adicionam novas funcionalidades. Os desenvolvedores da comunidade podem definir funções em formatos JSON simples e soltar arquivos de configuração em um diretório designado, permitindo que o G-Assist os carregue e interprete automaticamente. Os desenvolvedores podem até mesmo enviar plugins para a NVIDIA para revisão e possível inclusão, disponibilizando esses novos recursos para outros.

Os plugins de amostra disponíveis atualmente incluem Spotify, para habilitar música sem as mãos e controle de volume, e Google Gemini, permitindo que o G-Assist invoque uma IA muito maior baseada em nuvem para conversas mais complexas, brainstorming ou pesquisas na web usando uma chave de API gratuita do Google AI Studio. No clipe abaixo, você verá o G-Assist perguntar a Gemini sobre qual Lenda escolher emApex Legendsao fazer fila solo, e se é sensato pular para o modo Pesadelo no nível 25 emDiablo IV:

Project G-Assist | AI Assistant For Your GeForce RTX PC - Gemini Plugin

Para ainda mais personalização,a NVIDIA publicou instruções no Repositório GitHubpara ajudar os usuários a gerar plugins do G-Assist usando um "Plugin Builder" baseado em ChatGPT. Com essa ferramenta, os usuários podem usar IA para gerar código formatado corretamente e, em seguida, integrá-lo ao G-Assist, permitindo uma funcionalidade rápida assistida por IA que responde a comandos de texto e voz.

Veja como um desenvolvedor usou o Plugin Builder para criar um Twitch Plugin para o G-Assist. Depois de usar o ChatGPT para gerar o manifesto JSON e os arquivos Python necessários, o desenvolvedor simplesmente os solta no diretório designado. A partir daí, o G-Assist pode verificar instantaneamente se um streamer está online, retornando atualizações em tempo real e contagens de espectadores em resposta a comandos como "Ei Twitch, [streamer] está ao vivo?"

Project G-Assist | AI Assistant For Your GeForce RTX PC - Plugin Builder

Detalhes sobre como criar, compartilhar e carregar pluginsestão disponíveis na documentação em nosso repositório GitHub.

A NVIDIA está abrindo a estrutura do G-Assist para a comunidade de IA mais ampla, e ferramentas como CrewAI, Flowise e LangFlow poderão aproveitar o G-Assist como um componente personalizado no futuro, permitindo que a comunidade integre recursos de chamada de função em fluxos de trabalho de baixo código/sem código, aplicativos de IA e fluxos de agentes.

Mal podemos esperar para ver o que a comunidade vai sonhar! Para saber mais sobre plugins e aplicativos de IA criados pela comunidade,confira a série de blogs RTX AI Garage da NVIDIA.

Projeto G-Assist já disponível

Baixe o Project G-Assist pela aba Home doaplicativo NVIDIA, na seção Discovery. O G-Assist atualmente oferece suporte a GPUs de desktop GeForce RTX, idioma inglês e aos comandos de voz e textolistados aqui. Em atualizações futuras, continuaremos a atualizar e adicionar recursos do G-Assist. Pressione Alt+G após a instalação para ativar o G-Assist.

Lembre-se: seu feedback alimenta o futuro! O G-Assist é um recurso experimental no que pequenos modelos de IA locais originados da vanguarda da pesquisa de IA podem fazer. Se você quiser ajudar a moldar o futuro do G-Assist, pode enviar feedback clicando no ícone de exclamação "Enviar feedback" no canto superior direito da janela do aplicativo NVIDIA e selecionando "Projeto G-Assist". Seus insights nos ajudarão a determinar quais melhorias e recursos buscar em seguida.

NVÍDIA - Mais de 100 games e aplicações com DLSS 4 e Multi Frame Generation já estão disponíveis, com mais chegando em breve.
NVÍDIA - Mais de 100 games e aplicações com DLSS 4 e Multi Frame Generation já estão disponíveis, com mais chegando em breve.

PorAndrew Burnespublicado em 13 de março de 2025 emnvdia.com- Cedido por NVIDIA

Mais de 700 games e aplicativos já contam com tecnologias RTX, e toda semana novos games que integram oNVIDIA DLSS, oNVIDIA Reflexeefeitos avançados de ray tracingsão lançados ou anunciados, oferecendo a experiência definitiva em PC para jogadores com GeForce RTX.

Com a adição dos mais recentes games com DLSS 4 e Multi Frame Generation, o novo multiplicador de desempenho da NVIDIA já está disponível em mais de 100 games e aplicações, tornando-se a tecnologia de games da NVIDIA com adoção mais rápida de todos os tempos.

Além disso, foi anunciado que os gamesLost Soul Aside,Mecha BREAK,Phantom Blade Zero,Stellar Blade,Tides of AnnihilationeWild Assaultserão lançados com DLSS Multi Frame Generation e nosso pacote de outras tecnologias DLSS. Isso proporcionará aos gamers com GeForce RTX a experiência definitiva em PC em cada um desses games.

Além disso, foi lançada uma demonstração atualizada de Zorah, criada em Unreal Engine 5, que mostra os últimos avanços em renderização neural com tecnologia GeForce RTX Série 50 e IA.

Clique aqui para assistir ao teste gráfico de Zorah

Mais de 100 games e aplicações com DLSS 4 já estão disponíveis

O DLSS 4 com Multi Frame Generationgera até três quadros adicionais para cada quadro renderizado tradicionalmente, trabalhando em conjunto com o pacote completo de tecnologias DLSS para multiplicar as taxas de quadros em até 8x em comparação com a renderização tradicional por força bruta. Essa enorme melhoria de desempenho nas placas de vídeo e laptops GeForce RTX Série 50 permite maximizar os efeitos visuais nas mais altas resoluções e jogar com taxas de quadros incríveis.

As placas gráficas GeForce RTX Série 50 e o DLSS 4 com Multi Frame Generation foram lançados no final de janeiro, com compatibilidade disponível para 75 games e aplicações. Agora, mais de 100 games e aplicações já contam com compatibilidade com DLSS Multi Frame Generation. Abaixo, você pode saber mais sobre a adição do DLSS Multi Frame Generation a outros 7 games que serão lançados em breve.

Confira a lista de games aqui

Toda semana, novos games são lançados com DLSS Multi Frame Generation, atualizações de games estão adicionando DLSS Multi Frame Generation aos seus títulos favoritos, e as substituições doNVIDIA DLSSestão atualizando ainda mais games e aplicações com compatibilidade com DLSS Multi Frame Generation.Acesse aquipara obter uma lista completa de todos os games e aplicações com RTX.

Quer garantir as novas Placas de Vídeo RTX Série 50? Clique aqui e acesse o site da All Nations.

 

Conheça o Nvidia Frame Generator
Conheça o Nvidia Frame Generator

A novidade da vez na Nvidia é o Frame Generator (Gerador de quadros em tradução livre) presente no DLSS4. O recurso promete não necessitar de hardwares dedicados para funcionar e deve estar presente em diferentes gerações de placas. A novidade foi lançada na CES 2025, evento ocorrido no início de janeiro.

Você que é menos familiarizado com tecnologia deve estar se perguntando: “Mas o que é DLSS4 e Frame Generator?”. Na edição dessa semana da nossa newsletter vamos tentar te ajudar a entender um pouco mais sobre essas nomenclaturas e tecnologias.


Primeiro vamos entender o que é o DLSS4

O DLSS é um recurso exclusivo das placas de vídeo da Nvidia que eleva a resolução e uma fonte, na maioria dos casos, um jogo, em tempo real. Esse recurso está presente nas placas mais recentes da fabricante californiana.

A sigla DLSS significa em português algo como Super Amostragem com Profunda Aprendizagem. E é aí que a magia acontece, utilizando deep learning, uma técnica de Machine Learning (Aprendizado de máquina, pra deixar as traduções em dia) as placas da Nvidia que possuem essa tecnologia conseguem fazer a modelagem de várias fontes com diversas camadas de processamento diferentes. 

Como a própria sigla já aponta, essa é a quarta geração do DLSS. Ao longo das outras três gerações o DLSS buscou equilibrar a taxa de quadros e qualidade das imagens treinando os softwares individualmente. Depois evoluiu para otimizar essa renderização usando uma rede neural generalista que dispensava um treinamento prévio mais intensivo. 

Na geração anterior a Nvidia passou a utilizar o auxílio das IAs para seguir evoluindo a tecnologia. Passou a ser utilizado um Acelerador de Fluxo óptico, que analisa dois frames consecutivos do jogo e calcula o fluxo óptico, que mostra a direção e a velocidade do movimento dos pixels entre os frames. Ele captura detalhes como partículas, reflexos, sombras e iluminação, que não são considerados nos vetores de movimento do motor gráfico do jogo. 

Sobre a quarta geração do DLSS, a Nvidia classifica como: “O DLSS é um avanço revolucionário em tecnologias de renderização neural que utiliza IA para aumentar o FPS, reduzir a latência e aprimorar a qualidade de imagem. O incrível avanço do DLSS 4, traz o novo Multi Frame Generation e melhorias ao Super Resolution, impulsionado pelas placas de vídeo GeForce RTX™ Série 50 e os Tensor Cores de 5ª Geração. Ativar o DLSS em uma GeForce RTX é o melhor jeito para jogar suportado pela IA dos supercomputadores da NVIDIA em nuvem que estão em constante melhorias para o seu setup gamer.” 


E o Frame Generator, o que é?

É um criador de quadros por IA capaz de dobrar a quantidade de quadros de um jogo. A tecnologia cria quadros intermediários por IA com base no quadro anterior e posterior. Basicamente, ele lê o quadro anterior e o posterior, segura a exibição do quadro seguinte e cria um frame totalmente novo pra ser exibido entre esses dois. 

E assim ele vai intercalando quadros gerados pelo jogo e pela IA. Na imagem abaixo você consegue visualizar a comparação entre o modelo tradicional e o modelo do Frame Generator.

What Cyberpunk 2077 Looks Like with NVIDIA's New DLSS 3 Frame Generation -  TechEBlog
Imagem: Nvidia

Este recurso estará disponível na série RTX5000, RTX4000 e existe ainda a possibilidade de estar disponível na série 3000.

Sabemos que algumas dúvidas sobre esse tema podem seguir pairando. Mas iremos dedicar uma série de textos aqui no Linkedin e em nosso blog para descomplicar a leitura dessas tecnologias. Não perca nossos textos semanais para saber mais sobre as atualizações no mundo da tecnologia.

Fontes usadas para este texto: Nvidia, Tecmundo, Adrenaline, Tecnoblog e Canal Tech.

Rasonware e Malware. Qual a diferença e como se proteger?
Rasonware e Malware. Qual a diferença e como se proteger?
Entenda os recentes ataques do ransomware MedusaLocker no Brasil e as diferenças entre malware e ransomware. Veja dicas essenciais para proteger seu sistema de ameaças cibernéticas e reduzir riscos com práticas de segurança digital.
Impacto da Internet das Coisas (IoT) no Setor de TI: Transformações, Desafios e Oportunidades
Impacto da Internet das Coisas (IoT) no Setor de TI: Transformações, Desafios e Oportunidades
Descubra como a Internet das Coisas (IoT) está transformando o setor de TI, abordando aplicações práticas, desafios de segurança e oportunidades de mercado para revendedores.
Cibersegurança para Revendedores de TI
Cibersegurança para Revendedores de TI
Explore estratégias e soluções de segurança eletrônica essenciais para revendedores de TI, garantindo a proteção contra ameaças e fortalecendo a segurança dos clientes.
Como a IA Está Transformando o Setor de TI
Como a IA Está Transformando o Setor de TI
Entenda como a inteligência artificial está revolucionando o setor de TI, com exemplos de aplicações práticas e seu impacto nas operações e inovação.
Uso de Redes Sociais para promoção: Dicas para revendedores de TI
Uso de Redes Sociais para promoção: Dicas para revendedores de TI
Descubra estratégias eficazes para utilizar as redes sociais na promoção de produtos de TI, aumentando seu alcance e engajamento com clientes potenciais