Ir ao conteúdo
Entre para seguir isso  

Tudo o que você precisa saber sobre as tecnologias G-Sync e FreeSync

       
 12.000 Visualizações    Tutoriais  
 24 comentários

As tecnologias G-Sync (NVIDIA) e FreeSync (AMD) resolvem problemas de sincronia entre a placa de vídeo e o monitor de vídeo, resolvendo “erros” na imagem quando rodando jogos. Entenda melhor.

Tudo o que você precisa saber sobre as tecnologias G-Sync e FreeSync
Gabriel Torres Editor executivo do Clube do Hardware

Sem qualquer tipo de mecanismo de sincronia entre a placa de vídeo e o monitor de vídeo, “erros” podem aparecer na imagem durante uma partida de jogo com muita ação, tipicamente com a parte de cima do monitor mostrando o pedaço de um quadro (imagem) enquanto a parte de baixo do monitor ainda está mostrando o pedaço de um quadro (imagem) anterior. Este tipo de “defeito” é conhecido, em inglês, como “tearing” (“rasgamento”). Neste tutorial explicaremos porque este tipo de erro ocorre e quais são as soluções disponíveis.

A ocorrência mais comum desse tipo de erro é quando a placa de vídeo consegue gerar mais quadros por segundo que o monitor de vídeo é capaz de mostrar. Por exemplo, se você tem um monitor de vídeo com taxa de atualização de 60 Hz e um jogo está gerando, digamos, 80 quadros por segundo, a placa de vídeo enviará o próximo quadro antes de o monitor de vídeo ter terminado de mostrar o quadro anterior, ocasionando o problema.

A solução mais comum para esse problema é ativar, no jogo, a sincronia vertical ou “V-Sync”. Este recurso limita o desempenho da placa de vídeo, fazendo com que ela so gera a mesma quantidade de quadros por segundo que o monitor de vídeo suporta.

A desvantagem dessa solução é gerar um atraso na imagem em relação à ação do jogo (“lag”, em inglês), pois quadros são descartados e a placa de vídeo envia ao monitor um quadro que está “defasado” (“mais antigo”) em relação ao ponto exato do jogo no momento.

Outra solução é comprar um monitor com uma taxa de atualização maior que 60 Hz (120 Hz ou 144 Hz).

Mas, mesmo em monitores com taxas de atualização mais altas, o problema continua existindo se você tiver uma placa de vídeo topo de linha, porém menos perceptível. Isso ocorre por dois motivos. Primeiro, a quantidade de quadros por segundo que a placa de vídeo gera não é fixa e sim variável. Quando dizemos, por exemplo, que a placa está gerando 80 quadros por segundo, esse valor é uma média. Dentro do jogo, pode ter determinados momentos que a taxa sobre rapidamente por poucos segundos, e também pode ter determinados momentos que a taxa cai. Nesses momentos curtos em que a taxa sobe rapidamente por poucos segundos ou mesmo frações de segundo, você continuará vendo o problema, caso a taxa ultrapasse a do monitor de vídeo.

O segundo motivo é que o monitor de vídeo pode não estar sincronizado com a placa de vídeo em relação ao momento exato de início do desenho do quadro. Isto é, quando o monitor está começando a desenhar o quadro no ponto (0,0) da tela, a placa de vídeo pode não estar enviando o quadro no mesmo ponto, gerando uma falta de sincronia (atraso) entre o que está acontecendo no jogo e o que está sendo desenhado na tela, além do problema de “tearing” descrito.

As tecnologias G-Sync (NVIDIA) e FreeSync (AMD) resolvem esses problemas sincronizando o envio de quadros entre a placa de vídeo e o monitor de vídeo, isto é, quando o monitor estiver no ponto (0,0) da tela, a placa de vídeo está enviando o quadro no mesmo ponto. Isso elimina atrasos (“lag”) e imagens quebradas (“tearing”).

Essas tecnologias, são portanto, para melhorar a qualidade de imagem e, como eliminam o atraso entre o ponto do jogo e o que está sendo apresentado na tela, o usuário tem a sensação de que o computador está “mais rápido”.

Para usá-las, você terá de ter uma placa de vídeo e um monitor de vídeo compatíveis, isto é, o monitor precisa ser G-Sync ou FreeSync. No lado da NVIDIA, todas as placas de vídeo a partir da GeForce GTX 650 Ti Boost suportam o G-Sync, enquanto que no lado da AMD as placas a partir da Radeon R7 260 e processadores com vídeo integrado (“APUs”) a partir do “Kaveri” suportam o FreeSync.

Um detalhe importante é que a conexão precisa obrigatoriamente ser DisplayPort e, portanto, uma placa de vídeo teoricamente compatível, mas que não tenha conector DisplayPort, na prática não é compatível com essas tecnologias.

A tecnologia da NVIDIA é proprietária, e os fabricantes de monitores precisam instalar um módulo proprietário dentro do monitor para suportá-la e pagar royalties à NVIDIA. Já a AMD trabalhou em conjunto com a VESA (associação que desenvolve o DisplayPort) para que ela incluísse a especificação de sincronia adaptativa ao DisplayPort (adotado a partir da versão 1.2a desta conexão), fazendo com que monitores de vídeo não necessitem de hardware proprietário nem o pagamento de royalties à AMD. Em teoria, isso faz com que potencialmente existam mais monitores no mercado compatíveis com a tecnologia FreeSync do que com a G-Sync, pois basta o monitor ser compatível com o DisplayPort 1.2a para ele ser compatível com o FreeSync. Na prática, porém, sabemos que a NVIDIA tem um marketing muito mais agressivo do que a AMD, e só o tempo dirá qual das duas tecnologias terá maior adoção entre os fabricantes de monitores. Aliás, como a tecnologia de sincronia adaptativa que o FreeSync usa é atualmente parte da especificação DisplayPort, nada impede de fabricantes lançarem monitores compatíveis com as duas tecnologias.

De acordo com a AMD, o G-Sync diminui muito levemente o desempenho, enquanto que não há qualquer perda de desempenho no uso do FreeSync.

Compartilhar



  Denunciar Artigo
Entre para seguir isso  

Comentários de usuários


Bom artigo!

Poderia elaborar um pouco mais sobre as duas tecnologias? Há alguma diferença? Lembro de ter lido em algum lugar que a tecnologia FreeSync é open source, o que garantiria preços menores para os monitores com esta tecnologia (logo, maior adoção pelo mercado), enquanto o G-Sync é proprietário...

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

@GrYllO você é a segunda pessoa que pede isso, vou adicionar, mas a diferença é essa mesmo. Daqui a 15 minutos tá atualizado com essa informação. Obrigado!


@GrYllO feito, adicionei dois parágrafos ao final dando mais informações a este respeito.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Post interessante e bem esclarecedor. Fiquei meio confuso com os "saltos" que a AMD dispõe em seu site com os modelos que suportam e não suportam freesync (segundo Heiss, a R7 370 por exemplo não suporta freesync na geração R7/R9 300 series, vai entender). No final das contas, meu monitor não passa dos 60hz  :lol:

http://www.amd.com/en-us/innovations/software-technologies/technologies-gaming/freesync

Parabéns pela matéria.

Editado por wilsansilva

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

@Correr

 

Obrigado por ter me falado isso, pois eu não estava sabendo:

 

http://techreport.com/news/28865/intel-plans-to-support-vesa-adaptive-sync-displays

 

http://www.maximumpc.com/intel-pledges-support-for-freesync-where-does-that-leave-g-sync/

 

O que isso quer dizer, é que se a Intel for realmente com esse plano, futuros processadores da empresa suportarão o FreeSync em seu vídeo integrado. Note que foi uma declaração de um executivo em uma entrevista, e sem prazo ou cronograma. Então temos de aguardar.

 

Na prática, porém, o resultado não tem muito significado, na minhão opinião, pois não acho que alguém vá usar vídeo integrado dos processadores Intel para rodar jogos. Mas, com certeza melhorará a qualidade de imagem ao usar monitores compatíveis.


@wilsansilva A AMD é sempre muito confusa...

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Meus queridos, embora ambas tecnologias tenham os mesmos objetivos, elas funcionam de formas um tanto diferentes, então gostaria de aproveitar o espaço para esclarecer um pouco isso.

 

Quando a NVIDIA desenvolveu o G-SYNC não havia um padrão nem scallers que permitissem o controle da taxa de atualização de forma variável. Então em vez de esperar até que todas as peças estivessem no lugar ela resolveu desenvolver um módulo que não só permitisse isso, como também mais alguns recursos que simplesmente não seriam possíveis de outro modo e de quebra garantindo compatibilidade com as GPUs já disponíveis no mercado (todas Kepler em diante que tenham displayport).

 

O módulo possui um "processador" FPGA (o que permite que o próprio projeto do "chip" seja atualizado) e generosos 768MB de memória, o que permite armazenar alguns quadros completos, sem compressão, o que facilita a análise deles para calcular não só a cor de cada pixel/sub-pixel, mas principalmente o nível de de overdrive, para eliminar o efeito ghosting. Algo que ainda afeta os monitores freesync, justamente porque os scallers não tem poder de processamento suficiente para calcular corretamente o overdrive em um cenário de refresh variável. (calcular o overdrive em refresh estático é fácil, fazer isso quando você não sabe quando o próximo frame vai chegar é que são elas...)

 

Outro ponto onde as duas tecnologias divergem de forma significativa é a estratégia tomada no limite inferior do painel.

 

A maioria dos painéis de LCD tem um "limite inferior" na taxa de atualização ao redor dos 35Hz. Ou seja, não podem ficar mais de uns 28ms sem sofrer atualização, caso contrário a imagem começará a desaparecer e isso é percebido pelo usuário como flicker (por mais que o backlight seja constante, o próprio painel sofreria uma variação na quantidade de luz que deixa passar).

 

Para evitar que isso aconteça, o freesync reverte para v-sync ligado ou desligado quando o frame rate do jogo cai para um ritmo menor que o limite inferior do painel, trazendo de volta os problemas que ele deveria resolver (tearing com v-sync desligado ou stutter com v-sync ligado) que ficam ainda mais evidentes devido à baixa taxa de atualização (o tearing ou o stutter ficam ainda mais pronunciados porque o painel estará trabalhando a 40Hz, por exemplo).

 

Enquanto isso o G-SYNC adota uma estratégia mais eficiente, ele re-escreve a tela para evitar que o painel perca carga. O usuário não vê essa varredura já que a imagem não muda e isso evita que haja flicker. E essa varredura é feita em um intervalo intermediário, tomado pela média do intervalo dos últimos quadros. Para evitar que essa varredura conflite com a chegada do próximo frame. (o que pioraria o tempo de resposta, pois atrasaria a exibição da nova imagem).

 

Fora isso a NVIDIA vem integrando mais funções ao módulo, como o ULMB, a mira que pode ser projetada na tela e, recentemente, overclock do painel; o que permite que um monitor com painel certificado para 75Hz possa trabalhar a até 100Hz, por exemplo. Tudo de forma fácil, acessível pelo painel do próprio monitor, sem depender de um programa instalado no PC por exemplo.

Editado por aziebert

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

@aziebert obrigado pela verdadeira aula sobre o assunto. Fico muito feliz que você tenha usado este espaço para adicionar informações e o ponto de vista da NVIDIA de uma maneira construtiva.

 

(Gostaria apenas de salientar, em nome da transparência, que o aziebert trabalha na NVIDIA.)

 

Abraços,

Gabriel.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

@Gabriel Torres, agora sei de onde tinha visto esta abordagem tão familiar vinda do @aziebert  :lol: Tinha visto uma entrevista sobre o funcionamento técnico do G-Sync, onde ele mesmo explicava detalhadamente seu funcionamento, mas não me recordava muita coisa, pois faz muito tempo. 

Com esta explicação, a lembrança veio mais fácil, pois não sei mais como encontrar a entrevista :D. Parabéns a todos.

Editado por wilsansilva

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Eu que agradeço o espaço para poder esclarecer essas diferenças. :)

 

O G-SYNC é uma tecnologia que pela qual me apaixonei instantaneamente, não só pelos benefícios, mas porque me permitiu entender melhor o funcionamento do sistema.

 

E muita gente o desmerece por achar que os problemas de tearing e stutter só se manifestam em alguns casos, quando na verdade na maior parte do tempo você fica preso a um ou outro, o raro é tudo funcionar corretamente.

 

Tearing não existe só quando o jogo roda a um frame rate maior que o refresh do monitor, mas SEMPRE que o v-sync está desligado (alias, 60fps com v-sync desligado é uma das piores experiências que existem pois a "tear line" fica sempre no mesmo lugar da tela).

 

 

E ao ligar o v-sync o comportamento do sistema muda muito, pois cada frame vira uma corrida contra o tempo e se não for concluído no prazo (o intervalo de 16ms de um refresh de 60Hz, por exemplo) ele necessariamente terá que esperar até a atualização seguinte, não importa se o frame ficou pronto 1 ou 15ms após o prazo inicial/previsto. Assim você acaba jogando a 30fps a maior parte do tempo e com um input lag medonho, o que é péssimo principalmente para jogos que usam o mouse para movimentar a câmera (seja em 1a ou 3a pessoa), pois há um grande intervalo de tempo entre o movimento realizado e o resultado disso na tela.

 

Com o G-SYNC dá pra aproveitar ao máximo o desempenho da GPU e ter uma excelente experiência sempre. Eu preparei um demo uma vez que mostrava bem isso. Uma GTX 760 roda o Batman Arkham Origins a quase 60fps com tudo no máximo. Para usar o v-sync e garantir os 60fps seria necessário desativar alguns detalhes. Enquanto que o jogo rodando a perto de 60fps com v-sync desligado provocava muito tearing. Com o G-SYNC é possível jogar tranquilamente a 57fps, por exemplo, com tudo no máximo. E ainda trouxe um benefício adicional de dar um melhor tempo de resposta, você sente o mouse mais "conectado" ao movimento de câmera; o que torna a experiência ainda mais satisfatória.

 

Isso fica ainda mais evidente quando o jogo roda a mais de 60fps. Você pode não conseguir ver a diferença simplesmente olhando para um vídeo de 60, 90 ou 120fps, mas dá pra sentir isso jogando, o que acaba se tornando uma vantagem competitiva e colabora para deixar teus sentidos mais "aguçados". 

Editado por aziebert

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

@aziebert

A NVidia teria algum link/site para dizer quais monitores tem suporte ao G-Sync ? Ou eu preciso ir no site dos fabricantes de monitores para saber isso?

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Cheguei atrasado na discussão, pra variar.

 

Se o aziebert estiver por ai ainda, poderia me tirar a dúvida.

 

Lá estou eu atualizando meu PC, e cheguei no ponto final o MONITOR, estou fazendo um SLI com duas Zotac GTX 980 Ti AMP, e agora a dúvida.

 

Vou comprar um monitor 144Hz, mas se ele não tiver o G-SYNC, a taxa é variável ? Por exemplo, o jogo rodando a 100 fps ele baixa para 100 também ou há taxas fixas, tipo, 120, 90?

 

Pelo que entendi o G-SYNC equaliza a frequencia com o que a GPU está enviando, se ela esta trabalhando em 84 hz, o monitor também estará sendo atualizado em 84 Hz ?

 

É algo que eu não entendi, se há muito diferença em ter um monitor 144Hz com ou sem G-SYNC, o custo do G-SYNC é alto, ainda mais agora que o Philips 272G5 está em falta no mercado e o Asus Swift está 4300 mangos, se bem que o Asus tem resolução 2k.

 

Confuso... :confused:

 

PS: confuso também em tentar explicar minha confusão.  <_<

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Com o G-Sync, o monitor vai tentar seguir a atualização da placa de video. Então a mesma quantidade de FPS que o jogo gerar, o monitor deverá operar na mesma taxa (dentro dos limites do monitor, claro). Sem o g-sync um monitor de 144hz vai atualizar a tela 144x em 1 segundo, nao importa a taxa de fps, exatamente como qualquer outro monitor comum faz. Com as tecnologias do G-sync e free sync vai haver essa variação.

So uma coisa eu nao tenho certeza, que se o jogo vai se limitar a taxa do placa ou se ele vai estourar ela. Ex, CS:go, pode chegar a 300 fps, mas o monitor chega a 144hz, o correto seria a placa de video se segurar ate os 144 fps. E quando o fps ficasse abaixo de 144, que o monitor reduzisse a taxa junto. Essa informação eu não lembro se vi.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Como o sdriver respondeu, um monitor de 144Hz se G-SYNC trabalha sempre a 144Hz, independente do frame rate do jogo. O que por si só (mesmo sem G-SYNC) já ajuda bastante, pois cada varredura de tela é mais rápida (dura 7ms em vez de 16ms), portanto o tearing é menos visível e o tempo de resposta é menor.

 

Agora, para um SLI de GTX 980 Ti eu acho que um monitor Full HD, mesmo de 144Hz é um desperdício, é melhor partir logo pra 4K, pois esse conjunto vai conseguir manter mais de 60FPS em 4K com tudo no máximo na grande maioria dos jogos.

 

 

Quanto à sua dúvida, sdriver; você pode escolher se quer que o driver limite o processamento ao limite do monitor (144fps no caso) ou deixar o jogo correr solto e apresentar tearing, como um monitor normal, caso o jogo rode a uma taxa maior que a atualização do monitor.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Um ajuda o outro desajuda. A dúvida principal foi tirada, o G-SYNC vai deixar o jogo sempre fluído, especialmente nos FPS.

 

Vamos lá, Azie, com uma Zotac GTX 980Ti, não se roda jogos em 4k a mais do que 40 fps.

Não preciso de 4k, no máximo 2k, não vejo necessidade alguma de 4k.

 

No Brasil atualmente só temos o Asus Swift com G-SYNC, no site da Philips o modelo G-SYNC não está mais sendo exibido.

 

 

Então agora a dúvida é ASUS ROG SWIFT 27" G-SYNC 2K ou um monitor 4K ? E qual monitor 4K ???

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

O SWIFT casa muito bem com uma GTX 980 Ti.

4K precisa do SLI e ainda é limitado a 60Hz.

 

Entre um SLI de 980 Ti e um monitor 4K a 60Hz ou apenas uma 980 Ti com um SWIFT eu acho a segunda opção muito melhor :)

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Sei lá, nessas horas eu me pergunto: Precisa de tudo isso mesmo?

 

Monitor 4K ainda é coisa de early adopters na minha visão. Pagar o mesmo preço de uma Honda Biz zero km num monitor de 28" por mais privilegiado que se seja ($$$) é algo pra mim impensável. Nada contra quem pode, é só que ainda não tem o kit completo que permita fazer isso de forma ideal. 

Se for pensar que pra tirar proveito de verdade você precisa de um pc que rode em 4k com fps acima de 100 tudo.

Além do mais que 4K, 144hz  e tecnologias Sync são evoluções, não são uma quebra de barreira nem inovações que vão dar um novo rumo ao mercado. No final uma pessoa com um monitor 2K tem praticamente a mesmo sensação, talvez até melhor, pois imagino que seja um pouco incomodo rodar 4K em 28 polegadas.

 

Testei em meu pc rodar com resolução 2K (virtual pelo drive da AMD) no meu monitor de 23.5" e já senti um tremendo desconforto pelo encolhimento dos objetos nos jogos e desktop. Imagino que deve ser ainda pior a relação de tamanho num monitor 4k de 28 polegadas. 

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

É o que eu penso, vou de monitor 144hz mesmo, se achar o Swift com preço menor no Paraguai, vai ele, se não vai um BenQ, gostaria de um monitor com G-Sync, se não der, vou gastar o mínimo possível em um 144 hz de 24 polegadas.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Rapaz muito obrigado, o preço é matador.

 

Muito obrigado pela dica AZIEBERT, comprei o monitor, nem pensei duas vezes, estive fazendo umas análises com meu PC, com todos os mods e EMB ligado no The Witcher, consegui "apenas" 87 FPS em 1080p com as duas GTX 980Ti, sem o EMB e os mods de textura foi para 130 fps. Porém a experiência e imersão no jogo é bem fraca, só percebemos a melhorar significativa colocando lado a lado um monitor com o G-SYNC.

 

Mas o que eu quero mesmo é a qualidade do 2550 x 1440 com o G-SYNC, agora acredito que a experiência será outra. Quando fiz o teste no ROG Swift foi bem nítido a melhora.

 

Outra coisa que reparei na loja testando o G-SYNC foi a melhora na respostas dos jogos de FPS.

 

 

 

Editado por 3ACVEL

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites
Em 15/12/2015 às 15:10, aziebert disse:

FYI a Dell lançou um monitor G-SYNC bem parecido com o ROG SWIFT e já está disponível no Brasil:
Monitor Dell 27 - S2716DG

 

Finalmente, chegou, comprei no dia 15 e só hoje dia 30 chegou, ele veio dos EUA, Lebanon no Tenesse direto para a DELL Paraná em Araucária e de lá até mim.

 

Devidamente testado no The Witcher, valeu muito a pena, é outro nível.

 

Agora estou com vontade de jogar jogos de corrida novamente, testei o F1 2011 e ficou ignorante de bom, sobrou máquina, agora é partir para algum jogo de corrida mais atual.

 

Mais uma vez muito obrigado pela dica.

 

Sem essa dica fica até difícil achar este monitor no site da DELL, é como se eles nem fizessem questão de vendê-lo.

 

PS: Na caixa já vem um cabo DP, não precisa comprar separado.

Editado por 3ACVEL
Acrescentar informações sobre o cabo DP.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Cai de para quedas nesse tópico e gostei muito da dica desse monitor da dell, não está barato mas está mil vezes melhor que o preço insano do asus rog swift, tambem pretendo compra-lo mas não agora, vou esperar sair primeiro as gpus polaris e pegar uma e ai sim comprar esse monitor, pois a placa que tenho agora (GTX 780Ti) já está sofrendo pra rodar jogos no ultra em 1080p o que dirá em Quad HD.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites


Crie uma conta ou entre para comentar

Você precisar ser um membro para fazer um comentário






Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas publicações sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×