Ir ao conteúdo
  • Cadastre-se

SSD fica mais lento quando está cheio?

       
 16.003 Visualizações    Testes  
 22 comentários

É verdade que um SSD muito "cheio" perde desempenho em comparação a um SSD "vazio"? Testamos este mito e descobrimos a verdade. Confira!

SSD fica mais lento quando está cheio?
Rafael Coelho Editor-chefe do Clube do Hardware

Testes de desempenho

Nós rodamos o teste com o CrystalDiskMark em modo padrão, que usa dados aleatórios (não compactáveis), com cinco repetições e um arquivo de teste de 1 GiB.

SSD_cheio_g1.gif

No teste de leitura sequencial com profundidade de fila igual a 32, todos os SSDs obtiveram resultados semelhantes nos três casos.

SSD_cheio_g2.gif

Já no teste de escrita sequencial com profundidade de fila igual a 32, O Seagate Barracuda foi 43% mais lento cheio do que quando vazio. Já o Kingston A1000 obteve resultados semelhantes quando totalmente vazio e 50% cheio, mas foi 23% mais lento quando estava 90% cheio. O Kingston UV500 e o Samsung 960 EVO obtiveram resultados semelhantes nos três testes.

SSD_cheio_g3.gif

No teste de leitura com blocos de 4 kiB, oito threads e profundidade de fila igual a oito, o Kingston UV500 foi cerca de 10% mais lento nos testes com 50% e 90% cheio; o Barracuda SSD foi 20% mais lento também nesses dois casos, o Kingston A1000 foi 9% mais lento quando estava 50% cheio e 41% mais lento quando estava 90% cheio. O Samsung 960 EVO não mostrou variação de desempenho.

SSD_cheio_g4.gif

No teste de escrita com blocos de 4 kiB, oito threads e profundidade de fila igual a oito, o UV500 obteve o mesmo desempenho nos três testes, o Barracuda SSD foi 18% mais lento nos testes com 50% e 90% cheio, o Kingston A1000 foi 24% mais lento quando 90% cheio, mas não teve o desempenho afetado quando estava 50% cheio, e o Samsung 960 EVO obteve o mesmo desempenho nos três testes.

SSD_cheio_g5.gif

No teste de leitura com blocos de 4 kiB e profundidade de fila 32, o Kingston UV500 foi 8% mais lento quando 50% cheio e 20% mais lento quando 90% cheio; já os outros três SSDs não tiveram variação de desempenho.

SSD_cheio_g6.gif

No teste de escrita com blocos de 4 kiB e profundidade de fila igual a 32, o Kingston UV500 foi 11% mais rápido quando 50% cheio e 7% mais rápido com 90% de seu espaço ocupado. O Seagate Barracuda SSD e o 960 EVO não mostraram variação de desempenho, enquanto o Kingston A1000 foi 15% mais lento quando 90% cheio.

SSD_cheio_g7.gif

Já no teste de leitura aleatória com blocos de 4 kiB, o Kingston UV500 foi 6% mais lento quando 50% e 90% cheio, o Barracuda SSD mostrou uma queda de desempenho de 22% nos mesmos casos, o A1000 não mostrou queda significativa de desempenho quando 50% cheio, mas foi 43% mais lento quando estava com 90% de espaço ocupado. Já o Samsung 960 EVO não mostrou queda de desempenho.

SSD_cheio_g8.gif

No teste de escrita aleatória com blocos de 4 kiB, o único caso em que houve queda de desempenho foi no Kingston A1000 com 90% cheio, quando foi 10% mais lento.

Compartilhar

  • Curtir 14


  Denunciar Artigo

Artigos similares


Comentários de usuários


Bom dia

 

Qual a maioria dos armazenamento se você usa mais do que 80% da sua capacidade começa a ficar lento principalmente se for HD convencional.

 

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

@Rafael Coelho Excelente teste, é bem curioso pois isto a turma que tem um conhecimento prévio acreditava ser verdade, eu quando comecei eu também acreditava.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Belo teste. Mas fico com a pulga atrás da orelha em certa situação, pois o impacto pode haver sim quando há uma gigante utilização de memória virtual/arquivo de paginação. 1GB de arquivo mesmo para uma unidade de 120GB (10% = 12GB sobrando na teoria) é quase insignificante. Em um jogo moderno, por exemplo FFXV, poderia dificultar e muito a jogabilidade já que extrapolaria a capacidade total.

Claro que citei uma situação específica a parte, e talvez não condiz com a proposta do teste feito.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

 

40 minutos atrás, Lost Byte disse:

Belo teste. Mas fico com a pulga atrás da orelha em certa situação, pois o impacto pode haver sim quando há uma gigante utilização de memória virtual/arquivo de paginação. 1GB de arquivo mesmo para uma unidade de 120GB (10% = 12GB sobrando na teoria) é quase insignificante. Em um jogo moderno, por exemplo FFXV, poderia dificultar e muito a jogabilidade já que extrapolaria a capacidade total.

Claro que citei uma situação específica a parte, e talvez não condiz com a proposta do teste feito.

Também fiquei com a mesma impressão. Talvez um teste com dados de volume maior pudesse mostrar um efeito mais impactante.

O ideal seria usar uma maquina com menos memória RAM também e desligar o SWAP para maximizar o efeito dos testes.

E por ultimo, um teste da vida real seria legal, como copiar da unidade principal um filme em full HD ou 4K (entre 5 e 10 GB) e calcular o tempo de copia que o Windows tomaria.

 

@Rafael Coelho sabe nos dizer qual o tamanho da memória de SWAP do Windows?

 

 

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Se estiver fragmentado demais, ai sim dá muita lentidão. Parece que as controladoras ficam "piradas".

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites
27 minutos atrás, sdriver disse:

 

Também fiquei com a mesma impressão. Talvez um teste com dados de volume maior pudesse mostrar um efeito mais impactante.

O ideal seria usar uma maquina com menos memória RAM também e desligar o SWAP para maximizar o efeito dos testes.

E por ultimo, um teste da vida real seria legal, como copiar da unidade principal um filme em full HD ou 4K (entre 5 e 10 GB) e calcular o tempo de copia que o Windows tomaria.

 

@Rafael Coelho sabe nos dizer qual o tamanho da memória de SWAP do Windows?

 

 

O arquivo de swap está no automático e, como estamos utilizando um computador com 32 GiB de RAM e rodando apenas o crystaldiskmark, posso afirmar que ele não está utilizando o arquivo de swap durante os testes, além de que o SSD testado não era a unidade principal, ou seja, o arquivo de swap não estaria nele de qualquer forma.

Óbvio que, se você estiver com a unidade de armazenamento principal totalmente cheia, pouca memória e o sistema tentar utilizar o arquivo de troca, isso vai gerar uma lentidão no sistema, como sempre acontece quando o arquivo de troca é utilizado.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Ótimo artigo!

Eu pessoalmente não esperava pelo impacto na velocidade de leitura.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Eu estava vendo semanas atrás uns vídeos daquele Baboo, e segundo ele, aquele problema de fragmentação (que a principio só afetava HDs convencionais) pode afetar o desempenho de SSDs também, caso estes estejam muito fragmentados.

 

O windows pelo que sei, desativa a desfragmentação em SSDs, e talvez ela chegue em um ponto, onde mesmo num ssd (que tem tempo de acesso ridiculamente baixo) haverá alguma queda de desempenho caso ele também esteja cheio.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites
12 minutos atrás, =insane= disse:

pode afetar o desempenho de SSDs também, caso estes estejam muito fragmentados.

 

Foi exatamente o que eu disse.

 

Seria interessante esse tipo de teste, até para determinar quando e até quanto isso pode afetar a performance.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Interessante o teste.

 

Não achei que daria diferença, por isso é melhor já comprar pelo menos um de 240G.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites
18 horas atrás, =insane= disse:

Eu estava vendo semanas atrás uns vídeos daquele Baboo, e segundo ele, aquele problema de fragmentação (que a principio só afetava HDs convencionais) pode afetar o desempenho de SSDs também, caso estes estejam muito fragmentados.

 

O windows pelo que sei, desativa a desfragmentação em SSDs, e talvez ela chegue em um ponto, onde mesmo num ssd (que tem tempo de acesso ridiculamente baixo) haverá alguma queda de desempenho caso ele também esteja cheio.

 

O Windows (não sei ao certo a partir de qual versão) trata diferentemente as unidades de estado sólido (SSD) das unidades de disco rígido (HD). Você pode verificar isso executando o dfrgui.

 

dfrgui.png.22aabc67ea5b535f12b3e7b949106d1a.png

 

Ao executar a otimização em um SSD, o Windows executará na verdade um comando TRIM e não a desfragmentação como em um HD.

 

A fragmentação ocorre nos SSD, porém o seu impacto é muito pequeno. Até onde eu sei apenas um e outro software de desfragmentação* se arriscam a desfragmentar de fato um SSD. Porém o ganho de desempenho com isso também é muito pequeno.

 

Lembrando que o Windows também efetua ajustes em alguns de seus serviços e funções caso a unidade em que ele esteja instalado seja um SSD.

 

* PS: O Windows também executaria uma desfragmentação de fato, caso necessário, através de uma rotina mensal:

https://www.hanselman.com/blog/TheRealAndCompleteStoryDoesWindowsDefragmentYourSSD.aspx

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

No Linux (Debian e derivados), o TRIM é feito toda semana por padrão. 
A questão não é a desfragmentação, pois os dados não são enfileirados sequencialmente em disco como um HD, mas sim o estado "ligado e desligado", binário. Quando você apaga um dado ele não é "zerado", apenas marcado como disponível para alocação. Na hora que você vai gravar um dado é que será feita a limpeza do setor, causando certa lentidão no processo.

 

O TRIM serve justamente para "zerar" estes setores e agilizar o processo. Porquê isto não ocorre toda vez que se apaga um dado? Porque isto desgasta as células. Então é preferível ir utilizando todas as células gradualmente para só depois apagar os dados. Não é bom um SSD lotado justamente pelo desgaste das mesmas células continuamente.

 

Só achei curioso o fato que a leitura tmb está sendo afetada. Provavelmente o arquivo está espalhado em diversos chips NAND e a controladora não é eficiente o suficiente para coletar todos os dados ao mesmo tempo.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

@Darkmana @Phoenyx Em teoria, penso que a desfragmentação diminui a vida útil do SSD, pois haverá ciclos de apagamento envolvido. Mas alguém aqui (não me lembro também onde, sorry), falou que isto não ocorria ou que era irrelevante. Enfim...

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites
59 minutos atrás, Gabriel Torres disse:

@Darkmana @Phoenyx Em teoria, penso que a desfragmentação diminui a vida útil do SSD, pois haverá ciclos de apagamento envolvido. Mas alguém aqui (não me lembro também onde, sorry), falou que isto não ocorria ou que era irrelevante. Enfim...

Se não me engano, essa série explica. https://www.youtube.com/watch?v=gE5bWnzNuB8

 

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

A mesma fonte que usei para citar o caso de desfragmentação. Não sei se foi esse mesmo "episódio" mas é da série "SSD a fundo".

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Já tivemos um caso aqui no fórum sobre desfragmentação de SSD, que resolveu o problema do usuário:

 

 

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

 

22 horas atrás, Rafael Coelho disse:

Se não me engano, essa série explica.

 

11 horas atrás, lnpott disse:

A mesma fonte que usei para citar o caso de desfragmentação. Não sei se foi esse mesmo "episódio" mas é da série "SSD a fundo".

Isso. Eu vi tempos atrás a serie inteira e é justo nesse primeiro vídeo que ele cita o caso que vivenciou. Bem interessante por sinal, apesar do Baboo ser meio "mala". kkkk

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Uma coisa que não mencionaram é o fato de que se usar o SSD sempre cheio pode acelerar o desgaste das células que ficam vazias. Vamos supor que você compre o SSD , instale o Windows , programas;jogos que usa e sobre os outros 10 % livres. Em teorias somente esses 10% restantes seriam usados por arquivos temporários, cache, swap e etc. 

 Creio que isso seria o mais perigoso do que a perda de algum desempenho !

Concordam com a minha teoria ? 

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Parabéns, excelente trabalho. Vocês são incríveis. 😍

 

Desfragmentação desgasta muito pouco o SSD e não causa aumento de desempenho na maioria das vezes, somente em poucos casos, como banco de dados muito fragmentado, por exemplo. TRIM é muito importante, eu desativei algumas vezes para testar e prejudica o desempenho, a diferença é notável com muitos arquivos gravados.

Tenho um Samsung 960 EVO 250 GiB. Se eu deixar ele com 10% livre, eu percebo a diferença de velocidade no TEMPO DE ACESSO, ocorre pouquíssima lentidão, um pequeno travamento quase imperceptível, parece um "micro stuttering", mas ainda continua sendo muito mais rápido do que um SSD SATA. Mesmo com Samsung Magician instalado e Over Provisioning ligado ocorre isso, se encher ele.

Com programas sintéticos, eu nunca fiz o teste, mas fiquei curioso agora.

Já enchi o SSD dezenas de vezes ultrapassando 16 TiB e continua funcionando muito rápido.

W1yrjJS.jpg

 

Formatei o computador nessa semana e estou fazendo uns testes com o Over Provisioning desligado, por uns dias.
 

 

pMBpDSU.jpg

 

5 horas atrás, jota.be disse:

Uma coisa que não mencionaram é o fato de que se usar o SSD sempre cheio pode acelerar o desgaste das células que ficam vazias. Vamos supor que você compre o SSD , instale o Windows , programas;jogos que usa e sobre os outros 10 % livres. Em teorias somente esses 10% restantes seriam usados por arquivos temporários, cache, swap e etc. 

 Creio que isso seria o mais perigoso do que a perda de algum desempenho !

Concordam com a minha teoria ? 


Meu amigo, a maioria dos SSDs atuais usa static wear leveling, tecnologia que muda os dados que ficam salvos muito tempo em uma célula para outra que foi pouco usada evitando o desgaste, leia sobre isso.

 

https://en.wikipedia.org/wiki/Wear_leveling

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites
8 minutos atrás, Agnaldo.Reis disse:

Meu amigo, a maioria dos SSDs atuais usa static wear leveling, tecnologia que muda os dados que ficam salvos muito tempo em uma célula para outra que foi pouco usada evitando o desgaste, leia sobre isso.

 

https://en.wikipedia.org/wiki/Wear_leveling

Legal, não tinha ouvido falar sobre.

 

Bem vindo ao fórum, chegou para somar.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites
22 horas atrás, lnpott disse:

Legal, não tinha ouvido falar sobre.

 

Bem vindo ao fórum, chegou para somar.

Eu sou bem antigo aqui. Fiquei doente, excluí minha conta e tive que me afastar por um bom tempo para cuidar da minha saúde. Mas estou excelente agora! 😍

Que bom que ajudou, tenho bastante conhecimento para agregar, mas vou aprender muito também, porque a vida é um aprendizado eterno e nós todos sempre aprenderemos uns com os outros. Vocês todos são demais. 😉

OFF TOPIC: Acredito que FPGA, ARM, blockchain, distributed ledger technology e IoT (juntamente com token IOTA) vão mudar muito o mercado, em breve. Quem sabe a gente veja isso aqui no site, somente o futuro pode nos dizer.

Eu comecei a ler o artigo de 1º de abril, já tava caindo e pensando que a blockchain do Bitcoin já seria hackeada, pois não tem proteção contra ataque de computador quântico, diferente da DLT Tangle da IOTA. Daí eu li o resto e ri muito. 😂🤣

Muito sucesso ao @Gabriel Torres, @Rafael Coelho e demais integrantes dessa excelente equipe do Clube do Hardware. ❤️

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites


Crie uma conta ou entre para comentar

Você precisar ser um membro para fazer um comentário

Criar uma conta

Crie uma nova conta em nossa comunidade. É fácil!

Crie uma nova conta

Entrar

Já tem uma conta? Faça o login.

Entrar agora





Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas publicações sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

GRÁTIS: minicurso “Como ganhar dinheiro montando computadores”

Gabriel TorresGabriel Torres, fundador e editor executivo do Clube do Hardware, acaba de lançar um minicurso totalmente gratuito: "Como ganhar dinheiro montando computadores".

Você aprenderá sobre o quanto pode ganhar, como cobrar, como lidar com a concorrência, como se tornar um profissional altamente qualificado e muito mais!

Inscreva-se agora!