Ir ao conteúdo
  • Cadastre-se

rpioveza

Membro Pleno
  • Posts

    51
  • Cadastrado em

  • Última visita

  1. Fala pessoal, Com um orçamento em uma faixa aí de 3.800 reais dá pra fazer algo com essa expectativa? Mini PC uso moderado/escritório/programação, com processador AMD Ryzen, 8 GB de RAM e 480GB de SSD pelo menos, Wi-fi 6 + Bluetooth 5. Pensei em algo com quatro a seis núcleos no mínimo, e uma capacidade de processamento entre um Core i3 de 7ª geração até um i5 atual (11ª geração). Não estou familiarizado com AMD. Se possível já com o link de compra. P.S.: Se tiver All-In-One nessa faixa ou um pouco mais, também interessa. Muito obrigado.
  2. Pessoal, custou umas horinhas mas aprendi algumas coisas: - Ventoy é o que tem de mais fácil pra criar pendrive multiboot: no Ubuntu (mas funciona no Windows também) você manda gerar um pendrive de boot vazio especial, preparado pra você só precisar jogar as ISOs que quer instalar lá dentro e pronto!! Pendrive multiboot instantâneo com quantas ISOs couber! - Windows 10 é tranquilo de instalar, agora Linux tem suas complicações, partições separadas para a pasta-raiz do SO, partição swap e achei por bem criar uma partição /home, além da /boot que é necessário ter. - Sim, tudo se resolve mexendo na sequência de boot Se fossem três Windows aí eu acho que não ia saber fazer não heheheh De resto tudo funcionou belezinha, agradeço às dicas!
  3. @dudaskank Oi Tenchi! Animes das antigas aqui hein Rsrs não é bem força, é que era um parafuso que arranjei no improviso (não veio com o mini PC nem com o SSD, os caras nem pra mandarem um) e pra não forçar muito ficou parcialmente rosqueado, sobrou um "jogo" e o SSD por alguma força elástica do encaixe dele se apoiou embaixo da cabeça do parafuso, sem encostar na superfície ao longo da qual foi colocado. Captou a descrição? Kkkkk Mas parece que está firme e encaixado, só tem esse "jogo" se você tenta pressionar o SSD para baixo, não encostou na superfície da placa. Acho que nem dá nada né? Eu pelo menos não tenho muita intenção de reabrir o bichinho Então. É um mini PC, eu não tenho drive de CD/DVD e no momento só tenho um pendrive disponível, que eu estou achando aqui que dá pra definir como dual boot para instalar com o mesmo pendrive de uma "gravada" só os dois SO's. E a minha expectativa, que não tenho muito o hábito de mexer em instalação, é que deveria formatar somente uma partição de "x" GB por vez no SSD definidos por mim na hora, cada uma para um SO. Procede isso? E obrigado pelo vídeo, vou dar uma olhada. Fala @Van Jacques, obrigado pela resposta. Olha, com todo respeito, eu não tenho muita prática mas acho que essa regra não procede não viu eu sou meio teimoso ahahah. Por que não posso ter partições modestas para cada SO e uma partição para dados no SSD? (além da do HD?). Eu penso em ter uma NTFS no SSD para acesso tanto pelos Linux como pelo Windows de dados em geral (o objetivo é programação, estudo, rodar umas máquinas virtuais, coisas assim). Mas posso considerar a ideia (se soubesse tinha comprado um SSD menor heheheh). E quanto a deixar de fora fisicamente um HD para instalar os SO's em outro dispositivo de armazenamento de sistema, isso não se resolve só mexendo na sequência de boot da máquina? Mais uma coisa, tem uma história que a parte não-formatada do SSD ajuda no wear-leveling, procede isso? Aí talvez fosse interessante deixar um espaço não-utilizado. Por fim, o que seria esse espaço para arquivos essenciais e drivers para o sistema? Não sei se é necessário isso, são coisas que já vão na partição de cada SO (não contando as partições de swap). Em tempo: e a questão de pendrive multiboot?
  4. Olá pessoal, Estou com um Dell OptiPlex MFF (não é pra jogos) com um HD 1TB com partição única Ubuntu que veio de fábrica (não quero perder mas não pretendo usar regularmente) e instalei nele um SSD 500GB (pergunta, parafuso de SSD tem que ficar bem apertado? Ah, agora já foi, tá funcionando com uma pequena sobra). Pergunta 2: O SSD aparece no Ubuntu e eu tenho a opção de formatar, devo? Mas parece que só oferece para formatar ele inteiro, e não partições individuais, pode isso Arnaldo? Pergunta 3: O que quero fazer: quero instalar no SSD dual boot Windows 10 e outro Linux. Tenho à disposição hoje um pendrive de 16 GB, se precisar posso arrumar mais. Na verdade eu queria deixar ainda um espaço para um terceiro SO (triple boot) não-Windows a ser escolhido futuramente, se não for muito trabalhoso fazer isso. Por fim, ainda queria reduzir bem a partição do HD para caber uma NTFS para dados. Pergunta 4 então, Consigo fazer tudo isso com um pendrive só ou precisa de mais? E #comofas? Pergunta 5 de bônus: o que é melhor fazer com o espaço restante no SSD? Deixa sem formatar, formata uma partição para dados, e aí?
  5. Não vou especular muito porque nem a certeza de como é essa leitura de blocos sequenciais eu tenho. Suponho que seja uma informação de que um conjunto de blocos/páginas a serem lidos é maior do que um conjunto com poucas a ler, e de alguma forma é mais vantajoso ler essa quantidade maior de uma vez em sequência. Em discos rígidos essa vantagem é evidente porque causa menos deslocamento da agulha e portanto menos latência, no SSD essa vantagem não acontece por conta dos seek times próximos de O(1) (traduzindo, quase instantâneos qualquer que seja a localização do dado), mas, como envolve menos overhead do sistema operacional, fazendo só uma grande sessão de I/O em vez de alternar I/O com desvios de controle para outras funções ou outras trocas de contexto do S.O. (como escalonamento de processos), acaba sendo vantajoso para SSDs também, do que a alternativa de leituras mais frequentes e menores. Concordo que essa desfragmentação agendada provavelmente está superestimada, com intenção de atender a grande maioria dos casos, e muitas vezes poderia ser feita com intervalos de tempo maiores, mas acho que é complicado para o sistema operacional ficar configurando (ou o que seria pior, dando ao usuário a opção de configurar) intervalos variados conforme o grau de fragmentação ou estimativa semelhante. É um trade-off que eles devem ter calculado para atender algo superior à média dos dados deslocados devido à criação de snapshots do disco (uma medida que por telemetria eles devem facilmente ter) e que deve reduzir um impacto sobre a vida útil dos SSDs que já deve ser irrisório atualmente.
  6. Para afirmar, estou me baseando nisso: https://superuser.com/a/1391884/657587 Note que esse impacto da fragmentação na performance pode eventualmente não ter relação nenhuma com falta de espaço e portanto com excesso de nivelamento estático como havíamos cogitado, embora essa relação seja possível. No nível da controladora a fragmentação é uma feature e promovida para aumentar a vida útil do SSD, entendo que sejam fragmentações ocorrendo em níveis diferentes.
  7. Bom, a referência do Baboo é bem autoritativa. Por um tempo pelo menos, já que a tecnologia está toda hora mudando e, se um dia as dicas folclóricas já foram verdade, as verdades bem fundamentadas de hoje pode igualmente virar as fake news de amanhã. De fato teve uma coisa que o Baboo falou no último vídeo que de acordo com uma publicação mais recente que li hoje já não é verdade mais, eu até ia apontar o que era, mas perdi a postagem aqui no celular e não vou ver o vídeo de novo pra tentar caçar o que era. Esse outro MVP linkado abaixo, que foi atrás do assunto fragmentação em SSDs também, fala algo na mesma linha: que fragmentação excessiva pode reduzir performance por causa do excesso de IOPS e que deixar fragmentar sem nunca desfragmentar pode gerar um número de metadados (isto é, dados sobre outros dados) referentes aos fragmentos no sistema de arquivos superior ao máximo que o sistema de arquivos suporta. Isso implica nele não ser capaz de criar fragmentos novos para os dados que estão sendo escritos (independente do espaço que está livre na unidade) e começar a devolver os erros para o sistema operacional, que por sua vez repassa à aplicação, que começa a apresentar falhas. O Windows pode sofrer esse problema no longo prazo por conta do recurso de gerar instantâneos (snapshots) de recuperação do disco (recurso este que os sistemas de arquivos usados no Linux, apesar de superiores em lidar com fragmentação, não suportam). O Windows 10 resolve isso desfragmentando os SSDs uma vez por mês. https://www.thewindowsclub.com/defragmentation-of-ssd-windows Então pode não ser tão raro assim num usuário desktop, sei lá, ele pode ter deixado desabilitados os snapshots do Windows 10 por muito tempo, ou por alguma razão ter uma quantidade absurda de arquivos fragmentados, ou talvez essa fragmentação ter sido piorada pela falta de espaço livre no SSD... Também cabe desmentir uma afirmação minha, como o impacto da fragmentação alta tem a ver com o número de interações com o sistema de arquivos que por sua vez gera overhead de CPU e de I/O, então tem a ver com o sistema operacional sim... Windows está mais sujeito porque usa NTFS, bem mais que o Linux cujos sistemas de arquivos EXT já evitam a fragmentação sempre que possível no momento da escrita dos arquivos, pelo que andei lendo.
  8. Na verdade ele não falou isso, falou para evitar o espaço livre ficar em 10%, procurar deixar em torno de 40%. A fragmentação tende a piorar quanto menos espaço a unidade tem para alocar os blocos, não sei se dá pra ter uma medida muito clara, depende se fatores como o espaço livre e o tamanho dos arquivos. Mas eu não quis implicar que prejudicava a vida útil de maneira significativa porque eu não tinha certeza, então eu nem toquei no assunto. Só falei que não era recomendado desfragmentar. Veja por exemplo esse fabricante dizendo isso (pelo menos trocando em miúdos): https://www.crucial.com/articles/about-ssd/should-you-defrag-an-ssd
  9. Isso vai ao encontro do meu entendimento, que o wear-leveling é gerenciado pela controladora do SSD de uma forma altamente autônoma e ocorre num nível mais baixo que o sistema de arquivos e que deverá ter pouca relação com o SO, então a desfragmentação tipo de HD em princípio não deveria afetar. Juntando o que foi falado de tipos de wear-leveling (que deixaram o assunto menos nebuloso para mim), observa-se na figura que o espaço livre tem uma influência importante no wear-leveling dinâmico, que deve ser sempre a forma preferencial de wear-leveling a atuar, já que é a menos custosa em desempenho e também gasta menos ciclos de escrita/apagamento que a estática. Por isso que é interessante sempre trabalhar com espaço livre sobrando, que foi a lebre que eu levantei para a baixa performance e foi a primeira dica do Baboo. Aliás muito bom o Baboo, não conhecia. Já são vídeos um pouquinho datados, por exemplo falam só em velocidades SATA III e não por exemplo em NVMe. Cita de passagem alguma coisa sobre cache de RAM, não sei é a mesma coisa que o cache de DRAM, que é um ponto que parece importante hoje em dia ao escolher um SSD. Deve ser. Eu tenho uma dica bem atual: se por acaso você tem um perfil não-gamer e que gosta de Mini PCs como os Dell OptiPlex Micro (MFF), evite a linha 30x0 (3070, 3080, etc.) pois usam um chipset mais capado da Intel que limita a entrada M.2 NVme a funcionar em modo PCI-e 2.0/2.1 e não 3.0, e isso reduz a velocidade máxima do SSD à metade. Prefira a linha 50x0 ou 70x0. Não que essa percepção deva ser muito sentida fora dos benchmarks, mas eu acho sacanagem que a Dell não deixe isso claro nas especificações. Isso esclarece muita coisa sobre a classificação meio arbitrária da Dell para SSDs (classes 30, 35, 40, 50, etc.) e suas taxas de transferência. O Baboo também sugeriu aumentar o provisionamento do fabricante. Enfim, tudo que ajuda o SSD a trabalhar com folga para distribuir os dados igualmente pelos blocos e evitar realocá-los em excesso vai naturalmente trazer benefícios dada a noção básica de como ele funciona. Acho que degrada mais rápido sim, talvez não muito, mas degrada. Porque o nivelamento estático, que está ocorrendo com mais frequência nesse caso, por sua própria definição tende a custar mais ciclos de escrita/apagamento, que são o que em algum grau reduz a vida útil do SSD. Então o que acontece é que o excesso de operações de nivelamento estático numa situação de pouco espaço livre e alta fragmentação impacta a performance da controladora, como falou o @GabrielLV Faz sentido. Mas aí o que é considerado alta fragmentação? A porcentagem de dados fragmentada, ou o número alto de arquivos fragmentados? Porque vejam que o Baboo cita um cenário prosumer, de carga de trabalho de servidor, que o caso do @Yan_ a princípio está longe de ser.
  10. Em teoria não era para essa fragmentação trazer grandes consequências, como falou a @Amanda Gonçalo e muito provavelmente não tem nada a ver com o sistema de arquivos nem tem grande relação com o SO (a não ser pela falta de recursos como o TRIM), pelo jeito que os SSDs funcionam ela deve estar ocorrendo num nível mais abaixo. Pelo que sei pode ser impacto de falta de espaço livre para o wear-leveling trabalhar (isto é, de falta de blocos/páginas/sei lá o quê menos gastos nos quais distribuir os dados escritos no armazenamento). SSDs têm que ser mantidos sempre com um tanto de espaço livre, apesar que muitos já reservam de antemão uma "gordurinha" de espaço não-alocado para terem como trabalhar essa questão (mesmo assim é importante não deixar encher demais). Esses SSDs têm quantos % de espaço livre? Esse que você desfragmentou 100% foi uma desfragmentação só ou foram várias? O que desfragmentou pouco tinha comparativamente pouco espaço livre? Certeza absoluta que a lentidão é por conta da fragmentação? Também não sei a fundo o funcionamento então não vou cravar uma teoria.
  11. Pessoal, não tragam o hábito de desfragmentar HD para o cenário dos SSDs porque é outra realidade, outra forma de funcionamento. Sites especializados e fabricantes em geral não recomendam.
  12. Rapaziada esquece o que eu falei, esse SSD é Tier D (baixo orçamento) e não B. Foi mal a desatenção, confundi com o SN750.
  13. Acho que vou pelo mesmo caminho, um dos citados ou então um WD Blue sn550 500GB que apesar de não ter DRAM cache ainda é Tier B e está num preço bom (DRAM seria um "plus" mas a classificação final dos caras é pelo Tier). Apesar que o desempenho parece ser um pouco menor que os outros, mas nada ruim.
  14. Me convenceu, obrigado. Também parece que os SSDs atualmente dificilmente estão vindo com dissipador (heat sink), mais um argumento a favor.
  15. Pessoal, desculpem invadir o tópico, não sei se é certo aproveitar a pergunta, mas minha dúvida é muito parecida. Procuro um bom SSD NVMe M.2 de 500GB aproximadamente ("bom" no caso pode ser o mesmo critério, bom custo-benefício ou um pouco mais caro se o desempenho for melhor). Também não é para jogos. É para um Dell OptiPlex 7070 Micro MFF (Micro Form Factor), cujo slot aceita formatos 2230/2280 (mas acho que para esse tanto de GB só vai ter 2280, o 2230 seria mais para cache) e acho que é PCIe 3.0 também, no caso x4. Parece que o encaixe (key) do SSD tem que ser M ou B+M para ter um desempenho melhor do PCIe, se for B é mais lento. Não estou a par dos critérios atuais de avaliação dessa categoria de SSDs, por isso a lista de avaliação que tem no site não me é muito útil. Não tive paciência de pesquisar então aceito dicas junto com as recomendações. O que eu sei é que os SSDs da Dell variam de fornecedor conforme a disponibilidade na hora de montar o PC e que para essa linha vão só até 256GB e são de "classe 35", que é uma classificação de desempenho específica da Dell na qual os 35 parece que não tem lá grandes benchmarks, então compensa pegar um bom de 500GB à parte. Minha única preocupação é esse SSD esquentar dentro de um gabinete de form factor pequeno e mal ventilado como esse, que também vai ter um HD SATA 2.5", mas ninguém soube me responder se isso é problema então vou arriscar. Mas se o SSD puder vir com dissipador junto, seria interessante, ainda mais se for dos mais rápidos. Pelo pouco que pesquisei o Samsung 970 EVO Plus é o melhor em rapidez ou um dos melhores, não sei se tem variações. Me parece também que só EVO (sem ser Plus) já me atenderia, mas não sei se há variações dentro dessa linha. Os que foram citados parecem interessantes, com boas velocidades em acesso contínuo, essas medidas valem para acesso aleatório também? Acho que isso tem que ser avaliado à parte, não?

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...