domingo, 6 de outubro de 2013

Entendendo o HD Hibrido SSD+HDD

Cada tecnologia de armazenamento tem suas vantagens e desvantagens. Aprenda a selecionar aquela que melhor atende às suas necessidades.
No passado, escolher a melhor opção em armazenamento para o seu PC era tão simples quanto encontrar o maior HD que coubesse em seu orçamento. Infelizmente a vida não é mais tão simples. A relativamente recente ascensão das unidades de estado sólido (SSDs) e discos híbridos (que combinam um SSD e um HD tradicional) alterou significativamente o panorama do mercado de armazenamento, criando uma variedade de opções confusas para o consumidor tradicional.
Escolher o melhor “disco” para suas necessidades pode parecer uma tarefa árdua, mas não se preocupe: estamos aqui para ajudar. Vamos explicar a seguir as principais vantagens, e desvantagens, de cada uma das mais populares opções de armazenamento nos PCs hoje em dia. Guarde esta informação para tomar a melhor decisão da próxima vez que precisar de mais espaço em disco. Se você é como eu, não vai demorar.
Discos rígidos (HDs)
Os discos rígidos (HD, do inglês Hard Disk) são o padrão em armazenamento de dados em desktops e notebooks há décadas. Como resultado o termo “disco rígido” acabou se tornando um genérico para qualquer sistema de armazenamento, como “gilette” é para lâminas de barbear ou “band-aid” para curativos.  Embora os discos rígidos modernos sejam muito mais avançados e com melhor desempenho do que seus antecessores, a tecnologia básica não mudou: todos eles consistem de um “prato” magnético que gira em alta velocidade, combinado a cabeças de leitura e gravação que se movem sobre a superfície do prato para recuperar ou armazenar dados. Não muito diferente, em conceito, de um toca-discos. Lembra deles?



Um HD tracional, mostrando os três pratos (sobrepostos) onde os dados são
armazenados e o braço mecânico com a cabeça de leitura e gravação
A tecnologia é madura, confiável e relativamente barata comparada às outras opções de armazenamento. A maioria dos HDs tem um custo por gigabyte que pode ser medido em poucos centavos. Eles também estão disponíveis em grandes capacidades, podendo chegar a até 4 TB em discos domésticos. Geralmente são conectados ao computador através de uma interface SATA, presente em todas as placas-mãe modernas, e não necessitam de nenhum software especial para “conversar” adequadamente com um sistema operacional moderno.
Em outras palavras, os HDs tradicionais são espaçosos, simples e baratos.
Entretanto, na maioria das situações eles não tem um desempenho tão bom quanto os discos híbridos ou SSDs. Os modelos mais rápidos atualmente podem ler e gravar dados a uma taxa de 200 MB por segundo, com tempo de acesso (o tempo necessário para chegar à informação que deve ser lida) de menos de 8 millisegundos, números muito inferiores do que mesmo as unidades SSD mais baratas (sobre as quais falaremos mais adiante). Quanto mais rápida a velocidade de rotação do prato, mais rápido é o HD. Por exemplo, um disco de 7.200 RPM tem desempenho superior ao de um de 5.400 RPM, já que é necessário menos tempo para chegar às informações.
Os HDs são mais indicados para os usuários que precisam lidar com grandes quantidades de informações e não estão preocupados em conseguir o máximo de desempenho de seu sistema. Se você é um usuário de PC que não faz muito mais do que ler e-mail, navegar na web e editar alguns documentos, deve ficar satisfeito com um HD tradicional. Só não vá usar o PC equipado com SSD de um amigo, porque depois que você experimentar a incrível velocidade destas unidades, vai ser difícil voltar para mesmo o mais rápido dos HDs tradicionais.
Unidades de estado sólido (SSDs)
De muitas formas as unidades de estado sólido (SSDs, do inglês “Solid State Drive”) são similares aos HDs. Elas geralmente se conectam ao computador através de uma interface SATA (embora haja versões com interface PCI-Express, para usos que exigem desempenho máximo) e, do ponto de vista do usuário, armazenam os arquivos da mesma forma. Entretanto os SSDs trocam os pratos magnéticos e cabeças de leitura e gravação por chips de memória flash (NAND) não volátil, como os usados em cartões de memória e pendrives. Com isso, não há partes mecânicas ou magnéticas envolvidas.
Graças a isso as unidades SSD tem desempenho muito superior e são a opção de armazenamento mais rápida atualmente disponível. Eles são muito mais rápidos que os HDs na leitura e escrita de dados na maioria das tarefas, e também podem chegar até as informações muito mais velozmente.

O Vector, da OCZ, é um dos SSDs mais velozes do mercado

Os HDs mais rápidos podem ler e gravar dados a uma taxa de 200 MB por segundo, com um tempo de acesso de alguns poucos millisegundos. Mas as unidades SSD mais rápidas podem chegar a 550 MB/s, facilmente “saturando” a capacidade de uma interface SATA, e os tempos de acesso são de tipicamente uma fração de um millisegundo. Em resumo, os SSDs resultam em um sistema muito mais “ágil”, com tempos de boot, lançamento de aplicativos e cópia de arquivos incrivelmente curtos.
Outra vantagem dos SSDs é a durabilidade. Como não tem partes móveis, as unidades de estado sólido não são suscetíveis aos danos ou degradação de desempenho causados nos HDs por vibrações e movimentos. Derrube um notebook contendo um HD tradicional e você tem uma boa chance de perder dados. Mas um SSD nem vai sentir o impacto.
Mas os SSD também tem desvantagens. A primeira é que são muito mais caros, em termos de custo por gigabyte, que um HD tradicional. Bons discos para o mercado doméstico custam em média de US$ 0,70 a US$ 1 por gigabyte, enquanto um HD tradicional pode custar 10 vezes menos. E as unidades de estado sólido não chegam perto da capacidade dos HDs: os modelos mais populares tem capacidade entre 120 e 256 GB, com modelos de 512 GB ou 1 TB reservados apenas àqueles com orçamentos bem grandes.
O desempenho de um SSD também depende de quão “cheio” ele está, ou se teve uma grande quantidade de dados excluídos dele. Tecnologias como a TRIM podem ajudar a recuperar o desempenho de um SSD “sujo”, mas exigem suporte específico tanto nos drivers quando no sistema operacional (as versões 7 e 8 do Windows tem suporte a TRIM). E como a capacidade é pequena e o desempenho é afetado por quão cheio está o drive, muitos usuários de SSDs acabam movendo regularmente arquivos menos críticos (como documentos e coleções de arquivos multimídia) para HDs tradicionais.
Outra preocupação: quando os SSDs falham, eles costumam fazer isso sem aviso. Os HDs, entretanto, começam a dar sinais de uma falha iminente gerando um erro via S.M.A.R.T. (um sistema de monitoramento da saúde do disco) ou sofrendo com alguns blocos ruins. Em nossa experiência os SSDs simplesmente “morrem” sem dar quase nenhum alerta.
As unidades de estado sólido são mais indicadas para usuários experientes de PCs, que buscam alto desempenho. Se você não se importa em gerenciar múltiplos discos e tem dinheiro suficiente, combinar um SSD rápido com um HD de alta-capacidade resulta no melhor dos dois mundos. O SSD pode armazenar o sistema operacional e os aplicativos usados com maior frequência, e o HD pode ficar com o restante dos dados. Mas para um usuário casual de um PC, esta estratégia pode acabar sendo um incômodo.
Discos híbridos
Discos híbridos são uma mistura de um HD com um SSD, combinando os pratos magnéticos e ampla capacidade dos HDs com um SSD veloz mas de pequena capacidade em uma única unidade.
Estes discos monitoram os dados que são lidos do HD, e armazenam uma cópia dos arquivos acessados mais frequentemente no SSD. Na próxima vez em que eles forem necessários, serão lidos do SSD, com um desempenho muito maior
Algumas das vantagens dos discos híbridos incluem o baixo custo, alta capacidade e facilidade de gerenciamento. Eles costumam custar um pouco mais que um HD tradicional, mas bem menos do que uma unidade de estado sólido. E como o volume de cache é oculto do sistema operacional e gerenciado automaticamente, os usuários não precisam ficar escolhendo o que vai no SSD e o que vai no HD. O tempo de boot é reduzido, e a capacidade é equivalente à de um HD tradicional.
Mas os discos híbridos deixam a desejar com dados novos. Ao gravar arquivos, ou acessar aqueles usados com pouca frequência, o desempenho é equivalente ao de um HD comum, e eles precisam de um período de “aclimatação” até aprenderem quais dados colocar no cache. E devido ao fato de que dependem de software para funcionar, podem ser um pouco mais difíceis de configurar.
Para usuários que não querem ter de lidar com múltiplos discos ou não que trabalham sempre com os mesmos arquivos, um disco híbrido pode ser uma boa opção para melhorar o desempenho do sistema, sem abrir mão de espaço em disco.
Faça seu próprio híbrido
Algumas pessoas criam suas próprias soluções híbridas combinando um HD tradicional e um SSD com software de cache especializado. SSDs para cache vem com software proprietário incluso, embora você também possa usar a tecnologia Intel Smart Response se quiser usar um SSD que não foi projetado especificamente para cache.
Funcionalmente o arranjo opera da mesma forma que um disco híbrido, mas um SSD de cache geralmente tem capacidade maior do que a pouca quantidade de memória flash integrada à maioria dos discos híbridos. O que significa que uma parte maior de seus dados poderá ser armazenada no cache e se beneficiar do aumento no desempenho. Por outro lado, você tem que comprar tanto um HD quanto um SSD, o que pode sair caro. Você também precisa configurar o arranjo manualmente, ao passo que um disco híbrido é uma solução “plug and play”, muito mais simples.

E o HD puramente SSD??

O SSD (solid-state drive) é uma nova tecnologia de armazenamento considerada a evolução do disco rígido (HD). Ele não possui partes móveis e é construído em torno de um circuito integrado semicondutor, o qual é responsável pelo armazenamento, diferentemente dos sistemas magnéticos (como os HDs).Mas o que isso representa na prática? Muita evolução em relação aos discos rígidos. Por exemplo, a eliminação das partes mecânicas reduz as vibrações e tornam os SSDs completamente silenciosos.
Outra vantagem é o tempo de acesso reduzido à memória flash presente nos SSDs em relação aos meios magnéticos e ópticos. O SSD também é mais resistente que os HDs comuns devido à ausência de partes mecânicas – um fator muito importante quando se trata de computadores portáteis. O SSD ainda tem o peso menor em relação aos discos rígidos, mesmo os mais portáteis;  possui um consumo reduzido de energia; consegue trabalhar em ambientes mais quentes do que os HDs (cerca de 70°C); e, por fim, realiza leituras e gravações de forma mais rápida, com dispositivos apresentando 250 MB/s na gravação e 700 MB/s na leitura.Mas nem tudo são flores para o SSD. Os pequenos velozes ainda custam muito caro, com valores muito superiores que o dos HDs. A capacidade de armazenamento também é uma desvantagem, pois é menor em relação aos discos rígidos. De qualquer forma, eles são vistos como a tecnologia do futuro, pois esses dois fatores negativos podem ser suprimidos com o tempo.Obviamente, é apenas uma questão de tempo para que as empresas que estão investindo na tecnologia consigam baratear seus custos e reduzir os preços. Diversas companhias como IBM, Toshiba e OCZ trabalham para aprimorar a produção dos SSDs, e fica cada vez mais evidente que os HDs comuns estão com seus dias contados.
A Kingston anunciou o lançamento de um novo SSD no mercado brasileiro. O SSDNow KC1000 oferece até 960 GB de armazenamento e traz como um dos destaques a velocidade. O modelo no formato M.2 2280 com conexão PCIe X4 de terceira geração tem a promessa de ser duas vezes mais rápidos do que os SSDs que utilizam conexão SATA e até 40 vezes mais velozes do que os HDs mecânicos.
O SSDNow KC1000, lançado na Computex 2017 em maio, traz como público alvo usuários que querem extrair o máximo de performance que o dinheiro pode pagar. 
O modelo parte de R$ 1.049,90 para a versão com 240 GB, passando por R$ 1.849,90 para o de 480 GB e pode chegar a R$ 3.499,90 para o de 960 GB. As vendas estão previstas para começar em agosto.KC1000 promete maior velocidade no carregamento de arquivos pesados.O KC1000 também traz versão no formato HHHL.O KC1000 traz as memórias MLC NAND Flash com suporte ao novo protocolo NVMe. O modelo pode chegar a 2.700 MB/s de leitura sequencial. Enquanto a versão de 240 GB chega a 900 MB/s de velocidade de escrita, as versões de maior capacidade oferecem até 1.600 MB/s.Já a leitura e escrita máxima pode chegar a 290,000/190,000 IOPS para a versão de menor capacidade e 290,000/190,000 IOPS para os modelos de 480 GB e 960 GB.O controlador é o Phison PS5007-E7, considerado um dos mais eficientes da atual geração. Ele integra alguns dos SSDs flagship de outras marcas, como o Corsair MP500 e o PNY CS2030.O SSD também conta com versões no formato HHHL. O preço é de R$ 1.149,90 para o modelo de 240 GB, R$ 1.949,90 para o de 480 GB e R$ 3.599,90 para o de 960 GB.O novo SSD da Kingston é indicado para quem pretende melhorar a velocidade de carregamento em games, para quem trabalha com edição de vídeo, além de aplicações em realidade virtual e modelagem 3D.





Fonte: https://www.techtudo.com.br/noticias/2017/06/novo-ssd-da-kingston-promete-ser-40-vezes-mais-rapido-que-hd.ghtml

sábado, 5 de outubro de 2013

Tudo sobre memória RAM

A memória RAM (Random Access Memory) é a forma mais conhecida de memória de computador. A memória RAM é considerada de "acesso aleatório" porque é possível acessar diretamente qualquer célula da memória se você conhece a linha e a coluna que cruzam essa célula.
­
O oposto da memória RAM é a memória de acesso serial (SAM). A memória SAM armazena dados como uma série de células de memória que podem somente ser acessadas seqüencialmente (como uma fita cassete). Se o dado não está na localização atual, cada célula da memória é verificada até que os dados necessários sejam encontrados. A memória SAM funciona muito bem para buffers de memória, onde os dados são normalmente armazenados na ordem em que serão usados (um bom exemplo é a memória buffer de textura em uma placa de vídeo). Os dados RAM, por outro lado, podem ser acessados em qualquer ordem.
Embora seja brutalmente mais rápida que o HD e outros periféricos, a memória RAM continua sendo muito mais lenta que o processador. O uso de caches diminui a perda de desempenho, reduzindo o número de acessos à memória; mas, quando o processador não encontra a informação que procura nos caches, precisa recorrer a um doloroso acesso à memória principal, que em um processador atual pode resultar em uma espera de mais de 150 ciclos.
Para reduzir a diferença (ou pelo menos tentar impedir que ela aumente ainda mais), os fabricantes de memória passaram a desenvolver um conjunto de novas tecnologias, a fim de otimizar o acesso aos dados, dando origem aos módulos de memória DDR2 e DDR3 utilizados atualmente.
Começando do básico, um chip de memória é um exército de clones, formado por um brutal número de células idênticas, organizadas na forma de linhas e colunas, de forma similar a uma planilha eletrônica.



O chip de memória em si serve apenas para armazenar dados, não realiza nenhum tipo de processamento. Por isso, é utilizado um componente adicional, o controlador de memória, que pode ser incluído tanto no chipset da placa-mãe quanto dentro do próprio processador, como no caso dos processadores AMD a partir do Athlon 64 e dos processadores Intel a partir do Core i7.

Para acessar um determinado endereço de memória, o controlador primeiro gera o valor RAS (Row Address Strobe), ou o número da linha da qual o endereço faz parte, gerando em seguida o valor CAS (Column Address Strobe), que corresponde à coluna. Quando o RAS é enviado, toda a linha é ativada simultaneamente; depois de um pequeno tempo de espera, o CAS é enviado, fechando o circuito e fazendo com que os dados do endereço selecionado sejam lidos ou gravados:

Como funciona a memória RAM
Não existe um caminho de volta, ligando cada endereço de volta ao controlador de memória. Em vez disso, é usado um barramento comum, compartilhado por todos os endereços do módulo. O controlador de memória sabe que os dados que está recebendo são os armazenados no endereço X, pois ele se "lembra" que acabou de acessá-lo.
Antigamente (na época dos módulos SIMM de 30 vias usados nos micros 386 e 486), cada chip de memória se comportava exatamente dessa forma, lendo um bit de cada vez. Os módulos de 30 vias eram compostos por 8 chips de memória (com exceção dos módulos com paridade, que usavam 9 chips), o que resultava na leitura de 8 bits por ciclo. Apesar disso, o processador lia 32 bits de dados a cada ciclo, de forma que era necessário usar os módulos em quartetos.
Do ponto de vista do processador, não existia divisão, os chips eram acessados como se fossem um só. O processador não via 32 endereços separados, em 32 chips diferentes, mas sim um único endereço, contendo 32 bits.





Nos módulos DIMM atuais são geralmente usados 8 chips de 8 bits cada um, formando os 64 bits fornecidos ao processador. Existem ainda módulos com 16 chips de 4 bits cada, ou ainda, módulos com 4 chips de 16 bits (comuns em notebooks). Do ponto de vista do processador, não faz diferença, desde que somados, os chips totalizem 64 bits.






Imagine que o controlador de memória envia sequências com 4, 8 ou 16 pares de endereços RAS e CAS e recebe de volta o mesmo número de leituras de 64 bits. Mesmo em casos em que o processador precisa de apenas alguns poucos bytes, contendo uma instrução ou bloco de dados, ele precisa ler todo o bloco de 64 bits adjacente, mesmo que seja para descartar os demais.

No caso dos chipsets e processadores com controladores de memória dual-channel, continuamos tendo acessos de 64 bits, a única diferença é que agora o controlador de memória é capaz de acessar dois endereços diferentes (cada um em um módulo de memória) a cada ciclo de clock, ao invés de apenas um. Isso permite transferir o dobro de dados por ciclo, fazendo com que o processador precise esperar menos tempo ao transferir grandes quantidades de dados.
Na verdade, nos PCs contemporâneos, praticamente qualquer dispositivo pode acessar a memória diretamente através do barramento PCI Express, PCI (ou AGP no caso de micros mais antigos) e até mesmo a partir das portas SATA, IDE e USB. Naturalmente, todos os acessos são coordenados pelo processador, mas como a memória é uma só, temos situações onde o processador precisa esperar para acessar a memória, porque ela está sendo acessada por outro dispositivo.
Existem várias formas de melhorar o desempenho da memória RAM. A primeira é aumentar o número de bits lidos por ciclo, tornando o barramento mais largo, como o aumento de 32 para 64 bits introduzida pelo Pentium 1, que continua até os dias de hoje. O problema em usar um barramento mais largo é que o maior número de trilhas necessárias, tanto na placa-mãe quanto nos próprios módulos de memória, aumentam a complexidade e o custo de produção.
A segunda é acessar dois ou mais módulos de memória simultaneamente, como nas placas e processadores com controladores de memória dual-channel ou triple-channel. O problema é que nesse caso precisamos de dois módulos, além de circuitos e trilhas adicionais na placa-mãe e pinos adicionais no soquete do processador.
A terceira é criar módulos de memória mais rápidos, como no caso das memórias DDR2 e DDR3. Essa questão da velocidade pode ser dividida em dois quesitos complementares: o número de ciclos por segundo e a latência, que é o tempo que a primeira operação numa série de operações de leitura ou escrita demora para ser concluída. O tempo de latência poderia ser comparado ao tempo de acesso de um HD, enquanto o número de ciclos poderia ser comparado ao clock do processador.
É aqui que entram as diferentes tecnologias de memórias que foram introduzidas ao longo das últimas décadas, começando pelas memórias regulares, usadas nos XTs e 286, que evoluíram para as memórias FPM, usadas em PCs 386 e 486, em seguida para as memórias EDO, usadas nos últimos micros 486s e nos Pentium. Estas três primeiras tecnologias foram então substituídas pelas memórias SDR-SDRAM, seguidas pelas memórias DDR e pelas DDR2 e DDR3 usadas atualmente.


Fonte: Carlos Morimoto


Novas memórias RAM estão a caminho do mercado com o dobro de velocidade do atual padrão, DDR4. A JEDEC, organização que define padrões de memória para computador, já anunciou que pretende começar a demonstrar a nova tecnologia em junho deste ano para torná-la pronta para o uso em 2018. 
O padrão DDR5 pode ser um grande salto em comparação com o que existe atualmente. A tecnologia promete o dobro de largura de banda para memória e densidade do que o DDR4 oferece, além de consumir menos energia. A organização, no entanto, não deu detalhes sobre números. 
Apesar de 2018 ser o ano em que o DDR5 estará pronto, deve demorar mais alguns anos para que as novas memórias possam ser aproveitadas. Isso se deve ao fato de que controladores em processadores precisam ser atualizados para suportar a nova tecnologia. O problema disso é que estes chips demoram entre dois e três anos para serem desenvolvidos do zero. Ou seja: se as novas memórias estiverem prontas para serem usadas em 2018, o hardware compatível com elas só deve estar disponível a partir de 2020, em uma previsão otimista. 
O site Ars Technica faz uma comparação com a introdução das memórias RAM DDR4, que foram finalizadas em 2012, mas só começaram a estar disponíveis para o consumidor em 2015, quando os processadores compatíveis começaram a aparecer. 
Fica a questão de quão importante ainda será a memória RAM no momento em que o DDR5 se tornar mainstream. Recentemente, a Intel introduziu os primeiros drives Optane, que tentam combinar a densidade, capacidade e a não-volatilidade do SSD com velocidade que se aproxima do que a memória RAM oferece. 
Há muito tempo que os PCs funcionam da mesma forma. O drive guarda um grande volume de dados, mas a memória RAM alimenta o processador por ter maior velocidade, com o ponto negativo de que as informações da RAM desaparecem quando um programa é fechado ou quando o computador é desligado. Se o vão de desempenho entre as duas tecnologias for fechado, a RAM pode estar com os dias contados.

Conheça Nikola Tesla

Nikola Tesla  (em sérvio:  Nikola Tesla  ou  Никола Тесла ) ( Smiljan ,  Império Austríaco ,  10 de julho  de  1856  —  Nova Iorque ,  7 de...