O mundo da Ciência da Computação já possui alguns exemplos dos chamados “supercomputadores”, máquinas criadas para executar cálculos gigantescos em tempo razoável, ajudando cientistas a chegar a resultados que eles levariam muito tempo para ter em mãos se usassem métodos tradicionais. Recentemente, por exemplo, o Instituto Okinawa de Ciências e Tecnologia e a Universidade Forschungszentrum Jülich, da Alemanha, criaram um modelo que levou 40 minutos para simular um segundo de atividade do cérebro humano.
Mas poucos equipamentos do tipo podem ser comparados ao “Edison”, que passou a integrar as atividades do National Energy Research Scientific Computing (NERSC), segundo o Phys.org. Apresentado no último dia 5 de fevereiro e operado pelo Lawrence Berkeley National Laboratory, o supercomputador foi nomeado em homenagem ao inventor norte-americano Thomas Alva Edison, responsável por muitas criações entre os séculos 19 e 20.
Também chamado de Cray XC30, o equipamento vai ajudar os cinco mil pesquisadores que atuam no NERSC em 700 projetos e 600 códigos diferentes. O instituto produz uma média de 1,7 mil artigos científicos por ano, tornando o NERSC o centro de computação científica mais produtivo do mundo. “Nós apoiamos vários campos da ciência, desde pesquisas básicas sobre energia para a ciência climática até as biociências para a descoberta de novos materiais, passando pela exploração da física de altas energias e o descobrimento das origens do universo”, afirmou o diretor do NERSC, Sudip Dosanjh.
O Edison foi construído para executar cerca de 2,4 quatrilhões de operações de ponto flutuante por segundo, em velocidades máximas teóricas. Sua configuração foi ajustada para lidar com dois tipos de computação: análise de dados e simulação e modelagem.
A análise de dados – como o sequenciamento do genoma ou programas de triagem molecular que buscam por novos materiais ou medicamentos promissores – muitas vezes envolve alto rendimento de execução de computação e um grande número de simulações de baixo acoplamento, simultaneamente. Tal “computação em conjunto” exige mais memória, o que, normalmente, tem sido relegado a clusters de computadores separados. Como os instrumentos e experimentos resultam em mais e mais dados, os cientistas precisam de mais poder de computação para analisá-los.
“Nossas instalações estão inundadas com dados que os pesquisadores não têm capacidade de compreender, processar ou analisar suficientemente”, revelou Dosanjh. Ambos os tipos de computação dependem fortemente de dados móveis. “O Edison foi otimizado para isso: ele tem uma interconexão de velocidade muito alta. Ele tem muita largura de banda de memória, muita memória pornó e tem velocidades de entrada e de saída muito elevadas para o sistema de arquivos e sistema de disco”.
“Se você tem um recurso de computação como o Edison, com a flexibilidade para executar diferentes classes de problemas, então você pode aplicar a capacidade total do seu sistema para o problema em questão, como cálculos de alto rendimento, a exemplo do sequenciamento do genoma ou simulações climáticas altamente paralelas”, afirmou Jeff Broughton. Tamanho desempenho vem acompanhado com algumas necessidades, como métodos de refrigeração. O supercomputador utiliza água, distribuída por meio de torres de resfriamento ao ar livre, que volta aos radiadores internos do sistema, resfriando todo o conjunto.
As especificações do supercomputador incluem 124.608 núcleos de processamento; 332 terabytes de memória, 2,39 petaflop por segundo de desempenho; 462 terabytes por segundo de largura de banda de memória; 11 terabytes por segundo de largura de banda de rede bisection; armazenamento de 7,56 petabytes de disco e 163 gigabytes por segundo de largura de banda para entrada e saída de dados.
FONTE: http://canaltech.com.br/
Nenhum comentário:
Postar um comentário