Coleção de Dados do LHC

Credit: CERN

Credit: CERN

O LHC produz 600 milhões de colisões por segundo em cada detetor, que geram cerca de um petabyte (equivale a 1000 discos de 1 TB – terabyte) de dados por segundo. Nenhum dos sistemas de computação atuais são capazes de gravar tais fluxos de dados. Assim, os sistemas usam uma seleção sofisticada desses dados conduzindo a uma pré-seleção eletrónica. Dezenas de milhares de núcleos de processadores selecionam 1% dos eventos restantes da seleção prévia. Mesmo após essa redução drástica de dados, os quatro detetores, ALICE, ATLAS, CMS e LHCb, em conjunto, precisam de armazenar mais de 25 petabytes de dados por ano. Os dados do LHC são agregados no Centro de Dados do CERN, onde é realizada a reconstrução de dados inicial e é arquivada uma cópia de segurança. Outra cópia é enviada para vários centros de dados, em grande escala, em todo o mundo. Posteriormente, centenas de milhares de computadores, a nível mundial, entram em ação: aproveitado o serviço de computação distribuída, formando o Worldwide LHC Computing Grid (WLCG), que fornece os recursos necessários para armazenar, distribuir e processar os dados do LHC. WLCG combina o poder de mais de 170 centros de colaboração espalhados por 36 países e que estão ligados ao CERN. Todos os dias WLCG processa mais de 1,5 milhões de tarefas, o que corresponde a um único computador a trabalhar por mais de 600 anos.

Fica aqui o vídeo:


Produced by: CERN IT department
Director: The Little Big Studio

Deixe um comentário

O seu endereço de email não será publicado.

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.

Verified by MonsterInsights