Solar Dynamics Observatory – 5 anos a observar o Sol

sdoyear5-466

Comemora-se hoje, 11 de fevereiro de 2015, o quinto aniversário do lançamento do Solar Dynamics Observatory (SDO), um sofisticado observatório espacial que tem como objectivo a contínua monitorização da estrela mais próxima da Terra, o Sol.

Para assinalar a data, a NASA divulgou dois vídeos espetaculares.

O primeiro vídeo é um timelapse dos últimos 5 anos. As cores diferentes representam diferentes comprimentos de onda, de luz ultravioleta e visível; que por seu lado, representam temperaturas diferentes no material solar.

O segundo vídeo mostra os melhores momentos dos últimos 5 anos, sobretudo ao nível das manchas solares, das proeminências solares, das flares, e das CMEs.

Como nos informa o Sérgio Paulino:
“O SDO regista a actividade solar a cada 0,75 segundos em 10 comprimentos de onda distintos, cada um evidenciando diferentes regiões da atmosfera solar. Todos os dias, o observatório envia para a Terra cerca de 1,5 terabytes de dados – o equivalente a aproximadamente 380 filmes de longa duração!”

Leiam todo o artigo na página da NASA, aqui.

2 comentários

    • Dinis Ribeiro on 12/02/2015 at 20:25
    • Responder

    E para “certos” filmes, como por exemplo o Interstellar (2014) cada imagem de CGI pode dar “muito trabalho” a fazer…

    Para começar a ver melhor o que é o CGI:
    http://en.wikipedia.org/wiki/Computer-generated_imagery / http://pt.wikipedia.org/wiki/Imagens_geradas_por_computador

    Sugestão:

    http://www.imdb.com/title/tt0816692/trivia

    Citação:

    To create the wormhole and black hole, Dr. Kip Thorne collaborated with VFX supervisor Paul J. Franklin and his team at Double Negative.

    Thorne provided pages of deeply sourced theoretical equations to the team, who then created new CGI software programs based on these equations to create accurate computer simulations of these phenomena.

    Some individual frames took up to 100 hours to render, and ultimately the whole CGI program reached to 800 terabytes of data. <————————-

    The resulting VFX provided Thorne with new insight into the effects of gravitational lensing and accretion disks surrounding black holes, and led to him writing two scientific papers: one for the astrophysics community and one for the computer graphics community.

    Sobre o filme:

    http://www.astropt.org/2014/12/04/interestelar-a-minha-analise/

    http://www.astropt.org/2014/11/24/a-ciencia-e-o-filme-interestelar-os-acertos-e-os-erros/

    http://www.astropt.org/2014/10/31/a-ficcao-cientifica-a-ajudar-a-ciencia/#comments

    http://www.astropt.org/2015/01/08/o-nicho-hipervolumetrico/#comments

    Já agora, um outro exemplo de algo que utiliza 800 Terabytes:

    •The High Performance Computing Platform will use existing supercomputing capabilities at Forschungszentrum Jülich in Germany, the Swiss Centre for Scientific Computing, the Barcelona Supercomputing Centre, and at the Italian CINECA.

    With this joint effort, HBP project could count on about 10 Petaflop of peak performance, 800 Terabytes of main memory and 8 Petabyte scratch file system, thus allowing simulation of cellular-level models with 100 million neurons.

    Fonte: http://www.scienceonthenet.eu/content/article/giulia-annovi/closing-gap-between-brain-and-computer/may-2014

    Para uma maior familiarização:

    http://en.wikipedia.org/wiki/High-performance_computing / http://pt.wikipedia.org/wiki/Supercomputador

    • Regis Olivetti on 12/02/2015 at 01:54
    • Responder

    Simplesmente espetacular. Imaginem como o Brasil está atrasado!

Responder a Regis Olivetti Cancelar resposta

O seu endereço de email não será publicado.

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.

Verified by MonsterInsights