Sesc SP

Matérias da edição

Postado em

O melhor amigo da pesquisa

por Evanildo da Silveira

Estima-se que no Brasil existam 85 milhões de computadores, o que representa um para cada 2,25 habitantes. Eles são usados para realizar uma infinidade de atividades, da administração de uma empresa à redação de trabalhos escolares, passando pela realização de compras e pela comunicação pela internet, ou mesmo para simples entretenimento, com jogos ou filmes. A lista do que se pode fazer com eles, enfim, é enorme.

Há situações, no entanto, principalmente na área científica, que exigem o trabalho de uma categoria diferente de máquinas, os supercomputadores. Verdadeiros “monstros” tecnológicos, com capacidade de processamento equivalente a milhares de computadores comuns (os PCs), eles custam milhões de reais e precisam de um avião cargueiro para ser transportados.

Com essas características, não é de admirar que sejam relativamente poucos no mundo – na casa de alguns milhares. No Brasil, podem ser contados nos dedos das mãos. Entre os maiores estão o Tupã, do Instituto Nacional de Pesquisas Espaciais (Inpe), o Galileu, da Universidade Federal do Rio de Janeiro (UFRJ) e o Grifo04, da Petrobras. Há ainda um na Universidade Estadual Paulista (Unesp), que não é uma estrutura só, mas um grid (ou grade) composto por sete clusters (aglomerados de computadores interconectados) instalados em igual número de campi da instituição, que funcionam como um só supercomputador.

Desses, os dois primeiros figuram na lista dos 500 maiores do mundo, elaborada semestralmente pelo site Top500. O do Inpe está em 49º lugar e o da UFRJ em 290º. Oficialmente, é considerado um supercomputador uma ou um grupo de máquinas que operam em conjunto e têm capacidade de processamento acima de 25 teraflops. Flops é a sigla de Floating Point Operations per Second, ou operações de ponto flutuante por segundo. Na prática, quer dizer simplesmente cálculos por segundo. Ou seja, esses computadores são capazes de realizar 25 trilhões de contas a cada segundo. O campeão é o Fujitsu K, do Japão, com a marca de 10,5 petaflops (10,5 quatrilhões de cálculos por segundo), seguido do Tianhe, da China, com 2,56 petaflops, e do Jaguar, dos Estados Unidos, com 1,75 petaflops. A lista completa, divulgada em novembro, pode ser acessada em www.top500.org/list/2011/11/100.

Praticamente todos os supercomputadores são construídos a partir da união de muitos computadores normais. A maioria dos listados no Top500, por exemplo, são clusters. Apesar disso, eles funcionam de forma semelhante a um PC, com memória RAM, HD (disco rígido), sistema operacional e outros componentes. A diferença é que os programas devem ser escritos de maneira ligeiramente diferente para que seja possível sua execução eficiente num cluster, utilizando o processamento paralelo.

Só supermáquinas como essas podem realizar trabalhos realmente pesados de computação, como simulações de eventos atmosféricos usadas na previsão do tempo, pesquisas genômicas, simulações de explosões nucleares (o que evita testes com bombas atômicas reais), modelagem molecular e celular e de imagens médicas. Além disso, elas são usadas também para resolver operações matemáticas complexas e cálculos na área de física de partículas, assim como em animação cinematográfica, prospecção de petróleo e de minérios, estudos de aerodinâmica (simulação de voo de aviões em túneis de vento, por exemplo) e previsões de terremotos.

Invenção revolucionária

Pode-se dizer que a história dos supercomputadores começou no fim da década de 1950, quando a Bell Telephone lançou uma novidade que iria revolucionar a indústria eletrônica: os transistores, inventados em seus laboratórios, em 1947, por John Bardeen e Walter Houser Brattain. Os transistores eram bem menores que as válvulas, usadas até então, além de mais duráveis, e geravam pouco calor. Na década de 1960 todos os computadores já usavam a nova invenção.

Foi nessa época que surgiram os chamados minicomputadores, que de mini não tinham nada, pelo menos nas suas dimensões, já que eram do tamanho de um armário. Sua capacidade de processamento, sim, era pequena, pois não passava do equivalente à de uma calculadora simples de hoje.

Em 1958 surgiu outra invenção revolucionária, que iria mudar novamente a história da computação. O engenheiro elétrico Jack Kilby, da Texas Instruments, construiu o primeiro circuito integrado, ou microchip. Isso possibilitou, a partir da década de 1970, o desenvolvimento de máquinas centenas de vezes mais velozes que as existentes até então.

Era o início da era dos supercomputadores. Foram construídos alguns de 100 megaflops – extraordinários para a época, mas nada de mais alguns anos depois. Já em 1993 um simples PC atingiria potência semelhante, com o processador Pentium 60, lançado pela Intel. No início dos anos 1980, o supercomputador Cray X-MP, da Cray Research, alcançou a então incrível marca de 1 gigaflops (1 bilhão de cálculos por segundo) ou mais ou menos a capacidade do Pentium II, que chegou ao mercado em 1997.

Foi essa mesma empresa, sediada em Chippewa Falls, no estado de Wisconsin, nos Estados Unidos, que fabricou e vendeu para o Inpe um XT6, rebatizado de Tupã – manifestação de um deus indígena na forma do som do trovão –, nome bem apropriado para uma máquina que é usada basicamente para fazer modelagem e pesquisas atmosféricas e sobre mudanças climáticas, além de previsão do tempo. O supercomputador chegou ao Brasil, mais precisamente ao aeroporto de São José dos Campos (SP), no dia 4 de outubro de 2010, a bordo de um avião cargueiro DC-10, vindo de Miami, nos Estados Unidos. No total, incluindo a infraestrutura onde opera, ele custou R$ 50 milhões.

Desmontado e embalado em 84 grandes caixas, o Tupã foi transportado dali em sete caminhões, equipados com sistema de climatização para manter os equipamentos a uma temperatura constante de 10 ºC, até Cachoeira Paulista. Lá ele foi remontado, ao longo de cerca de três meses, no Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) do Inpe. Seu “cérebro” é composto por 30.528 processadores, o que lhe dá a incrível capacidade de realizar 205 trilhões de cálculos por segundo (205 teraflops). Quando de sua instalação, era o 29º do mundo, na lista do Top500.

Rede poderosa

Também em 2010, o Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia (Coppe) – que antes se chamava Coordenação dos Programas de Pós-Graduação de Engenharia, daí a sigla – da UFRJ adquiriu seu supercomputador, o Galileu. Formado por 7,2 mil processadores, o equipamento tem capacidade computacional total de 64,63 teraflops (64,63 trilhões de cálculos por segundo) e custou R$ 9,5 milhões, financiados pela Petrobras. Ele é o nó principal de um sistema computacional de alto desempenho, a Rede Galileu, coordenada pela empresa petrolífera e da qual participam ainda as universidades de São Paulo (USP) e Federal de Alagoas (Ufal), o Instituto Tecnológico de Aeronáutica (ITA) e a Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio). Em conjunto, as máquinas dessas instituições alcançam 160 teraflops.

Apesar de suas grandes capacidades de cálculo, tanto o Tupã como o Galileu são fichinha perto do Grifo04, que a própria Petrobras colocou em operação em abril do ano passado. Ele tem nada menos que 500 mil processadores, o que lhe dá uma potência de 500 teraflops (500 trilhões de cálculos por segundo). E tudo isso por um custo relativamente pequeno, R$ 15 milhões, pois foi a própria equipe do Centro de Processamento de Dados (CPD) da companhia que desenvolveu a tecnologia e montou o equipamento – na verdade um cluster, com 544 servidores, que operam em conjunto. Se fossem compradas, as máquinas não sairiam por menos de R$ 180 milhões. Como a medição de sua capacidade ainda não passou pelo crivo do Top500, ele não foi incluído no ranking.

Diferentemente dos supercomputadores do Inpe, da UFRJ e da Petrobras, o da Unesp não fica numa sala só. Ele se espalha por sete unidades da universidade em diferentes cidades do estado de São Paulo: Araraquara, Bauru, Botucatu, Ilha Solteira, Rio Claro e São José do Rio Preto, além do núcleo principal instalado na capital paulista, no campus da Barra Funda. Ao todo, são 2.944 processadores, com 33,3 teraflops de capacidade de processamento. “É a maior estrutura computacional acadêmica de alto desempenho e processamento distribuído da América Latina”, explica Sérgio Ferraz Novaes, coordenador geral do Programa de Integração da Capacidade Computacional da Unesp (GridUnesp), que entrou em operação em setembro de 2009.

Para comprar os equipamentos da Sun Microsystems, construir a infraestrutura onde eles estão instalados e interconectá-los por meio de uma rede de fibra óptica, foram investidos R$ 8 milhões, dos quais R$ 4,4 milhões da Financiadora de Estudos e Projetos (Finep) e R$ 3,6 milhões da própria Unesp – dinheiro muito bem empregado, a julgar pelos benefícios que as máquinas trazem para a universidade e seus pesquisadores. Entre eles está a redução do tempo de cálculo das pesquisas, o que torna possível a realização de estudos mais detalhados e em maior profundidade.

Supercomputador para todos

A estrutura também facilitará a interação entre os diferentes núcleos de pesquisa, tanto da Unesp como de fora dela. “Hoje, já há 35 grupos, num total de cerca de 200 cientistas de diversas áreas, que usam os recursos do GridUnesp em seus estudos”, conta Novaes. “Por enquanto, os coordenadores dos projetos são todos da Unesp, mas não vamos impedir que grupos de outras instituições utilizem o equipamento. Este é um bem comprado com dinheiro público, que deve ser usado no interesse de todos e para servir a ciência.”

Entre os exemplos de projetos de pesquisa em andamento está um do Instituto de Física Teórica (IFT), do campus da Barra Funda da Unesp, que utiliza o grid para analisar o comportamento das partículas mais elementares do núcleo atômico. Em Bauru, por sua vez, pelo menos quatro grupos se beneficiam do supercomputador, que é usado para simular o comportamento de elétrons e núcleos atômicos. Isso permitirá explicar propriedades magnéticas e supercondutoras de materiais inorgânicos e reações bioquímicas de aminoácidos e DNA, por exemplo. Em Araraquara, o Núcleo de Bioensaios, Biossíntese e Ecofisiologia de Produtos Naturais usa o grid para armazenar um banco de dados de substâncias de possível interesse farmacológico extraídas de plantas, fungos e animais marinhos.

Com seu Grifo04, a Petrobras também vai realizar pesquisas em áreas marinhas, mas com outro objetivo: encontrar petróleo. Com o supercomputador, a companhia aumentou em dez vezes sua capacidade de processamento de imagens de áreas com potencial de produção de gás e óleo. Para isso, ela usou no desenvolvimento do equipamento a tecnologia de processadores gráficos (GPUs), especializados em manipular imagem e vídeo. Eles são capazes de realizar milhões de cálculos matemáticos ao mesmo tempo. Além disso, a empresa desenvolveu um software que torna o supercomputador capaz de processar mais de 6 trilhões de amostras sísmicas por segundo.

O Galileu não é tão potente, mas vem prestando, há mais tempo, serviços importantes à Petrobras. Junto com as máquinas da rede que leva seu nome, ele tem sido fundamental para a realização de pesquisas inovadoras na área de petróleo e gás, principalmente em simulações de prospecção em águas profundas. Ele é usado, por exemplo, para analisar simultaneamente milhares de configurações de risers – dutos que levam o petróleo do fundo do oceano para um navio ou plataforma na superfície –, diminuindo riscos e aumentando a confiabilidade dos materiais e equipamentos utilizados na exploração em alto-mar. Antes essas análises precisavam ser feitas em sequência, uma depois da outra, o que consumia muito mais tempo.

De acordo com o professor de engenharia civil Álvaro Coutinho, coordenador do Núcleo de Atendimento em Computação de Alto Desempenho (Nacad) da Coppe, os estudos para a exploração do pré-sal exigem profundo conhecimento de hidrodinâmica. Além disso, para simular as condições em alto-mar é necessário uma grande capacidade de processamento, como a da Rede Galileu. Com ela é possível usar em paralelo novos softwares para simular, por exemplo, o movimento de um navio ou plataforma de prospecção e as condições do oceano de forma extremamente detalhada. Além disso, também é possível criar simulações, em altíssima resolução, do comportamento das enormes ondas que varrem o convés dos navios em mar aberto, o que diminui o risco de acidentes.

Previsões mais precisas

O Tupã, do Inpe, também é usado em simulações, mas nesse caso de condições atmosféricas. “Esse computador é 50 vezes mais poderoso que o último que o Inpe havia adquirido”, diz Marcelo Seluchi, chefe até recentemente da área de supercomputação do Inpe. “Com ele estamos podendo rodar modelos mais sofisticados, com melhor resolução e maior representação dos fenômenos meteorológicos, e com isso esperamos uma melhora na previsão do tempo.” Ou seja, com o Tupã, o Inpe pode gerar prognósticos mais confiáveis, com maior antecedência e melhor qualidade. As previsões, que antes eram para sete dias, por exemplo, agora são para 11.

A resolução espacial dos prognósticos também melhorou, passando de 20 para 15 quilômetros. Isso significa que é possível detectar fenômenos, como chuvas, por exemplo, a partir de 15 quilômetros de tamanho – antes a dimensão mínima era de 20 quilômetros. É possível prever ainda eventos extremos com maior precisão, como chuvas intensas, secas, geadas e ondas de calor. Com o Tupã também houve avanços nas previsões ambientais e de qualidade do ar, que incluem gases, como monóxido e dióxido de carbono e óxido nitroso, e aerossóis (material particulado de queimadas e de emissões urbanas e industriais). Os prognósticos, que eram para até três dias de antecedência, foram estendidos para seis dias, com boa confiabilidade.

Dito assim parece fácil, mas não é. Para simular o comportamento da atmosfera num computador, é necessário lidar com muitas variáveis ao mesmo tempo, e as principais delas são movimento do ar (tanto sua velocidade horizontal como vertical), temperatura, umidade, pressão e densidade. “Mas há ainda as variáveis chamadas derivadas, como a chuva, por exemplo, que é consequência de todas as anteriores”, explica Seluchi. “O processo de formação de precipitação atmosférica é bastante complexo, e por isso esses modelos computacionais são também muito complicados. Eles têm de levar em conta a relação entre o solo e a atmosfera, entre esta e o mar, o vapor que o oceano oferece, a umidade que as plantas retiram do ar, enfim, todo o ciclo hidrológico, a radiação solar e a turbulência.”

Há outros tipos de pesquisa que, para ser concluídos sem o uso de um supercomputador, levariam meses de processamento numa máquina comum. O físico Ney Lemke, do Instituto de Biociências de Botucatu, da Unesp, sabe bem disso. Baseado na literatura científica, ele fez um trabalho para descobrir os genes humanos ligados a doenças e quais as características de cada um deles. Para isso, teve de estudar a interação dos mais de 30 mil genes humanos entre si. “Gastamos uma semana de processamento no GridUnesp”, conta. “Se fôssemos usar um PC, seria necessário pelo menos um ano de trabalho computacional. Em muitos casos, a falta de um supercomputador inviabiliza as pesquisas. Por isso, eles são muito importantes para a ciência.”