Original Article: Seventeen years of super computing and other problems in seismology
Author: Jon Claerbout

Dezessete anos de super computação e outros problemas em sismologia

por Jon Claerbout, Stanford University

Reunião do Conselho Nacional de Pesquisa sobre computação de alto desempenho em sismologia

2 de outubro de 1994, depois do jantar falar


De onde eu venho

Começei a iniciar a sismologia em 1960 na detecção nuclear. "Foi um momento glorioso para a análise de sinais e a teoria da informação com Wiener e Levinson no MIT e no FFT de Cooley-Tukey, e eu tive energia jovem e um grande orçamento em um quadro principal de classe mundial. O problema era que essa teoria realmente não fazia nada de bom em teleseismos.

Talvez você tenha mais fé na física do que na teoria da informação. Quando os alunos vêm me ver tudo entusiasmados com as ondas S, tenho que dizer-lhes que, por algum motivo, não vemos as ondas S na sismologia de reflexão. Eu tenho 1000 fitas magnéticas que podemos pesquisar. Então, a física parece também nos falhar.

Outros estudantes vêm me ver sobre anisotropia. Para fazer uma longa história curta, é difícil fazer medidas de anisotropia convincentes a partir de dados sísmicos de superfície.

Mais tarde, nesta noite, eu posso dizer que a inversão também não funciona. Bem, eu não quero dizer que não pode funcionar, só que, quando você finalmente conseguir algo para o trabalho, ele não sai muito do jeito que você esperava e houve uma série de decepções ao longo do caminho. Você acabou terminando dizendo: "A inversão não funciona em dados dessa qualidade".

De volta a esses dias de glória da análise de sinal em teleseismos de 1 Hz, descobri um teorema surpreendente. Você precisa de ondas escalares médias e acentuadamente incidentes. O teorema diz que "um lado da autocorrelação do sismograma do terremoto é o seismograma de reflexão. Um teorema encantador porque, teoricamente, você pode converter o seismograma de reflexão em coeficientes de reflexão ao prever e remover todas as reflexões múltiplas.

Este teorema também falhou na prática. Eu acho que ele falha principalmente porque a terra não é geralmente um meio em camadas para freqüências acima de 1 Hz.

Eu abandonei a sismologia e fiz meu Ph.D. no MIT em efeitos eletromagnéticos das ondas de gravidade atmosférica.

O que me levou de volta à sismologia estava consultando a Chevron e aprendendo sobre migração de sismograma. Foi fantástico. É maravilhoso. Você pode ver synclines, anticlinais, pinchouts e falhas, belos defeitos, onde às vezes o comprimento do deslizamento na falha é óbvio. Mais tarde, quando obtivemos o sismologia 3-D vimos que o ruído não era ruído, era realmente enterrado rio meandros, e esses meandros são lindos e ninguém duvida da interpretação. Às vezes, nossas imagens são quase tão claras quanto as imagens médicas. A diferença entre desânimo com sismogramas de explosão nuclear e excitação com sismogramas de exploração parece resultar do número e colocação de fontes e receptores.

Em 1967, achei o sismologia da exploração tão encantador que, mesmo com os preços do petróleo em US $ 3-4 / barril, decidi me tornar um sismólogo novamente. Entrei com todas as minhas energias e, depois de alguns anos, criei uma equação de onda unidirecional e um método de imagem de migração de diferenças finitas que foi desenvolvido e vendido por muitas empresas de contratação geofísica. Eu conseguiria algo fora disso? Sim, obtive o consórcio industrial conhecido como Stanford Exploration Project, SEP, que hoje paga pelo meu 15 Doutorado. estudantes, e eu não escrevi outra proposta desde 1973. Ao longo dos anos guiei cerca de 40 doutores, a maioria dos quais entrou na indústria.

Hoje, fazemos a maior parte do nosso trabalho de rotina em estações de trabalho e antes disso nós tínhamos um VAX e eu primeiro comprei um computador, um PDP-11 em 1976, para o qual tivemos a primeira licença UNIX no Stanford Campus. Meu primeiro super computador foi um FPS-AP-120B que mantivemos por sete anos, 1977-85. Tivemos um primeiro ano ruim com o AP. Eu sempre soube sobre defeitos de hardware e defeitos de software, e naquele ano eu aprendi sobre defeitos de documentação, pois tentamos conectar essa máquina ao UNIX. Mais tarde, tivemos muitos bons anos com os estudantes abordando com entusiasmo o micro-código e o encadernador de função vetorial e fizemos algum trabalho de imagem de terra realmente bom. Nos últimos anos, eu queria juntar o AP, mas todos os estudantes estavam contra mim. No verão passado, 10 anos após a partida do nosso AP-120B, encontrei um dos meus ex-alunos e perguntei-lhe: "estava certo sobre o AP ou os estudantes estavam certos?" Ele me disse que eu estava certo. Ele disse: "na época, gostamos, estávamos ocupados, sentimos que estávamos realizando algo". Agora é claro que todo esse código é inútil.

Meu segundo super computador era um Convex. Durou 7 anos também. Como o AP, conseguimos isso muito cedo. Tivemos o primeiro na indústria do petróleo, quase tivemos o primeiro a ser vendido, depois que a Agência de Segurança Nacional comprou os dez primeiros aproximadamente. Quando compramos esse modelo muito cedo, não consideramos essa empresa Convex desconhecida ser uma grande aposta, pois tínhamos cerca de 7 benchmarks convincentes. Ele superou o nosso VAX por um fator de cerca de 12 e achamos que a empresa certamente trabalharia por muito tempo. Outra coisa boa, além de executar decks empoeirados, o Convex tinha o UNIX mantido pelo fornecedor. Whoopee! Com certeza foi ótimo esquecer de manter UNIX nós mesmos.

Hoje temos um Think-Machine CM-5. Poderíamos ter um super computador gratuito de um vendedor diferente, se tivéssemos aceitado um que exigisse que nossos programadores fizessem a passagem de mensagens. Mas achamos que a passagem de mensagens teria diminuído a maior parte de nossa pesquisa para um rastreamento. Por outro lado, gostamos da idéia de codificação em paralelo Fortran. Mais de metade dos meus alunos voluntariamente aprendem e usam Fortran paralelo. Um fornecedor particularmente de alta pressão obteve de nós um simples programa de referência Fortran 77, ondas escalares em uma mídia homogênea por diferenças finitas explícitas. Após uma semana ou duas, sua empresa correu o programa com uma velocidade recorde, mas eles não obtiveram a resposta correta. Hoje, há uma grande iniciativa SEG-DOE e, do que eu ouvi, quatro super computadores superaram quatro respostas diferentes nos primeiros quatro meses de esforço. Seu teste foi basicamente o mesmo programa direto em 3-D, mas com velocidade variável. A mensagem que passa super computadores não é para aqueles de nós que estão lutando para inovar. Eles são para equipes altamente profissionais com foco em uma tarefa que eles planejam executar sem alterações por muitos anos.

Começando a trabalhar

Agora que todos vocês conhecem algumas das minhas experiências e preconceitos, deixe-me abordar alguns dos objetivos desta conferência.

Eu acho que a computação paralela virá em seu próprio ritmo e nós sismólogos não precisamos fazer nada sobre isso. Quando estiver pronto, vamos usá-lo. Nós temos questões maiores sobre as quais gostaria de falar, e são coisas sobre as quais podemos fazer algo e são coisas que precisamos fazer juntas. Eu acho que a questão principal é como queremos trabalhar um com o outro?

Há quatro ou cinco anos, meu telefone tocou e foi o professor XX quem lançou uma grande disputa sobre o professor YY, cujo trabalho, ele disse, era atraente com fascinantes implicações da ciência da terra, grandes concessões, ótimos empregos para estudantes de graduação, o único problema era , depois de muitos anos de tentativa, o professor YY (e toda a instituição) não conseguiu reproduzir o trabalho do professor XX. "Não foi um grande escândalo?" Foi-me perguntado. Pensei nisso um pouco e eu disse: "Sim, mas eu tenho um escândalo muito maior muito mais perto de casa. Graduí-lo por dois anos por dois anos e não acho que eu possa reproduzir mais daquele trabalho também. " As pessoas podem dizer: "Claerbout, sua cabra velha e calva branca, naturalmente, você não pode reproduzir esse trabalho", mas eu respondo que os alunos também não podem reproduzir facilmente o trabalho uns dos outros e, muitas vezes, um ano depois, eles não conseguem reproduzir seus trabalho próprio!

Quando a SEP faz um trabalho excepcionalmente bom, muitas vezes pergunto aos patrocinadores: "Você já experimentou nosso processo X mais recente e melhor?" A resposta do patrocinador é muitas vezes: "Bem, nós pensamos que nos levaria 3-4 meses para apanhar onde você parou e simplesmente não temos tempo e mão-de-obra.

Toda essa experiência me diz que a reprodutibilidade da pesquisa é um problema humano profundo e nunca esperei que existisse qualquer solução tecnológica simples. A reprodutibilidade é um problema especialmente irritante para mim, com estudantes de pós-graduação que se formam tão freqüentemente. Geralmente, leva mais de um ano para que o próximo alcance o que o anterior deixou. A reprodutibilidade da pesquisa também me atormentou na tentativa de escrever livros didáticos agradáveis que incluíam teoria, código, dados e resultados.

Para minha própria surpresa, alguns meses depois, resolvi o problema da reprodutibilidade da pesquisa! Isso foi há cerca de 3 anos. Realmente resolvi-lo e vou lhe dizer como o fizemos. A solução surgiu dos meus esforços para alcançar a transferência de tecnologia.

Transferência de tecnologia e reprodutibilidade de pesquisa

A idéia básica de reprodutibilidade de pesquisa é que, em cada título de figura em um documento de impressão, devemos anexar um ponteiro ao script de comando e ao diretório do computador onde essa figura é criada. Uma razão comum para a não reprodutibilidade é que as pessoas perdem esse local. A maneira como colocamos isso em prática é que fizemos um mapeamento entre uma estrutura de diretório e um documento. Cada figura tem um nome. O autor cria a estrutura do diretório, incluindo um target makefile para esse nome de figura. O autor também usa convenções de nomeação de arquivos para que o arquivo de trama final e todos os arquivos intermediários sejam facilmente identificados e removíveis pelas regras do makefile. Após a limpeza, vemos apenas programas originais, arquivos de parâmetros e dados. Após a construção, vemos arquivos intermediários e arquivos de plotagem.

Na engenharia, um artigo publicado é um anúncio de bolsa, mas o documento eletrônico pode ser a própria bolsa de estudos. Quarenta anos atrás, os dados eram "marcas de lápis no papel" e a teoria era alguns símbolos gregos. Os documentos em papel eram adequados. Não mais. Agora precisamos de documentos eletrônicos.

Existem muitos detalhes de implementação que diferentes pessoas fariam de forma diferente. Por exemplo, no SEP, vemos o documento de impressão em uma tela e cada legenda de figura tem um menu para queimar e reconstruir essa figura, etc. Achamos que esta disciplina é um pequeno encargo extra para o pesquisador, mas depois de entenderem, a maioria deles como manter seu trabalho dessa maneira. É muito mais fácil do que aprender algo como LaTeX.

Nós tomamos isso mais longe e agora colocamos muitos documentos em CD-ROM. Estamos a fazer a nossa 9ª distribuição de CD-ROM esta semana. Os relatórios são patrocinados. Livros e teses para o público em geral. Um CD-ROM contém 600 megabytes e meu livro de texto é de cerca de 1 megabyte de texto, de modo que um CD-ROM, que pode ser fabricado por um dólar, manterá todas as teclas que você pode digitar durante toda a vida. Eu acho que nossos CD-ROMs são muito bem sucedidos para nós, trazendo novos alunos de alta velocidade muito rapidamente. O CD-ROM é decepcionante, no entanto, como meio de publicação para computadores UNIX. Em primeiro lugar, nunca houve uma grande demanda por teses e relatórios de pesquisa. Então, os fabricantes não nos forneceram a ferramenta básica que o Macintosh oferece aos seus desenvolvedores. Você não pode simplesmente abrir um disco compacto em uma máquina UNIX e clicar em um ícone. Você precisa ser superusuário. Você precisa fazer algumas operações tediosas com árvores de links. Os fabricantes do UNIX deixaram a bola no CD-ROM, então eu acho que o futuro real da publicação acadêmica está em redes. Muito ruim, pois leva muito tempo para transmitir um CD-ROM de 600Mb em quase qualquer rede.

Ok, então, deixe-nos falar sobre trabalhar uns com os outros usando redes. A maioria de nós conhece o correio eletrônico e o FTP (protocolo de transferência de arquivos).

World Wide Web, Mosaico e HTML

Você já ouviu falar de World Wide Web, Mosaic e HTML (Hyper Text Markup Language) desenvolvido no CERN (o centro de física europeu) e NCSA (Illinois super computer center)? Deixe-me descrever isso. Eu sou apenas um iniciante, mas vejo que muitos grupos fizeram grandes avanços. Imagine o diretório inicial de cada pessoa com uma página de texto nesta linguagem de marcação especial. Você prepara isso com qualquer editor de texto e com algumas instruções. Usando o programa de mosaico, você vê este documento na tela. Você vê palavras coloridas e sublinhadas. Você clica neles. Clicando, o salta para outro lugar em seu próprio documento ou para outro documento no seu computador ou no computador de outra pessoa. Você pode fazer um botão no seu documento para saltar para outros documentos, como a página inicial da Universidade de Stanford ou a da GSA (Geological Society of America). Para fazer isso, você só precisa conhecer seu endereço. A partir desses documentos, você pode chegar a documentos de hipertexto tão desconhecidos em todo o mundo (e preencha seu catálogo de endereços enquanto viaja). Outras pessoas podem chegar à sua página inicial se você lhes der seu endereço. Agora, muitas pessoas estão fazendo esses documentos HTML. Devemos admitir que a GSA está à frente da AGU e SEG. A oceanografia possui HTML bem desenvolvido. A sismologia parece desorganizada. Eu esqueci de dizer que esses documentos HTML podem incluir imagens a cores e muitos deles. Muitas instituições fazem páginas de frente muito atraentes. A Hewlett-Packard oferece um bom guia para seus produtos. Se você não começou a navegar nas redes, você tem uma emoção à frente. Estamos apenas começando no meu grupo. Você pode ampliar e ler nossas biografias e pressionar um botão e ver nossos retratos. Estamos planejando programar programas. Já viu um catálogo da faculdade onde um professor precisa inserir a descrição do curso em algumas linhas em uma coluna de texto estreita? Com o HTML emergente, esses velhos tempos estão passando rapidamente. Os estudantes em potencial queixam-se sobre a falta de detalhes em nossas páginas de origem. Eu tenho dois livros didáticos que estão agora esgotados. É uma tragédia pessoal para um autor quando a editora diz: "nós apenas vendemos 50 por ano e agora ficamos sem estoque, então não vamos fazer outra impressão". Estou planejando [concluído em 12 de outubro] para colocar meus livros de texto fora da impressão na net, gratuitos, anunciados pela World Wide Web. Um documento HTML pode ser seu anúncio pessoal para o mundo, sem nenhum custo para você, com o máximo de detalhes que você quiser, que as pessoas possam procurar com mais facilidade do que em uma lista telefônica. Estou certo de que este meio explodirá em popularidade.

Não precisamos de uma enorme imaginação para vermos que, eventualmente, poderíamos usar redes para distribuir pesquisas REPRODUÍVEIS. Em outras palavras, você pressiona um botão em seu computador e ele agarra uma figura fazendo o diretório do meu computador. Queremos isso o suficiente para começar a trabalhar nisso? Em caso afirmativo, nossa comunidade deve começar a definir um padrão para um documento reprodutível. A definição de Stanford é apenas um começo. O SEP não pode definir um padrão sem que outros grupos apresentem suas necessidades e idéias conflitantes. Eu sonhei que eu era o diretor da NSF e que eu exigiria pesquisa financiada publicamente para ser reprodutível dessa maneira.

Não mencionei bases de dados. Estes geralmente são muito grandes para redes, mas HTML deve ser usado para anunciar a existência de bases de dados e distribuir amostras deles.

Teoria inversa geofísica

A inversão é outra área em que devemos ser capazes de cooperar de maneira muito melhor do que fazemos hoje. Talvez eu tenha dito anteriormente que a inversão não funciona. Bem, o que eu deveria ter dito é que com certeza temos muitas decepções quando realizamos esse tipo de atividade. Livros de texto (incluindo os meus) têm um número desanimadoramente pequeno de exemplos de boa qualidade.

Há vinte anos, comecei a trabalhar em imagens sísmicas, cerca de dez anos atrás, comecei a entender a relação da imagem sísmica industrial com a teoria inversa geofísica. Vou explicar isso agora em poucas palavras. Uma imagem sísmica é aproximadamente um milhão de pixels, cerca de mil por mil. O espaço do modelo tem um milhão de parâmetros. O processamento de dados padrão industrial pode ser considerado como aproximado do operador inverso pelo adjunto, a transposição da matriz. Armado com esse conhecimento, você poderia esperar que muitos de nós tivéssemos feito uma fortuna pessoal, revolucionando a indústria de imagens sísmicas através da inversão. Obviamente, isso não aconteceu, e eu não estou tendo um tempo fácil chegando até mesmo modestas melhorias. Os pesquisadores podem estimular projetos de inversão elaborados em um sucesso aparente, mas não é fácil passar esses processos junto aos consumidores.

Algumas das dificuldades com inversão são inerentes à besta, dividindo-se por zero ou chegando de alguma forma com uma covariância modelo e um esquema confiável para a iteração não linear. Nunca menos, acho que algumas das dificuldades com a inversão podem ser superadas por nós trabalhando juntos de maneiras mais efetivas e vou tentar explicar como.

Linguagem computacional C++

Um problema com Fortran é que parece exigir que o praticante seja um especialista em sismologia, além de ser um especialista em teoria de otimização. A combinação é muito difícil para quase todos. Algumas pessoas encontraram alívio parcial por uso extensivo de Mathematica e Matlab. Eu aplaudo esses esforços, mas acho que precisamos de um vínculo mais flexível entre metodologia de sismologia e otimização não linear. O que precisamos é uma maneira de os sismólogos trabalharem com esses outros especialistas numéricos sem que nenhum dos dois grupos precise saber muito sobre o que o outro grupo faz. A seqüência de chamada em um programa FFT é um exemplo de uma interface entre um especialista numérico e um sismólogo onde nem precisa saber nada sobre o outro. A interface para inversão é muito mais complicada do que uma simples seqüência de chamadas Fortran.

Esta é exatamente a questão abordada por linguagens modernas orientadas a objetos, como o C ++. "Informação escondida", eles chamam isso. O que o sismólogo deve fazer é formar todas as partes atômicas dos operadores e indicar como os operadores são construídos como cadeias de peças atômicas ou como operadores particionados. O que a infra-estrutura da biblioteca C ++ deve fazer é fornecer os operadores adjuntos ao reverter as cadeias, convertendo os operadores de colunas em operadores de linhas. O que o Especialista Numérico deve fazer é fornecer esquemas de otimização em algumas dessas linguagens de informação, como C ++. Meu grupo tem lutado com isso há 2-3 anos e recentemente iniciamos uma cooperação com o grupo de Bill Symes na Rice University. Não estamos achando isso fácil, mas temos uma fé profunda nessa direção.

Minha visão do futuro é que o Fortran paralelo será bom para aquelas pessoas que façam modelagem para frente e aqueles que processam dados por métodos bastante padronizados, mas para aqueles de nós que estão lutando com o desenvolvimento e inversão de algoritmos, algo como C ++ será melhor, mas somente depois de nós primeiro desenvolver o quadro básico. Alguém quer ajudar?

Conclusão

Em conclusão, acho que os sismólogos devem discutir o conceito de pesquisa reprodutível em relação à rede. Nossa comunidade deve começar a definir um padrão para um documento reprodutível. A definição Stanford SEP é apenas um começo.

Para terminar, agradeço aos organizadores por nos juntar e espero que possamos trabalhar mais juntos no futuro.