| E' fuori discussione che la causa
    prima degli tsunami debba essere ricercata soprattutto nei terremoti. Qualche volta ci
    mettono del loro anche le eruzioni vulcaniche e altri avvenimenti più o meno
    imprevedibili (vedi l'episodio avvenuto a Lituya Bay nel 1958). A memoria d'uomo,
    comunque, non si ricorda proprio nessuno tsunami provocato dalla caduta di un oggetto
    celeste. Nonostante questo, però, lo
    tsunami da impatto non può essere considerato completamente estraneo al nostro pianeta,
    se non altro perchè la maggior parte del globo terrestre è occupata dalle distese marine
    e questo le rende il bersaglio privilegiato di un potenziale oggetto celeste. 
    Una seconda considerazione ci viene suggerita dall'estrema pericolosità che un simile
    avvenimento riveste per la vita umana. Gran parte della popolazione mondiale, infatti,
    vive in prossimità delle coste e tali insediamenti verrebbero letteralmente spazzati via
    dalla potenza dell'onda innescata dall'impatto di un oggetto in mare (per un'analisi più
    accurata si può consultare la pagina Tsunami da impatto). 
    A differenza di quanto avviene per un impatto
    sulla terraferma, però, le indicazioni relative agli tsunami da impatto sono quasi
    inesistenti. Ci sono dati oggettivi che indicano come in passato si siano certamente
    verificati tsunami di smisurata potenza, ma nulla che possa collegarne l'origine ad un
    impatto celeste. Siamo ben lontani da quanto avviene per gli impatti sulla terraferma, le
    cui cicatrici (i crateri) consegnano agli studiosi un'enorme mole di indicazioni sulla
    natura dell'oggetto celeste, sull'epoca dell'evento e sui parametri fisici che lo hanno
    caratterizzato. 
    Se si vuole capire qualcosa di più sul meccanismo dello tsunami da impatto l'unica strada
    percorribile è quella della simulazione computerizzata. 
    I primi importanti lavori in questa direzione sono senza dubbio quelli di Jack Hills e
    Chales Mader (Los Alamos National Laboratory) e di Dave Crawford (Sandia National
    Laboratories) presentati alla comunità scientifica a metà degli anni '90. 
    Le simulazioni dell'evento erano effettuate connettendo assieme i risultati di tre
    differenti programmi: il primo si occupava di simulare l'impatto e la creazione della
    cavità, il secondo era dedicato a studiare come il collasso dei muri d'acqua innescasse
    lo tsunami ed il terzo, infine, seguiva il propagarsi dell'onda nell'oceano. Simulazioni
    efficaci, ma con qualche difetto: la maggiore fonte di errore era proprio il passaggio dei
    dati da un codice all'altro. 
     Per eliminare ogni possibile errore
    dovuto alla cattiva comunicazione dei tre moduli tra loro sarebbe bastato riunire in un
    unico codice l'intero processo di simulazione: soluzione quasi banale... a parole. 
    La realizzazione pratica aveva però bisogno di interventi tutt'altro che banali. 
    Il processo, infatti, avrebbe comportato non solo l'ovvia riscrittura del software, ma la
    ben più importante revisione dell'hardware per la potenza di calcolo che la nuova
    simulazione avrebbe richiesto. 
    A portare a compimento l'intero processo ci ha pensato ancora un team del Los Alamos
    National Laboratory, utilizzando la potenza di calcolo del supercomputer ASCII Blue
    Mountain (vedi immagine) e dell'ASCI White Machine del Lawrence Livermore National
    Laboratory. 
    Responsabili del progetto erano Galen Gisler e Bob Weaver del Los Alamos Thermonuclear
    Application Group e Michael Gittings della Science Applications International Corporation. 
    I loro risultati sono stati presentati nel corso del Meeting dell'American Astronomical
    Society tenutosi ad Albuquerque il 5 giugno 2002. 
    La simulazione ha preso in considerazione sei differenti scenari nei quali cambiavano le
    dimensioni e la composizione del proiettile spaziale. La velocità dell'oggetto non era un
    parametro variabile, ma era stata fissata in 20 km/s (72 mila km/h). Stessa scelta univoca
    per la zona-bersaglio: un generico oceano con acque profonde 4500 metri. 
    Sei dunque le simulazioni effettuate, ciascuna caratterizzata da un differente valore del
    diametro dell'oggetto (un chilometro, 500 metri e 250 metri) e della sua composizione
    (metallica e rocciosa). 
    Galen Gisler, uno dei responsabili informatici
    delle simulazioni, riassume così i risultati raggiunti: "Notizie buone e cattive
    allo stesso tempo. Buone perchè dalle simulazioni risulta che l'onda provocata
    dall'impatto viaggia circa il 25% più lentamente di quanto avevano previsto le precedenti
    analisi. E questo potrebbe risultare fondamentale per consentire ad un maggior numero di
    persone di spostarsi verso zone più elevate sfuggendo lo tsunami. La notizia cattiva è
    purtroppo che l'altezza delle onde risulta raddoppiata rispetto alle precedenti
    simulazioni." 
    Per essere più concreti: mentre la velocità dell'onda prevista da precedenti analisi era
    di circa 800 km/h, nei nuovi calcoli si aggira intorno ai 600 km/h. 
    Gli stessi calcoli, poi, suggeriscono che l'onda iniziale potrebberaggiungere un'altezza
    di circa 800 metri, ma questo valore si ridurrebbe di due terzi già a una sessantina di
    chilometri dal punto dell'impatto. 
    Per seguire con precisione lo sviluppo dello tsunami dal punto d'impatto fino alla costa
    più vicina era necessario costruire un modello che descrivesse al meglio le interazioni
    tra acqua e aria e tra acqua e superficie dell'asteroide. Il modello doveva inoltre essere
    in grado di seguire l'azione dell'onda d'urto che si diffondeva nell'oceano descrivendo
    nei dettagli la propagazione delle onde di tsunami a varie distanze dalla loro origine. 
    La sfida più ardua per il team è stata l'accurata modellazione della propagazione delle
    onde acustiche all'interno dell'asteroide al momento della sua vaporizzazione.
    Inizialmente sembrava proprio un ostacolo insormontabile: l'impiego sia dei nuovi
    programmi che di quelli precedenti forniva infatti risultati fisicamente inaccettabili.
    Solo un successivo affinamento del codice ha permesso di descrivere accuratamente il moto
    delle onde scustiche. 
    L'intera simulazione ha richiesto il calcolo di più di 200 milioni di distinte celle. Un'
    enorme mole di calcoli che ha tenuto occupati per tre settimane i due supercomputer di Los
    Alamos e del Lawrence Livermore Laboratory. Se fosse stato utilizzato un singolo
    processore i calcoli l'avrebbero impegnato per oltre un milione di ore. 
      
    L'immagine qui proposta è stata realizzata
    estraendo 9 fotogrammi significativi dal filmato della simulazione. Cliccando
    sull'immagine si può accedere ad una versione più grande, mentre il filmato
    originale (formato QuickTime) è scaricabile dal sito del Los Alamos National Laboratory
    al link http://www.lanl.gov/worldview/news/tsunami.mov  
       |