La chimica del futuro e il futuro della chimica – XXIII Carnevale della Chimica

E così siamo finalmente e forse un po’ tardivamente giunti alla 23esima edizione del Carnevale della Chimica, il 23 è un numero primo sicuro e felice, in biologia è emblematico del numero di cromosomi nelle cellule germinali umane  (quando le altre ne hanno 23 x 2 = 46), mentre in chimica rappresenta il numero di massa atomica dell’isotopo stabile di sodio e il numero atomico del vanadio, un elemento i cui sospetti poteri antidiabetici fanno prospettare una nuova classe di composti con promettenti capacità terapeutiche e caratteristiche farmacocinetiche tali da lasciare un’ottimistica speranza in questo frangente per il prossimo futuro. 23 è anche l’esponente in base dieci applicato nel numero di Avogadro (6,022 · 1023) che ci ricorda come ordine di grandezza, quante sono le particelle contenute nell’unità di misura definita dai chimici con il nome di mole, questo dovrebbe essere anche un monito per tutti gli omeopati come limite fisico oltre il quale non è più possibile concepire una diluizione estrema, ove si può solo fantasticarla.

Se la risposta alla domanda fondamentale sulla vita, l’universo e tutto quanto nel romanzo di Douglas Adams Guida galattica per gli autostoppisti non fosse stata 42, potrei tranquillamente azzardare che il numero 23 si adatterebbe anche meglio, Walter Sparrow (magistralmente interpretato da Jim Carrey nel film “Number 23” ci avverte che

“Non esiste il destino. Ci sono solo scelte da fare. Alcune scelte sono facili, altre no. E sono quelle che contano davvero, quelle che fanno di noi delle persone.”

E la chimica (insieme alle scienze tutte) progredisce grazie alle scelte degli stessi uomini, che si prodigano per assicurarci un futuro migliore, impegnati costantemente nella risoluzione di problemi complessi e di ampie ripercussioni in un mondo sempre più caotico e affetto da ritmi frenetici. Secondo alcuni autorevoli pensatori provenienti da vari settori della ricerca è necessario partire da ciò che sappiamo dell’imminente futuro. Sappiamo che per il 2050 la popolazione mondiale aumenterà di un paio di miliardi di individui e che il 75% abiterà nelle città contro l’attuale 50%. Ciò si traduce in un esplosione di consumi, che aumenteranno ulteriormente lo sfruttamento di energia da risorse non rinnovabili con gravi ripercussioni se non verranno introdotte alternative sostenibili al più presto. Maggiori densità urbane comportano maggiori rischi di pandemie, aggravati da un invecchiamento dell’età media a livelli critici. Chiaramente questa è solo una sintesi estrema.

Dovrebbe bastare solo questo scorcio di scenario plausibile dell’anno di grazia 2050 per concordare unitariamente che l’obiettivo da porci oggi è quanto mai impegnativo: chiunque sulla Terra dovrà avere il diritto ad una vita sicura, salutare e appagata dalla simbiosi con il nostro pianeta. Per raggiungere questo obiettivo si ritiene diffusamente che la chimica, tra le altre scienze, giocherà un ruolo primario nello svolgimento di questa visione del futuro. Ma chi sono i futurologi della chimica?

Continua a leggere

Previsioni per il nobel per la chimica?

La ricerca sui ribosomi ha fruttato un Nobel per la Chimica nel 2009.

Nel 2009 gli statunitensi Venkatraman Ramakrishnan, Thomas A. Steitz e l’israeliana Ada E. Yonath hanno meritato il premio Nobel per la Chimica per le loro ricerche (svoltesi ben 10 anni fa) sulla struttura e sulle funzioni dei ribosomi, quei piccoli organelli cellulari che provvedono alla sintesi proteica.

Come spesso accade in queste occasioni, nell’immediato periodo che precede la premiazione, le voci più o meno autorevoli si esprimono in proposito, scommettendo sulla vittoria del candidato in base a semplici intuizioni o architettando ingegnosi pronostici con tanto di fattori penalizzanti o probabilità favorevoli, corredando le scelte con tanto di previsioni da botteghino.

E’ quello che ha fatto Paul dal suo blog ChemBark che punta tutto sulla Spettroscopia e applicazioni con il laser, dagli autori Dick ZareWilliam E. Moerner, dato a 6 contro 1.

Continua a leggere

La NASA annuncia piogge di rane a pois e cumuli di elefanti rosa per il 2013!

Orde di elefanti dal cielo...

Non ci credete? Beh, a dirlo è stato proprio il suo portavoce in persona, che mi ha passato la notizia sottobanco, e ha aggiunto ulteriori succulenti e incredibili retroscena. Ci saranno tempeste di piume, venti eolici, uragani di solerzia, sballi entropici, le crune entreranno nel mondo dei cammelli e Emilio Fede diventerà direttore del TG3.

Sarà tre volte Natale e festa tutto il giorno, anche i muti potranno parlare mentre i sordi già lo fanno. E si farà l’amore ognuno come gli va, anche i preti potranno sposarsi ma soltanto a una certa età. E senza grandi disturbi qualcuno sparirà. Saranno forse i troppi furbi o i cretini di ogni età.

Continua a leggere

Chimica, ultima frontiera

Lab-on-a-chip su vetro. Imagecredit: Wikimedia Commons

Forse qualcuno potrebbe trovare entusiasmanti alcuni  dei nuovi gingilli che circolano nei laboratori più all’avanguardia, dispositivi che hanno qualcosa di miracoloso, reso concreto dall’ingegnosità e dagli sforzi dei ricercatori delle numerose discipline applicate nei prodigiosi lab-on-a-chip. Questi dispositivi, consentono analisi molto complesse, con applicazioni in tutti i campi della chimica analitica e della chimica clinica. Alcuni modelli sono in grado di controllare campioni acquosi, identificando fino a 25 agenti inquinanti in circa mezz’ora, compresa la loro concentrazione, grazie a un biochip che rileva la risposta elettrochimica di anticorpi specifici. Fra le sostanze rilevate, vi si trova anche l’atrazina, uno dei pesticidi più comuni, rintracciabile anche in concentrazioni dell’ordine delle parti per milione (ppm), tuttavia ancora insufficiente per discriminare il campione secondo i limiti di legge.

La potenzialità di questi “ordigni”, si esprime in tutta la loro complessità per  gli utilizzi dedicati alla biochimica, con tecniche immunoenzimatiche, o con traccianti magnetici in luogo dei convenzionali enzimi, radioisotopi o altri mezzi fluorescenti. Anche le tecniche che impiegano la reazione a catena della polimerasi o PCR, una tecnica di biologia molecolare che consente la moltiplicazione di frammenti di acidi nucleici al fine di ottenerne quantità sufficiente per diagnostica clinica, ma anche in medicina legale, in microbiologia o per l’ingegneria genetica.

1000 parametri nel palmo di una mano. Imagecredit: rsc.org

Un “mostro” analitico, come quello nella figura a destra, sviluppato nell’Università di California, a Los Angeles, è addirittura in grado di tracciare oltre 1000 analiti in situ, sfruttando tecniche di estrazione in fase solida (SPE) e spettrometria di massa integrata. Un portento.

In generale la fabbricazione si avvale di una tecnica che ben si adatta alla produzione di massa, la fotolitografia, un processo simile alla stampa che sfrutta i materiali più adatti al caso, dal vetro al metallo, dalla ceramica alla carta, presumo che anche in questo aspetto non ci saranno limiti, e i costi non sono neanche lontanamente paragonabili con i metodi tradizionali.

A fronte di tutte queste ottime qualità\prezzo\prestazioni e chipiùnehapiùnemetta, non bisogna dimenticare però alcuni importanti aspetti fondamentali, che non è proprio possibile trascurare. Intanto è una tecnologia giovanissima, non completamente sviluppata e testata esaustivamente. C’è ancora molto lavoro da fare. Gli effetti fisici come le forze di capillarità o quelli chimici delle superfici dei canali diventano predominanti e portano i sistemi Lab-on-a-chip a comportarsi differentemente e ogni tanto in maniera più complessa delle strumentazioni di laboratorio convenzionali. I principi di rilevazione non sempre sono calibrati per una trasduzione ottimale, portando ad un basso rapporto segnale-rumore che provoca così un elevato errore analitico. Infine anche se l’assoluta accuratezza geometrica e l’elevata precisione nella microfabbricazione  sono facilmente ottenibili, spesso risultano relativamente povere, se confrontate con le attuali tecniche della meccanica di precisione o altre nanotecnologie, per esempio.

Ricordo che quando iniziai a studiare, non troppo tempo fa, per alcune analisi occorrevano ore, chi ha eseguito una gravimetrica per separare il ferro da una matrice acquosa, con filtrazione sottovuoto e amenicoli pratici vari come la calcinazione finale, lo sa. La tecnica era tutto, era necessario mantenere l’attenzione sempre alta per non incorrere in una ripartenza da zero. Già allora insegnavano a lavorare in doppio, a discapito del tempo e a favore del fatto che la media dei due risultati era più precisa di uno solo.

Una ventina di anni fa in un laboratorio tipico lavoravano numerosi tecnici, spesso specializzati in settori distinti e con competenze approfondite frutto di anni di esperienze e osservazioni che arricchivano la professionalità dell’operatore rendendolo un vero esperto.

Oggi, siamo all’estremo opposto. I laboratori odierni pullulano di kit rapidi,  aggeggi polianalitici senza scrupoli e tecnici solitari che devono fronteggiare le competenze più diverse, dall’automazione integrale delle apparecchiature ai requisiti fondamentali dei laboratori di prova pro-certificazione, dalla gestione dei protocolli analitici più recenti alla comprensione delle nuove tecniche che minano economicamente quelle tradizionali, per una futura adozione. Un compito per nulla facilitato dalla produttività che viene richiesta e messa sempre in discussione, come ad esempio nei laboratori conto terzi. La nuova frontiera della chimica analitica non è tutto oro che luccica, le insidie sono molteplici e spesso incomprensibili, e la riduzione del personale nei laboratori è in rapido declino, una tendenza inarrestabile.

Il rischio principale tuttavia, consiste nell’assunto che queste nuove tecnologie presto sostituiranno completamente la figura del chimico, il povero tecnico di laboratorio. Certamente molti credono ciecamente che un microchip ben congegnato potrà dargli qualunque risposta, quasi come un magico tricorder di Star Trek, pur non avendo alcuna competenza, ma è meglio che non dimentichi che nella maggior parte dei casi solo un chimico esperto potrà interpretare obiettivamente e con perizia quegli stessi dati.

Beninteso, non sono contrario a questo tipo di progresso, tuttavia sarebbe meglio accedervi in maniera sostenibile e con una certa base di umiltà, evitando di soppiantare improvvisamente le tecniche acquisite più tradizionali e che hanno ancora molto da dire.

Per chi vuole approfondire: Lab on a chip Journal, STMicroelectronics, CNR

Il libro è morto, viva il libro!

Navigando per il web, mi è capitato un bellissimo post, che vi ripropongo. L’argomento sviscera la possibilità della fine imminente della produzione di carta stampata, i libri e qualsiasi prodotto editoriale, così come lo conosciamo oggi, non sono mai stati così in pericolo, sempre più minacciati dal diffondersi della stupidità propagata dai media e dall’inedia delle nostre menti che presto non saranno più nemmeno in grado di cavalcare l’immaginazione e la creatività. Oppure no?

Questo ci attende, e quanto segue è solo un segno dei nostri tempi:

questa è la fine della carta stampata
e
i libri sono defunti e noiosi
non si può più dire che
adoriamo leggere
io e i miei amici
non gradiamo il modo in cui sentiamo i libri nelle nostre mani
non è vero che
non seguo le mode
so quello che voglio quando lo vedo e
qualsiasi involucro
è più importante di
ogni contenuto
devo proprio dirti che
il mio livello di attenzione è troppo piccolo per le grandi idee
e non è proprio vero che
leggo tantissimo e mi piace imparare
non mi interessa
e non dovresti mai pensare che
mi preoccupa l’ambiente e la sostenibilità
quello che spero davvero è che
tu apra gli occhi sui miei valori
quello che per me è importante è che
cosa indossa Lady Gaga
e non mi interessa più di tanto
quel che fece Gandhi il secolo scorso
penso che sia incredibile
che tu adesso mi stia leggendo
quello che è più importante per te è
che troverai in ogni caso
clienti
per i tuoi
prodotti
tu penserai che
il tuo lavoro è finito
se ci piace il tuo marchio
lo abbiamo creato per te
su Facebook
sul cellulare
il sottoscritto e i miei amici
il tuo mercato è li per
morire
non pensare che tutto possa
sopravvivere …

it’s the end of the publishing industry as we know it …
… a meno che tu non lo rilegga al contrario!!! (riga per riga)
Questa simpatica “promozione” bifronte quasi palindroma è stata tradotta e adattata dal seguente video:

(video creato da Dorling Kindersley Books)

Non nego che in inglese renda molto di più, tuttavia mi sono divertito a tradurla. Nel post in cui l’ho trovata, era presente anche un altro video molto bello, che spero possiate gradire. Una sequenza animata basata su Going West, un romanzo di Maurice Gee del 1993, che fa sperimentare una suggestiva lettura vivente.

(video creato da New Zealand Book Council)

Ci sono crimini peggiori del bruciare libri. Uno di questi è non leggerli.

Josif Brodski

Fonte: HT: Scholarly Kitchen, fisheye perspective

La “straordinaria amministrazione” del pianeta Giove

Ultimamente è un po’ malato di protagonismo, quindi non perde occasione per far parlare di sé, ispirando le fantasie di molti articolisti e di blogger improvvisati come questo che state leggendo.

La scomparsa della fascia meridionale

Facciamo un breve riassunto:

all’inizio del mese di maggio del 2010, viene denunciata la scomparsa di una delle fasce brune che caratterizzano l’aspetto del pianeta. La prima foto  del 9 maggio proviene da un astronomo dilettante australiano, Anthony Wesley da Murrumbateman, sito nel New South Wales con un telescopio da 14,5 pollici. Wesley era impaziente per il ritorno di Giove nel campo visivo dopo i tre mesi in cui era occultato dietro al disco solare, in quanto nell’ambiente erano già chiari i segni dell’inizio della scomparsa della fascia fin dalla metà del 2009, e l’attesa è stata finalmente premiata!

Un'immagine da Hubble preannuncia l'imminente ritorno della cintura di Giove?

Il fenomeno di dissolvenza si ripete ciclicamente, ma non è possibile prevedere la ricomparsa della fasce,  composte principalmente da ammoniaca solida, fosforo e zolfo, e l’ipotesi più accreditata sembrerebbe attribuirne la causa alla sovrapposizione di una spessa coltre di nuvole che la nasconde. L’ultima volta che si è verificato un tale fenomeno è stato agli inizi degli anni ’70, ma a quei tempi non era possibile osservarlo con le moderne tecniche e le risoluzioni di cui oggi siamo dotati, concedendo così un’occasione rara da sfruttare per approfondire le nostre conoscenze in merito. Alcune recenti immagini sembrerebbero tuttavia preannunciare la ricomparsa della fascia meridionale, grazie alla presenza di una ‘fila’ di incoraggianti macchie brunastre.

La sera del 3 giugno scorso, in maniera del tutto indipendente, lo stesso Wesley insieme a Christopher Go dalle Filippine immortalavano uno strano e relativamente colossale impatto sulla superficie di Giove, lasciando di stucco gli astronomi che si aspettavano una scia di detriti in seguito allo schianto, cosa che accade frequentemente.

Nemmeno con la nitidezza delle visualizzazioni ultraviolette della Wide Field Camera 3 di stanza a bordo del telescopio spaziale Hubble della NASA/ESA è stato possibile trovare tracce o detriti riconducibili al corpo meteorico precipitato. Questo potrebbe significare che l’oggetto non è andato troppo oltre la sua atmosfera, esplodendo probabilmente prima dell’impatto che in realtà potrebbe non essere mai avvenuto.

Giove è il pianeta più grande del sistema solare, una stella mancata secondo qualcuno, e il suo vasto pozzo gravitazionale ripulisce il sistema solare da un gran numero di detriti erranti, proteggendo in qualche modo i pianeti più interni da un’inevitabile e catastrofica pioggia di meteoriti.

Nessun mistero quindi e intanto Giove dall’alto continua a sorridere degli spergiuri degli amanti…

Fonte: Physorg (Hubble scrutinizes site of mysterious flash and missing cloud belt on Jupiter, Jupiter has lost one of its cloud stripes)

Volete scegliere il sesso del vostro bambino?

Anche se non tutti lo ammetteranno facilmente, sono moltissimi a chiedersi se sia possibile, evitando le tecnologie moderne, predeterminare il sesso del futuro nascituro. Circolano le leggende più inverosimili sull’argomento, ma il desiderio di concepire un bambino del genere programmato, a volte è più forte del buon senso.

Fra i cosiddetti “metodi naturali“, ve ne sono alcuni che promettono di influenzare con discreto successo la nascita di un bimbo o di una bambina. Ad esempio il metodo Shettles, in auge fin dagli anni sessanta. Secondo queste teorie, copulare in prossimità dell’ovulazione il più possibile, sposterebbe le probabilità verso i maschietti: le cellule germinali maschili contenenti il cromosoma Y (quello che determina il concepimento di un maschio) sarebbero più piccoli e veloci, riuscendo così per primi nell’intento di raggiungere l’ovulo. Allo stesso modo, attuando penetrazioni di tipo superficiale, favorirebbe la possibilità di concepire una bambina, a causa della maggiore robustezza e longevità dei cromosomi X.

Purtroppo il metodo si è rivelato poco consistente e negli anni non è stata trovata alcuna prova relativa a tali differenze tra i due tipi di spermatozoi, come riportato anche in questo studio di Allen J. Wilcox et al. su The New England journal of medicine, del 1995.

Secondo Allan Pacey, un esperto andrologo, come regola generale l’uomo produce circa il 50% di ciascun tipo, con la sola eccezione di (gravi) casi in cui l’alterazione è provocata dall’esposizione ad alcune sostanze chimiche o radioattive.

Tuttavia, non è proprio impossibile cambiare la sicurezza della casualità, o almeno così la pensa Kathreen Ruckstuhl della Università di Calgary in Alberta, Canada, che insieme ai suoi colleghi ha esaminato una casistica di 16.384 nati a Cambridge nel Regno Unito, determinando che le donne che lavorano in situazioni di elevato stress concepiscono più femmine che maschi. (BMC Public Health, DOI: 10.1186/1471-2458-10-269). Sebbene “l’ago della bilancia” si sposti apprezzabilmente, dal 54% di bambine nate da donne con lavori poco impegnativi, al 47% ottenuto da quelle impiegate in lavori estenuanti, i meccanismi di questi ormoni dello stress sono completamente ignoti.

Inoltre questo effetto sembra attenuato dalla situazione economica del padre, uomini “facoltosi” spostano l’equilibrio verso il maschietto, oppure dalla loro occupazione, ad esempio gli ingegneri potrebbero scommettere su figli maschi, secondo la Ruckstuhl.

Studi recenti inoltre suggeriscono una certa dipendenza dall’alimentazione. Uno studio su 740 donne incinte ha determinato che il 56% delle donne che seguono diete iperenergetiche prima del concepimento, hanno avuto un maschio; solo il 46% di quelle a regime ipocalorico, hanno concepito un bambino. In particolare, una colazione a base di cereali, sembrerebbe sfavorire le femminucce.

Fiona Mathews della Università di Exeter, Regno Unito, autrice dello studio, afferma che i risultati sono in linea a quelli eseguiti sugli animali, i quali hanno maggiori probabilità di prolificare più maschi in situazioni di abbondanza di cibo, mentre i topi con ipoglicemia producono più femmine.

Niente di questo può però essere utile per aumentare le speranze di avere un giorno il figlio di un sesso particolare, la statistica è applicabile solo su campioni di popolazione considerevoli, altrimenti l’incertezza diventa troppo grande per subire anche la più piccola influenza, rischiando solo di sprecare energie preziose che potrebbero essere destinate a più sani principi.

Attualmente l’unico sistema sicuro è quello di una diagnosi genetica pre-impianto, il che dovrebbe ancora essere una pratica illegale in gran parte del mondo civilizzato, oltre che sconfinare indubbiamente oltre il limite della moralità e dell’etica umana.

L’unico consiglio possibile in questo caso è quello di dimenticare ogni metodo farlocco, lasciare fare alla natura e godersi l’ambito risultato. E soprattutto, non lasciate che i semi della discriminazione fioriscano offuscando la ragione.

Fonte: NewScientist

Stephen Hawking e l’alieno quantico

Stephen Hawking insieme a Data, Einstein e Newton sul set di Star Trek

Stephen Hawking, il famoso astrofisico britannico,  ha recentemente esternato la sua preoccupazione per il pericolo che il nostro incontro con esseri alieni potrebbe rappresentare.  A suo avviso, è probabile che si verifichi  una replica fedele di ciò che accadde alla fine del XV secolo dopo che Colombo sbarcò sulle terre del Nuovo Mondo, le Americhe.

Il dottor Steven Hawking dall’alto della sua reputazione, e non per altri motivi come qualcuno ha chiosato, può permettersi di avanzare qualunque ipotesi e teoria, e devo ammettere che ammiro il suo coraggio per riuscire a trattare argomenti tanto popolari, quanto controversi e insidiosi.

Il suo ultimo prodotto televisivo, Into The Universe with Stephen Hawking, il documentario da lui stesso scritto e interpretato per Discovery Channel, è giunto al suo terzo episodio. Il primo, quello che ha suscitato più clamore, era un monito sugli incontri con extraterrestri, in cui noi giocheremo la parte degli indigeni inermi da sfruttare e dominare con facilità.

Il secondo episodio, dal titolo Time Travel: “Is Time Travel Possible?”, disquisisce con chiarezza cristallina di come il viaggio nel tempo sia effettivamente praticabile, almeno a livello teorico. Sarebbe infatti sufficiente viaggiare a velocità prossime a quella della luce per alterare la nostra linea temporale, e trovarci proiettati nel futuro una volta tornati  a casa. L’unico inconveniente è che sarà possibile viaggiare in una sola direzione, i viaggi indietro nel tempo non sono contemplati, purtroppo per il futuro esiste solo un biglietto di sola andata.

Tornando alle ipotetiche presenze ostili, Randy D. Allen, ricercatore del Dipartimento di Biochimica e Biologia Molecolare, Oklahoma State University, si domanda invece se la vita extraterrestre sia sempre basata sulla biochimica, come noi la conosciamo, oppure è possibile che esistano principi completamente diversi che la regolino, chiamando in causa anche la meccanica quantistica.

Immaginate forme di vita che possano manipolare le particelle subatomiche, come noi interveniamo sui componenti biochimici delle nostre cellule. Gli esseri umani sono esistiti come specie per meno di un milione di anni e noi siamo, per quanto sappiamo, l’unica specie sulla Terra che ha anche una vaga idea della principali nozioni di fisica. Abbiamo appena scoperto l’atomo e imparato presto a diffondere la sua forza nel secolo scorso. La nostra comprensione della meccanica quantistica è rudimentale, nella migliore delle ipotesi, ma siamo sul punto di sviluppo di computer quantistici che promettono una potenza di calcolo virtualmente illimitata. E’ possibile che in miliardi di anni dal Big Bang, altri organismi si siano evoluti in un dato luogo e periodo temporale, e che siano già in grado di padroneggiare la meccanica quantistica.

La loro curiosità insaziabile sull’universo (o, come noi, il loro desiderio inestinguibile di sfruttarlo), li ha portati a sviluppare computer quantistici di potenze inconcepibili. Si resero conto che con questi computer, tutta la loro esistenza poteva essere “informatizzata”, tutte le memorie e le esperienze di vita, tutte le emozioni e le motivazioni, tutto potrebbe essere trasferito in un  “cervello quantico collettivo”. In questo modo si varcherebbe un accesso evolutivo in cui  la loro “specie”, anche se biologicamente estinta, potrebbe diventare effettivamente immortale. Si potrebbe così fare a meno di un metabolismo inefficiente che richiede enormi input di energia, gli esseri risultanti non sarebbero soggetti a usura e invecchiamento, ma anche nessuna riproduzione, né morte, e nemmeno più tasse, ironizza il professore.

Non so dove ho già sentito questa storia …

Di fatto si avrebbe a che fare con una coscienza collettiva parallela con possibilità illimitate. Forse, attraverso la supersimmetria o l’entanglement, potranno “vedere” o “sentire” l’intero universo. Forse, avranno acquisito la capacità di manipolare le particelle elementari e saranno in grado di controllare la propria evoluzione e il loro stesso destino. Praticamente, dal nostro punto di vista, dei.

La possibilità di evolvere in una coscienza quantica, naturalmente, dipende da numerose variabili, e richiede che la  civiltà in questione non venga sterminata dal primo impatto con un asteroide, o dagli influssi di una supernova vicina, o da gigantesche eruzioni vulcaniche, o ancora che non venga decimata da una guerra globale per la scarsità di risorse, esacerbata dai cambiamenti climatici.

Infine vi è la possibilità che si potrebbe semplicemente perdere l’impulso scientifico attraverso la perdita di sostegno politico alla ricerca di base e lasciare che la nostra occasione per l’immortalità svanisca come neve al sole, ma non è il nostro caso. Per fortuna.

Fonti:

Journal of Cosmology

DailyGalaxy

Scienze: il futuro inizia … preoccupandosi!

Nessuno può rispondere con certezza alla fatidica domanda su ciò che il futuro ci riserva, ma è possibile azzardare qualche supposizione, basandosi sulle attuali conoscenze e le ipotesi degli esperti in questo campo: i cosiddetti futurologi. Nel campo scientifico e tecnologico, tuttavia l’incertezza è ancora maggiore, data la dinamicità e la vastità delle discipline coinvolte, se Confucio  asseriva che per prevedere il futuro è necessario studiare il passato, in questo campo è d’obbligo sottolineare che a meno di non considerare le teorie del multiverso, ogni previsione è intrinsecamente e inevitabilmente inesatta, anche se si tratta di affacciarsi da una finestra che presenta una visione di soli dieci anni nel futuro. Detto questo, nulla ci impedisce di dare sfogo all’immaginazione, iniziando da uno dei miti più desiderati dell’era post-industriale: l’automobile volante!

Il modello Skycar M400 del 2005, progettato per il decollo e l’atterraggio verticale, costa circa 1 milione di dollari.

Questo veicolo rappresenta il sacro Graal della società futuristica, dove ognuno sfreccia nell’etere in sicurezza con facilità ovunque desideri. Probabilmente avrete visto già decine di video e immagini di prototipi come quello a lato, ma forse non sapete che il primo tentativo risale addirittura al 1917, e molti altri lo hanno seguito. Henry Ford prevedeva l’imminente avvento delle auto-volanti già nel 1940, ma i numerosi fallimenti non confermarono le sue ipotesi visionarie. Nel primo decennio del XXI secolo ancora non si vede nessun mezzo di locomozione privata svolazzare sulle nostre teste, fatta eccezione per gli elicotteri, e anche la NASA ha abbandonato il suo contest che sosteneva la ricerca sulle aeromobili e non sembra che vi siano altre agenzie governative, tranne forse la DARPA, l’agenzia per i progetti di ricerca avanzata per la difesa americana, a promuovere iniziative in tal senso. Troppi sono gli ostacoli che impediscono di raggiungere un risultato sostenibile: costi, gestione dei percorsi di volo, sicurezza, efficienza energetica, addestramento dei piloti, opposizione dei produttori di autoveicoli convenzionali e industrie del trasporto e ultimo non per importanza, l’uso potenziale in ambito terroristico. Senza contare che le peculiarità di volo dovranno essere aggiunte ad un veicolo compatibile al viaggio su ruote.

Il Terrafugia Transition alla EAA Airventure 2008 in Wisconsin, USA.

Infatti, molte delle vetture cosiddette “volanti”, devono essere in grado di poter accompagnare i bambini a scuola, giusto per dirne una, ma anche di intraprendere subito dopo un volo transoceanico per un impegno di lavoro. Inoltre, pensate a quanto potrebbe costare un gingillo del genere, il Terrafugia Transition, che non è un’auto volante, ma un velivolo da strada (road-able plane), spiega le sue ali per un’autonomia di 740 km in volo e 970 km su strada con una velocità massima rispettivamente di 185 e 105 km/h, verrà venduto a partire dal 2011 ad una cifra di poco inferiore ai 200.000 $, dopo le necessarie approvazioni per l’immatricolazione.

Il nostro approccio alla singolarità tecnologica, ovvero quel punto, previsto nello sviluppo di una civilizzazione, dove il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli esseri umani, per molti futurologi si presenterà intorno al 2030.  Esistono diverse concezioni sul come si presenterà in effetti questo evento, alcuni paventano l’evolversi di un’intelligenza artificiale che entri in competizione con gli esseri pensanti, in maniera indipendente e creativa. In altre parole, le macchine supereranno il dominio incontrastato dell’umanità sul nostro pianeta, creando loro stesse altre nuove macchine, migliorate perseguendo la perfezione.

15 differenti liste di cambiamenti paradigmatici per la storia umana, inserite in un grafico in scala logaritmica, mostrano una crescita esponenziale.

Altri ipotizzano una sorta di progressiva ibridazione tra intelligenza artificiale e umana, che confluirebbe in un nuovo organismo, semicibernetico, con grandi capacità di calcolo, e potenzialità pressoché illimitate nelle comunicazioni e nella produttività. Certamente uno scenario fantascientifico e assolutamente speculativo come afferma Douglas Hofstadter, altri sostengono che una sorta di “onda sincrona” dell’innovazione tecnologica prevista da Ray Kurzweil sia imminente. Le principali critiche a queste acclamazioni sono rinforzate dal mancato raggiungimento di tutte le fantasie tecnologiche raccontate dalla narrativa, non abbiamo ancora basi lunari o la gravità artificiale per esempio. Molto interessante, peraltro, l’osservazione di  Jeff Hawkins, il quale sostiene che, anche se fosse possibile creare macchine con intelligenza superiore, la vera intelligenza si basa sull’esperienza e la formazione, piuttosto che solo su una programmazione avanzata ed un’elevata capacità di elaborazione.

La legge di Moore, espressa con l’enunciato “le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiano ogni 18 mesi“, è rimasta valida fin dal lontano 1965, anno in cui Gordon Moore la introdusse, anche se si riferiva ad un aspetto più economico che scientifico. Oggi si pensa che non durerà più di altre due decadi, al massimo, proprio a causa dell’elevato costo che comporta la miniaturizzazione sempre più spinta.

Miniaturizzazione estrema.

Sappiamo infatti che già nel 2014 si supererà il limite dei 20 nanometri per un transistor, ma ogni successiva riduzione sarà troppo cara per una successiva produzione di massa. Non è difficile notare che già ora, l’industria elettronica tende a sfruttare al massimo le attuali tecnologie, prima di investire in nuovi arditi progetti, i  quali comportano il rischio di ingenti capitali per la progettazione di chip di nuova generazione in una affannata corsa all’ultimo ångström.

Cylon vs. CGI

Lasciando alla fantascienza i terrificanti e allo stesso tempo avventurosi scenari prospettati da Skynet e da Battlestar Galactica, emerge tuttavia un’attenzione da parte degli scienziati  sempre più rilevante per ciò che compete la salvaguardia di noi stessi nei confronti delle nostre creazioni robotiche e digitali. Una delle principali preoccupazioni è l’automazione. Verrà consentito ai droni militari ad esempio, di prendere decisioni in autonomia nell’attacco di un bersaglio? Permetteremo che le macchine si replichino senza una stretta supervisione umana? Lasceremo che si spostino accanto a noi con il solo ausilio del loro “pilota automatico”? L’uomo riuscirà sempre ad essere in grado di impartire l’annullamento di una procedura predeterminata, avendo sempre il controllo della situazione?

In una recente conferenza nel settore della robotica industriale, si è posto il problema di come un criminale potrebbe trarre vantaggio dall’abuso di tecnologie come l’intelligenza artificiale, impossessandosi di informazioni riservate e impersonando soggetti reali, o molto peggio. La morale di queste preoccupazioni è che si rende necessario fin da subito porsi queste domande, per non trovarsi spiazzati quando sarà troppo tardi.

Anche se esula dal progresso tecnologico intrinseco, la scienza del domani si interroga su uno degli argomenti più spinosi dei tempi recenti: possiamo far fronte al cambiamento del clima terrestre? Tralasciando, per ora, la questione sull’origine antropica e soprassedendo sui recenti scandali che hanno coinvolto i climatologi dell’IPCC, sembra che ci sia un discreto consenso sull’aumento critico della temperatura terrestre già in atto. Per ora possiamo solo aggrapparci alla speranza di riuscire a far fronte ai disastri più gravi, affrontandone le conseguenze. Il ritiro dei ghiacciai più importanti, l’aumento del numero di cicloni asiatici e della violenza degli uragani, l’innalzamento evidente del livello degli oceani, coinvolgono ogni anno milioni di persone, con immani disastri nelle zone popolate.

Una spiaggia sull’atollo di Funafuti

Tuvalu, una nazione insulare polinesiana, dove abitano più di 12.000 individui, si erge dal mare nel suo punto più alto per non più di quattro metri e mezzo, e il rischio di essere sommersa completamente dalle acque nei prossimi anni sembra essere concreto. Nessuno può onestamente garantire che se da oggi smettessimo di produrre completamente i gas serra, la temperatura non aumenterà più. Anche se l’aumento fosse realmente determinato da una componente antropica, e ammettendo che influenze esterne al nostro pianeta non ne siano la causa principale, secondo le fonti più autorevoli basterebbe la sola presenza dell’anidride carbonica già esistente a garantire il trend termico positivo, che ci porterà a temperature sempre più mediamente “tiepide” nei prossimi anni, fino ai sei gradi in più, temuti per la fine del secolo. Chiaramente non abbiamo molte chance di riuscire a rispondere a questi impellenti interrogativi nel breve periodo, ma se dobbiamo intraprendere una base d’azione efficace, dovremmo sicuramente iniziare a stimolare una collaborazione intergovernativa trasparente, lontana da interessi speculativi e personali, in cui tutto il pianeta si renda partecipe, superando gli attriti, le antipatie e le scaramucce pregresse, sacrificando anche l’orgoglio nazionale in nome di un futuro condiviso e auspicabile, per superare quello che si presenta come una delle più inquietanti e complesse sfide per l’umanità del futuro più prossimo.

Libera traduzione e interpretazione da: HowStuffWorks 5 Future Technology Myths by Jacob Silverman