DIECI ALLA MENO NOVE CONSIGLIA LA LETTURA DELLA RIVISTA:

giovedì 24 settembre 2009

Le due leggi di Moore e la singolarità tecnologica


In matematica se una funzione non è continua in un punto c del suo dominio si dice che c è un punto di discontinuità o singolarità. Al di fuori delle rigide terminologie matematiche la singolarità tecnologica identifica il momento del sorpasso dei sistemi elettronici sull'uomo, in altre parole è il punto di non ritorno in cui l'uomo riuscirà a progettare e costruire, grazie all’indispensabile contributo delle nanotecnologie nel quantum computing o nel DNA computing, il primo computer super intelligente.
Le leggi di Moore possono dare un’indicazione attendibile sui tempi necessari all’evoluzione della sopra enunciata singolarità tecnologica.
Infatti, l’enunciato della prima legge di Moore dice che le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiano ogni 18 mesi.
Nel 1965 Moore intuì che le prestazioni dei microprocessori sarebbero raddoppiate ogni 12 mesi. Dieci anni dopo questa previsione si rivelò ancora corretta e prima dell’inizio del successivo decennio i tempi del raddoppio si allungarono a 24 mesi, periodo che rimase valido per tutti gli anni ottanta.
La legge è stata riformulata alla fine degli anni ottanta nella sua forma definitiva, elaborando una media aritmetica tra le due previsioni precedenti fermandosi ad un raddoppio delle prestazioni dei processori ogni 18 mesi.
Negli stessi anni Arthur Rock osservò con gran timore, vista la sua posizione di finanziatore della Intel, che il costo dei macchinari per la fabbrica di cui era azionista, raddoppiava circa ogni quattro anni. Da qui una prima osservazione su cui fondare una nuova legge, evidenziando il concetto che il costo delle apparecchiature per costruire semiconduttori raddoppia ogni quattro anni.
In seguito, da queste osservazioni, Moore integrò definitivamente la sua legge originaria con una seconda, asserendo che il costo di una fabbrica di chip raddoppia da una generazione all'altra.
Con questa seconda legge si cominciò a ragionare sull'osservazione della dinamica dei costi legati alla costruzione delle nuove fabbriche di chip, poiché questi costi erano cresciuti ad un ritmo superiore rispetto all'incremento di potenza dei processori
Oggi siamo a conoscenza che abbiamo bisogno di circa 10^16 calcoli al secondo (cas) per ottenere un equivalente funzionale di tutte le regioni del cervello. I supercomputer contemporanei sono già a (10^14) di cas e si prevede che raggiungeranno i 10^16 cas verso la fine del 2020.
Ritorniamo al concetto di singolarità tecnologica che fu coniato per la prima volta nel 1993 da Vernor Vinge. Secondo Vinge, entro il 2030, avremo a disposizione le tecnologie necessarie a creare intelligenze artificiali super-umane. Il perfezionamento dello scaling nel campo dell'hardware e l'approfondimento delle ricerche biotecnologiche e nanotecnologiche potrebbe portare alla creazione di computer coscienti, con intelligenza nettamente superiore a quella umana.
Questi perfezionamenti dell'hardware, come è stato detto, sono confermati pienamente dalle due leggi di Moore, la prima per il mantenimento del trend dimensionale costantemente decrescente, la seconda per una costante temporale dell’incremento dei costi che rende fattibile una efficiente programmazione degli investimenti a favore di un miglioramento delle prestazioni di sistemi elettronici sempre più evoluti.
Lo sviluppo di queste tecnologie nanotech porterebbe fra le altre cose, anche alla progettazione di modelli di intelligenza amplificata contraddistinti dall'integrazione biotecnologica tra uomo e telematica verso livelli di intelligenza “post-umana”.
Quindi nella futurologia, una singolarità tecnologica potrà rappresentare un punto, previsto nello sviluppo di una civilizzazione, dove il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli stessi esseri umani.
In ogni caso, il fatto che una singolarità tecnologica possa mai avvenire, è in questo periodo materia di dibattito.

lunedì 14 settembre 2009

I.I.T. un investimento nella competenza multidisciplinare per non ripetere un’altra “Perottina”


Premetto che ho molta stima ed ammirazione per l'attività di ricerca svolta da molti centri di eccellenza dell'Università e degli enti di ricerca ubicati su tutto il territorio nazionale.
Si può, in ogni caso, affermare che, negli ultimi lustri, la ricerca italiana, per mancanza di fondi adeguati, è entrata crisi, e ad eccezione di alcune nicchie di ricerca scientifica, spesso frutto della collaborazione pubblico-privato, università e centri di ricerca pubblici, nel settore dell’innovazione tecnologica, producono sempre meno eccellenze.
Troppa burocrazia, scarso legame con il mondo produttivo, poca meritocrazia, incoraggia la “fuga dei cervelli”, creando una situazione dove se molti dei nostri ricercatori migliori partono, vederne arrivare in Italia da altri paesi è molto difficile.
Il nuovo «Istituto italiano di tecnologia» (IIT), versione italiana del glorioso e stimato Massachusetts Institute of Technology di Boston, va contro questa tendenza, diventando accentratore di competenze italiane ed estere, in altre parole si è realizzato un centro d'eccellenza come quello di Cambridge in Gran Bretagna o quelli di Harvard e Palo Alto negli Usa.
Oggi l'IIT è radicato sul territorio nazionale attraverso una rete di nove poli associati, composta dal National Lab di Genova Morego, dalla SISSA di Trieste, da Politecnico, IFOM - IEO e San Raffaele di Milano, dalla Scuola Normale Superiore e Scuola Superiore Sant'Anna di Pisa, dall’ EBRI di Roma, dal CRIB di Napoli ed infine dal Laboratorio Nazionale di Nanotecnologie di Lecce.
In questa rete l'approccio alla ricerca è di tipo multidisciplinare, infatti, la filosofia operativa dell'IIT promuove, attraverso reciproci scambi tra le piattaforme tecnologiche, l'incrocio di conoscenze e competenze tra fisici, chimici, ingegneri, matematici, biologi, medici, creando un modus operandi indispensabile per affrontare ricerche scientifiche e tecnologiche di altissima complessità. L''attività scientifica è stata affidata a studiosi di riconosciuta fama internazionale, molto conosciuti nei rispettivi settori di ricerca, a seguito di una rigorosa selezione avvenuta anche sulla base della reputazione e dei risultati scientifici prodotti.
La scommessa è quella di creare i presupposti scientifici per dare vita a start up e spin off e sviluppare progetti avanzati a stretto contatto con il mondo industriale.
Per il raggiungimento di questi obiettivi ambiziosi l’IIT è diviso in quattro unità: il Dipartimento di Robotica, Scienze Cognitive e del Cervello, il Dipartimento di Neuroscienze e Neurotecnologie, il Dipartimento di Ricerca e Sviluppo Farmaci, e la Facility di Nanobiotecnologie.
Questi dipartimenti sono finalizzati alla ricerca pura in settori potenzialmente a crescita elevata, con l'obiettivo di conseguire brevetti innovativi di prima generazione, quelli che costituiscono la base per la ricerca applicata, sviluppata poi da altri istituti o dagli spin-off opportunamemente costituiti.
La speranza che tutti questi sforzi economici, organizzativi e scientifici siano utili a non ripetere errori di strategia tecnologica, come il mancato sviluppo produttivo, negli anni sessanta, della Perottina, o l’emigrazione intellettuale dall’Italia di un personaggio come Federico Faggin ideatore del microprocessore Intel 4004.
Nel campo delle applicazioni tecnologiche, le innovazioni costituiscono una rottura col passato, infatti, le nuove tecnologie operano come tecnologie killer rispetto a quelle tradizionali, rappresentando la base di nuovi paradigmi.
La leadership dell'Olivetti nella meccanica dei calcolatori e delle macchine per scrivere aveva attenuato, negli anni sessanta, la capacità di intuire quei deboli segnali, premonitori della imminente rivoluzione microelettronica che avrebbe in poco tempo trasformato il mondo della elettronica applicata.
Ricordo che l’ingegner Perotto realizzò nel 1965 la “Programma 101”, meglio conosciuta come la “perottina”, si trattava di una macchina da tavolo con stampante e tastiera incorporati, del peso complessivo di 30 chili, che usava una scheda magnetica come ingresso ed uscita e la cosiddetta “linea magnetorestrittiva”, al posto dei nuclei ferritici, come memoria, sostituzione quest’ultima che può essere ricordata come il simbolo di un livello scientifico di assoluta avanguardia mondiale.
Questo prodotto informatico, precursore degli attuali pc, adottava un nuovo linguaggio di programmazione, antenato del Basic, basato su sedici istruzioni e stampava su una striscia di carta alla velocità di 30 caratteri al secondo.
Nel 1965 la “ Perottina “ fu esposta al “Bema Show” di New York, che rappresentava una delle più importanti fiere per l’innovazione tecnologica.
Il pubblico di esperti ed appassionati trovandosi di fronte al primo computer da tavolo si entusiasmò a tal punto che ne furono vendute 44000 esemplari.
Alcune Perottine furono acquistate anche dalla NASA, in quel tempo impegnata con le missioni Apollo alla conquista della luna.
Le aziende concorrenti rimasero in un primo momento attonite dalla novità tecnologica, poi cominciarono a copiare i sistemi elettronici del prodotto informatico italiano.
La Hewlett-Packard con la sua proposta “HP-9100”costruì solo un clone della “perottina”, certificandone l’indiscusso primato di originalità progettuale.
L’italiano Federico Faggin, nei primi anni 70 trasferitosi proprio dall’Olivetti, che aveva abbandonato gli investimenti nel settore elettronico dei pc, alla Silicon Valley, sviluppò il primo microprocessore ( Intel 4004 ) contribuendo ad una rivoluzione storica per l’informatica di quei tempi.
Oggi con le nanotecnologie siamo di fronte ad un’altra rivoluzione tecnologica, pari a quella degli anni 70, e sarebbe un vero peccato ripercorrere gli stessi errori che 40 anni fa affossarono un prodotto tecnologico dalle enormi potenzialità economiche e di sviluppo industriale come la “ Perottina “.

lunedì 7 settembre 2009

Nanotecnologie, drug delivery, nanoshell.


Le nanotecnologie applicate alla medicina si occupano di tutte quelle conoscenze e applicazioni che abbiano un utilizzo medico e farmacologico nell'ordine di grandezza dei nanometri.
Gli approcci nanotech, in questo settore, vanno dall'uso medico dei nanomateriali, alla formulazione di nuovi sistemi per la somministrazione dei farmaci, ai biosensori nanotecnologici, al possibile utilizzo, nel medio periodo, della nanotecnologia molecolare.
Molte sono le ricerche sperimentali per la produzione e la caratterizzazione di nanoparticelle che ricoperte con polimeri biocompatibili possano diventare dei carrier efficienti da utilizzare nel drug delivery.
Il drug delivery è lo sviluppo di sistemi alternativi di indirizzamento dei farmaci nell’organismo, avente l’obiettivo di circoscriverne l’effetto biologico su una determinata tipologia di cellule, migliorando l’efficacia e riducendo la tossicità di una terapia.
Quindi il drug delivery rappresenta una delle opportunità più rilevanti per la somministrazione alternativa di farmaci, destinati a quei malati cronici che necessitano di dosi massicce e continue di medicinale, subendo i negativi effetti collaterali derivanti dal loro utilizzo prolungato.
La somministrazione di farmaci, tramite sistemi nanotecnologici di rilascio del farmaco, permette di ottenere vantaggi rispetto alle terapie farmacologiche convenzionali, infatti, l'intero quantitativo di farmaco necessario per una terapia sarà somministrato in una sola volta ed in un modo controllato.
Un altro vantaggio è la possibilità di indirizzare il rilascio del farmaco solamente in una specifica zona del nostro corpo, evitando il contatto potenzialmente nocivo tra il farmaco e gli organi non interessati.
E’ importante analizzare più da vicino i possibili carrier da utilizzare nei sopra descritti processi di drug delivery, infatti, nanosistemi basati su nanoparticelle di oro, di silice, o di ossidi di ferro insieme a dendrimeri (molecole molto ramificate, caratterizzate per la loro perfezione strutturale) e nanoparticelle polimeriche hanno una grande potenzialità come sistemi multivalenti per un impiego sia diagnostico che terapeutico.
Il chiosano, ad esempio, è un polimero di origine naturale derivato per deacetilazione alcalina dalla chitina, ed è stato recentemente proposto quale materiale per il rilascio controllato di farmaci attraverso le mucose, o come altro esempio, ci sono i globuli rossi che potranno essere usati come carrier biologici, sviluppando efficaci sistemi di targeting e delivery di farmaci.
In alternativa si studiano le nanoshell multistrato che sono costituite da un nucleo di silice ricoperto da un sottile guscio dorato. La dimensione, la forma e la composizione delle nanoshell determinano in esse particolari proprietà ottiche che le fanno rispondere a specifiche lunghezze d'onda.
La terapia fototermica sfrutta le nanoshell per convertire la luce in calore, distruggendo in questo modo le cellule cancerose vicine, visto che il calore, molto localizzato, non colpisce i tessuti sani adiacenti al tumore.
In altre parole questi nano-gusci sono realizzati da un nocciolo sferico e da un dielettrico di ossido di silicio, aventi entrambe dimensioni nell’ordine dei nanometri. Il nocciolo è racchiuso in un guscio di oro, dello spessore di alcuni nanometri, che può essere in fase progettuale opportunamente costruito in modo da risuonare con la radiazione della luce incidente nella regione spettrale dell’infrarosso-vicino. In questa regione dello spettro la luce è assolutamente innocua, penetra profondamente nei tessuti e riscalda in modo selettivo le nanoshells irradiate, provocando l’ablazione termica del tessuto con il quale sono a contatto.
Sapendo che l’indice terapeutico (TI) di un farmaco è il rapporto tra il suo beneficio per una data prescrizione, e gli effetti collaterali indesiderati, è possibile mettere in atto su questi nanovettori strategie multiple e simultanee di destinazione, che consentono un guadagno cumulativo nella localizzazione, e la potenziale capacità di raggiungere la soglia desiderata di aumento del TI.
In altri termini, le probabilità di localizzazione di una lesione attraverso meccanismi differenti sono additive, quindi il fatto che la progettazione di nanovettori possa trarre, nello stesso tempo, vantaggi da diversi meccanismi, li rende una strategia terapeutica potenzialmente vantaggiosa.
L'obiettivo di realizzare dispositivi innovativi come i sistemi di drug delivery basati su nanocarrier rappresentati da nanoparticelle (il chiosano) o da nanocapsule (le nanoshell ) o di progettare "micro lab-on-chip" interattivi e controllabili da remoto, in grado di raccogliere e trasmettere dati, ed essere attivi come strumenti di cura dall’interno del corpo del paziente, dimostra l’enorme potenzialità delle conoscenze consolidate nel campo delle nanotecnologie terapeutiche, diagnostiche e farmaceutiche.

giovedì 3 settembre 2009

Nanotecnologie bottom-up incubo crichtoniano ?


Il romanzo di M.Crichton, Jurassic Park, è stato scelto per avere un’idea precisa delle conseguenze di una scorretta applicazione dell’informatica e delle biotecnologie. La valenza fortemente divulgativa e didattica del racconto crichtoniano è rafforzata dalla netta distinzione tra i fautori di una scienza specialistica, dedita al controllo e alla manipolazione atomica degli oggetti e finalizzata alle necessità del mercato, e gli assertori di una scienza alternativa, ecologica, sistemica, al servizio dell’uomo e delle sue esigenze. Una volta studiato ed approfondito il romanzo, esistono tutte le condizioni per dedurre alcune importanti conseguenze.
Se l’informatica e la genetica possono creare nuovi e inaspettati mostri, come i dinosauri redivivi descritti in Jurassic Park, che si ribellano alla natura condizionata dai tecnici, allo stesso modo anche le nanotecnologie applicate alla medicina ed alla cosmesi possono rivelarsi inaffidabili, pericolose e in ogni caso ipoteticamente non controllabili.
In questo articolo si vogliono analizzare alcune considerazioni pro e contro le nanotecnologie bottom-up, ovvero quelle tecnologie che rappresentano il tentativo di costruire entità complesse sfruttando le capacità di autoassemblamento o di autoorganizzazione dei sistemi molecolari, con un approccio di tipo chimico o biologico, potenzialmente in grado, di creare strutture tridimensionali complesse a basso costo e in grande quantità.
Alcuni, parlamentari europei particolarmente attivi sul fronte degli oppositori al nanotech, affermano di essere preoccupati per i trattamenti a base di nanoprodotti nella cosmesi. E’ necessario sapere se effettivamente la dicitura nanosfere adottate da aziende leader del settore, corrisponde all'adozione di nanotecnologie, in questo caso si dovrebbe mettere a conoscenza del consumatore il pericolo che acquistando in buona fede certi prodotti di bellezza si potrebbe fare da cavie, trovandosi a contatto con nanoparticelle che invece di riparare le cellule e far sparire le rughe, possono essere la causa di irreparabili danni fisiologici.
L'associazione internazionale Friends of the Earth, è convinta che il battage da sollevare su questo tema debba avere una propaganda ed un approfondimento per lo meno simile a quello sugli organismi geneticamente modificati.
Anche gli esperti dell'organizzazione ambientalista canadese Action Group on Erosion, Technology and Concentration (Etc) sono preoccupati, denunciando il concetto che se non è possibile controllare gli organismi geneticamente modificati, allo stesso modo diventa tecnologicamente difficile poter agire nei confronti degli organismi atomicamente modificati.
Anche tra i ricercatori, che pure vedono nelle nanotech la cosiddetta «next big thing», ovvero la prossima rivoluzione tecnologica, ci sono protagonisti di primo piano che esprimono la loro preoccupazione, infatti, affermano che se utilizzate con poca cautela queste tecnologie autoreplicanti rischiano di sfuggire al controllo.
La grande maggioranza della comunità scientifica, invece, è ottimista, infatti, sta affrontando con responsabilità la questione, valutando tutte le implicazioni del caso. Per lei tutti i soggetti contrari al nanotech hanno scelto lo scontro a priori, senza conoscere a fondo l'argomento e senza considerare che le nanotecnologie possono essere un efficace strumento per risolvere questioni cruciali riguardanti sia la salute che l’ambiente.
Greenpeace sceglie un atteggiamento più moderato, decidendo di commissionare un'approfondita ricerca agli esperti dell'Imperial College di Londra, i cui risultati dell'analisi a 360 gradi sono stati pubblicati recentemente in un rapporto di alcune decine di pagine, dove si afferma, con estrema sicurezza, che l'allarme non è giustificato.

martedì 1 settembre 2009

DNA Origami aiuterà la legge di Moore.


Origami è una parola giapponese che può essere tradotta in "piegatura della carta"; questa tecnica utilizzata su scala nanometrica, consiste nel flettere, congiungere e ripiegare su se stessi, dei filamenti di DNA.
Il DNA Origami è la prima dimostrazione di un possibile utilizzo di molecole biologiche per l'industria dei semiconduttori. L’industria nanoelettronica sta affrontando difficili sfide centrate sullo sviluppo della tecnologia litografica per dimensioni inferiori ai 22 nm, esplorando obbligatoriamente nuove classi di transistori come i nanotubi al carbonio o nanofili al silicio. Un altro filone di ricerca ha pensato di usare molecole di DNA come impalcature, dette DNA origami, dove milioni di nanotubi al carbonio avrebbero la possibilità di depositarsi e assemblarsi in modelli precisi.
Il declino della legge di Moore è una convinzione che coinvolge numerose personalità del settore elettronico, che sempre più spesso mettono in discussione gli enunciati della celebre regola.
La legge di Moore, definibile più come una supposizione che non una legge scientifica, afferma che l'evoluzione elettronica porta ad un raddoppio della capacità elaborativa dei microprocessori ogni 18 mesi; ad oggi tale supposizione si è dimostrata esatta, ma con il passare del tempo lo scaling tende ad avvicinarsi sempre di più ai limiti fisici della materia, creando i presupposti per nuove sfide tecnologiche, che potrebbero consolidare l’intuizione di Moore.
Infatti, la principale tecnica impiegata per tentare di aumentare le capacità di calcolo dei microprocessori è stata quella di ridurre lo spessore dello strato di ossido che costituisce la giunzione dei transistor e di limitare al massimo lo strato isolante che divide un transistor dall'altro. Esistono, però, dei limiti dimensionali sotto ai quali non è possibile scendere senza compromettere l'effettiva funzionalità del transistor stesso.
Molti sono i pareri che questo processo produttivo, di tipo top down, non possa essere sensibilmente migliorato, e che quindi vada sostituito, determinando conseguentemente un preciso punto di criticità della tecnologia al silicio.
La nascita di nuovi problemi e nuove sfide porterà alla progettazione di innovativi sistemi tecnologici quali il DNA Origami, basato sulle sopra citate impalcature di DNA.
Queste impalcature di DNA sono formate da un filamento che spontaneamente si piega a formare un ottaedro di dimensioni nanoscopiche grande quanto altre strutture biologiche come piccoli virus e ribosomi, costituendo una specie di reticolo tridimensionale molto compatto, formato da dodici bordi, sei spigoli e otto facce triangolari.
La tecnica dei nano-origami è quella di fabbricare i cardini della struttura a partire da una coppia di strati di materiale con spaziature atomiche leggermente differenti. La mancata corrispondenza strutturale provoca una tensione meccanica che flette il cardine, determinando la piegatura spontanea del filamento.
Si è notato come tutti i dodici bordi abbiano la medesima sequenza di neuclotidi, determinando in questo modo delle strutture molto uniformi, adatte ad essere impiegate come elementi base di sistemi più complessi.
Per la cronaca, tra le prossime tecnologie studiate ed analizzate da molti esperti del settore nanoelettronico che potranno avere una crescita esponenziale, convalidando ancora i presupposti della legge di Moore, ci sono le connessioni ottiche, che aumenteranno di otto volte, rispetto ai tradizionali microcircuiti in rame, la velocità di spostamento dei dati tra i semiconduttori; e i chip 3D (quelli realizzati su tre dimensioni), capaci di sfruttare al meglio lo spazio, incrementando la densità dei circuiti, riducendo i consumi energetici ed aumentando le performance; a queste tecnologie aggiungerei anche quella, altrettanto promettente, del DNA Origami.