DIECI ALLA MENO NOVE CONSIGLIA LA LETTURA DELLA RIVISTA:

domenica 20 dicembre 2009

Babbo Natale porterà regali nanotech


L’informatica, l’elettronica e le telecomunicazioni caratterizzeranno, nonostante il perdurare della crisi economica, i regali di questo Natale 2009 con le ultimissime novità tecnologiche che sono sempre più nanotech.
Gli schermi piatti dell’ultima generazione di televisori, i navigatori stradali a schermi oled, i notebook, i videogiochi, i telefonini e le macchine fotografiche digitali sono solo alcuni esempi delle nanotecnologie che avanzano, anche nel quotidiano delle feste natalizie.
Dai telefoni cellulari alle macchine fotografiche e le videocamere digitali, dai riproduttori di musica ai palmari, dagli smart phone, che concentrano tutte le funzioni multimediali in un singolo apparecchio, per finire ai notebook, la domanda di memoria non-volatile è aumentata esponenzialmente, sia per la crescente capacità di memoria contenuta nei sistemi, sia per l’incremento di volume e capacità dei dispositivi di memoria come le carte di memoria e le chiavette USB, utilizzati per immagazzinare e trasferire dati.
Già da novembre l'azienda sudcoreana Lg Electronics ha annunciato che saranno distribuiti, e quindi disponibili sul mercato, gli schermi Am-Oled per televisori.
Questo annuncio produttivo, fatto alla vigilia del Natale 2009, determina la decisione strategica di estendere al mercato delle televisioni la tecnologia Oled, caratterizzata da migliori prestazioni, da una resa più alta di qualità d'immagine, da consumi inferiori e dimensioni più sottili, che renderanno tecnologicamente superati gli attuali schermi a cristalli liquidi Lcd.
Sul mercato potremmo trovare modelli di notebook equipaggiati con le ormai note fuel-cell, batterie funzionanti con liquido combustibile, quale il metanolo, che promettono più autonomia e più rispetto per l'ambiente.
Nella telefonia mobile, grazie ad una elettronica sempre più integrata, i telefonini devono avere, oltre le tradizionali funzionalità multimediali, come quelle che riguardano la possibilità di scattare foto o ascoltare musica, la capacità di ricreare un’esperienza web simile a quella del mondo pc, permettere di consultare la posta elettronica, aggiornare i blog a distanza, localizzare gli utenti e condurli a destinazione.
In quest’ottica, la tecnologia touch-screen diventa l’elemento centrale sul quale costruire un nuovo rapporto fra utente e dispositivo elettronico.
Nokia nel 2008 ha fatto sapere di avere in cantiere un prototipo basato sulle nanotecnologie che potrebbe rivoluzionare il concetto stesso di telefonino. Il concept-phone progettato dal Centro di Ricerca della società finlandese in collaborazione con l’Università di Cambridge, utilizzando la scienza dell’infinitamente piccolo, tenta di portare avanti un’idea di dispositivo elettronico totalmente innovativa, un congegno realizzato con componenti elettronici trasparenti e superfici autopulenti che renderà ancora più affascinati i regali delle future feste natalizie.
Per quanto riguarda i videogiochi non poteva mancare sul mercato un controller capace di regalare la sensazione di giocare con un vero flipper, a questo ci ha pensato Nanotech Entertainment con un accessorio per computer completo di tasti laterali e cursore a molla per lanciare la pallina.
Quindi per registrare e leggere velocemente le informazioni i regali obbligatori sono le memorie flash di cellulari, i lettori Mp3, le macchine fotografiche e le memory card.
Infine, arriveranno con Babbo Natale orsetti di peluche che incorporano nanoparticelle d'argento per combattere batteri ed acari, ma anche asciugamani e calzini di cotone formati da miliardi di particelle d'argento per fare in modo che non emanino cattivi odori.
Buon Natale a tutti.

mercoledì 2 dicembre 2009

“Dieci alla meno nove” partecipa al Carnevale della Fisica divulgando le nanotecnologie


Il Carnevale della Fisica è un’iniziativa ideata dal blog Gravità zero e dal suo omonimo spagnolo, con il patrocinio dell’UAI (Unione Astrofili Italiani).
Questa lodevole iniziativa radunerà il 30 di ogni mese blogger, scienziati e appassionati della materia che si scambieranno articoli, post e segnalazioni.
L’intento di questo incontro in internet è quello di dare maggiore visibilità alle decine di blog e siti scientifici che si annidano nella Rete, per agevolare collaborazioni, “fare della buona scienza” e promuovere la conoscenza della fisica tra i non addetti ai lavori.
Per capire meglio l’evento analizziamo da vicino il blog Gravità Zero che è strutturato come un corporate blog, il cui obiettivo è quello di eliminare la distanza tra chi fa ricerca e il grande pubblico.
Nel suddetto blog gli articoli di approfondimento sulle questioni scientifiche più attuali, si alternano a news di carattere generale e ad articoli di giochi ricreativi e divertenti, rivolgendosi ai ricercatori, agli insegnanti, ai giornalisti e a coloro che svolgono la professione di comunicatore scientifico, dando nelle sue pagine gli spunti e i metodi per "comunicare al meglio le loro ricerche".
Allo stesso modo Dieci alla meno nove, che si propone nella sua mission divulgativa basata nell’essere luogo virtuale dove scambiare idee e news sul mondo delle nanotecnologie, individua con Gravità Zero un comune denominatore nella ricerca di quella visibilità scientifica utile a tutti coloro che ne vogliano usufruire nel nome della cultura e della conoscenza tecnico-scientifica.
E’ interessante verificare la distribuzione geografica delle origini dei contributi recensiti, osservando che il sud di Italia ha inviato solo quattro partecipazioni ( due dalla Sicilia: Palermo e Messina, uno dalla Campania, uno dalla Basilicata ).
Questo dimostra la lunga strada che il sud deve ancora percorrere per annullare il gap di ritardo nella ricerca scientifica e nella sua divulgazione attraverso appropriate reti di comunicazione, rispetto al resto del Paese.
Un ritardo strutturale, già evidenziato nel mondo scolastico con l’indagine OCSE-PISA, molto severa nei confronti degli istituti tecnici e professionali del mezzogiorno.
La speranza che anche attraverso queste efficaci aggregazioni culturali, si sviluppino quelle capacità comunicative, da nord a sud del nostro Paese, per essere sempre più competitivi sia nelle idee che nelle applicazioni scientifiche e tecnologiche che esse propongono.
Ricordo, infine, che il Carnevale della fisica è stato pubblicato oltre che nei prestigiosi portali scientifici, nominati nell’ottimo articolo di Gravità Zero, anche dal portale del distretto tecnologico Veneto Nanotech, che rappresenta un sito di indubbio riferimento nazionale per le nanotecnologie del nostro Paese.

mercoledì 11 novembre 2009

E.N.I.A.C. - gli acronimi a volte ritornano


Per automa di Turing si definisce un insieme di regole che determinano il comportamento di una macchina su un nastro di Input-Output, ovvero di lettura e scrittura. Da quanto esposto, quindi, una macchina di Turing può essere considerata, in grandi linee, come un registratore a nastro che utilizzi una testina di lettura, scrittura e cancellazione. La stessa testina deve avere un indicatore che possa determinare, per ogni passaggio di calcolo, lo stato in cui si trova la macchina mentre sta leggendo il simbolo corrispondente alla cella del nastro sulla quale è posizionata. Il know-how necessario per costruire questo tipo di macchine di calcolo universali che traducevano in realtà la macchina universale di Alan Turing fu raggiunto dall’industria elettronica subito dopo la fine della II guerra mondiale.
In particolare il 16 Febbraio 1946, fu presentato l’Eniac (Electronic Numerical Integrator And Computer), il primo calcolatore elettronico della storia, ponendo in questo modo fine all’epoca dei calcolatori meccanici e introducendo la prima generazione di computer. Per il suo funzionamento servivano ben 18000 valvole termoioniche che a causa dell’elevato calore prodotto dovevano essere sostituite ogni 2 minuti della loro attività.
Questo pantagruelico sistema informatico pesava 30 tonnellate ed era costituito da 42 pannelli posti su tre pareti, la sua memoria poteva contenere 20 numeri di 10 cifre e per le operazioni di input venivano utilizzate le schede perforate, il tutto in 180 metri quadrati di superficie.
Il primo esemplare funzionante di computer era in grado di riconoscere il segno di un numero, poteva confrontare il valore di due o più numeri tra loro, ed aveva la capacità di eseguire le operazioni di addizione, sottrazione, moltiplicazione, divisione e radice quadrata.
In ogni modo, qualche anno prima della costruzione in laboratorio del primo transistor, con l’acronimo ENIAC (Electronic Numerical Integrator And Computer) si considerava il primo computer elettronico della storia.
Ricordo che la ricerca tecnologica per sostituire le valvole termoioniche con un dispositivo più piccolo, dai costi di produzione più bassi ed energeticamente più efficiente, era iniziata già dagli anni trenta e si concluse nel 1947 con l’invenzione del transistor, che per almeno un decennio fu costruito come singolo componente elettronico usando il semiconduttore germanio.
Così come alla fine degli anni quaranta l'attività dell'ENIAC, era interessata al calcolo delle traiettorie balistiche che questo primitivo computer poteva eseguire in svariate situazioni, trovando le opportune soluzioni numeriche di alcune equazioni differenziali correlate, anche nel primo decennio del nuovo millennio ritorna l’acronimo ENIAC, con un altro significato letterale, valido per diversi obiettivi strategici.
ENIAC, al giorno di oggi, è una sigla che sta per European nanoelectronics initiative advisory council, e rappresenta un tavolo di consultazione attorno al quale si confrontano dodici dei maggiori esperti nei comparti scientifici e finanziari interessati alla nanotecnologia.
Questo tavolo di consultazione ha per obiettivo il prossimo livello di miniaturizzazione richiesto per superare la barriera che separa la microelettronica della nanoelettronica, vista la tendenza di raggruppare un numero crescente di funzioni integrate in semplici prodotti commerciali. Questa tecnologia aprirà nuove prospettive nei settori della comunicazione e dell’informatica, con l’introduzione di MEMS in ogni oggetto di uso comune, nei trasporti attraverso l’elettronica integrata per la guida assistita, consentendo una maggiore autonomia dei veicoli ed un controllo più sicuro ed efficace della circolazione stradale, nella salute grazie a nuovi tipi di cure mediche che rendono più comodi i trattamenti a domicilio e che permettono una diagnosi precoce delle malattie.
Inoltre si avranno importanti vantaggi tecnologici nella gestione energetica e ambientale con la costruzione di edifici intelligenti che controlleranno e ridurranno il loro consumo energetico, nella progettazione di piccoli dispositivi intelligenti messi in rete per monitorare e gestire l’inquinamento e i rischi ambientali, e nel settore della sicurezza e del divertimento.
In altre parole la nanoelettronica dovrà costituire un settore strategico per l'Europa, perché offre ed offrirà nel medio termine la possibilità di creare un numero importante di nuove figure professionali altamente specializzate, creando un impulso alla crescita e alla competitività in molti altri settori industriali.
Questa impresa comune mira a promuovere la collaborazione e il coordinamento di sforzi comunitari e nazionali, pubblici e privati, per sostenere la R&S e gli investimenti, attraverso questa concentrazione di intenti si arriverà ad assicurare un migliore sfruttamento dei risultati, infatti, tra il 2008 e il 2013 oltre la metà dei finanziamenti previsti per la ricerca nel campo della nanoelettronica saranno messi subito a disposizione delle imprese. L’obiettivo finale auspicabile si basa sul fatto che ogni euro investito dall’Unione europea dovrebbe generare quasi 8 euro per la ricerca con un importante ritorno finanziario.
Possiamo evidenziare in conclusione, che alla vigilia di un cambiamento tecnologico, come quello dalle valvole termoioniche al transistor, così come quello dalla microelettronica alla nanoelettronica, a volte gli acronimi ritornano.

domenica 18 ottobre 2009

Processo fotocatalitico per innovazioni nanotech nella edilizia


L’inquinamento atmosferico è sempre più fonte di numerosi problemi per la salute di ognuno di noi, di conseguenza è indispensabile trovare nuove soluzioni per migliorare la qualità dell'aria, rendendo migliore il nostro vivere quotidiano.
I fumi di scarico delle produzioni industriali e degli impianti di riscaldamento uniti agli ossidi di azoto contenuti nei gas di scarico delle auto sono tra i principali fattori che determinano una cattiva qualità dell'aria. L’allarme smog dovuto alle polveri sottili, chiamate PM 10 e PM 2.5, non solo danneggia le persone, ma anche i monumenti e gli edifici delle nostre città.
Bisogna evidenziare anche che esiste un inquinamento atmosferico prodotto da cause naturali,
come ad esempio le polveri prodotte dai forti venti che soffiano sui deserti, le ceneri derivanti dai
vulcani, e l’aerosol marino, che in ogni modo contribuiscono al danno ambientale.
Oggi è possibile arginare questi problemi utilizzando un principio attivo contenuto nelle pitture, negli intonaci, nelle murature e nelle pavimentazioni, capace di minimizzare l'inquinamento atmosferico, ed in particolare i biossidi di azoto.
Questo principio attivo è il processo fotocatalitico in grado di riprodurre ciò che avviene in natura durante la fotosintesi clorofilliana, infatti, i catalizzatori contenuti in questi prodotti sviluppano in brevissimo tempo, alla frequenza luminosa di circa 380 nm, una attività ossidativa che alla presenza di luce e aria, trasforma gli inquinanti organici e inorganici in sostanze favorevoli all’ambiente.
Anche in presenza di nuvole, abbiamo una sufficiente attività fotocatalitica, poiché basta poca luce per ottenere il massimo dell’efficienza del prodotto.
Possiamo quindi dire in modo formale che la fotocatalisi è un fenomeno naturale in cui una sostanza, detta fotocatalizzatore, attraverso l’azione della luce, sia naturale che prodotta da speciali lampade, modifica la velocità di una reazione chimica.
Questo processo avviene quindi a costo zero, poiché sfrutta la luce solare che tutti i giorni raggiunge la terra in misura notevolmente superiore al consumo energetico mondiale annuo.
In questo contesto la fotochimica applicata ai materiali da costruzione potrebbe trasformarsi in una soluzione molto interessante, visto che oggi è già parte integrante di una strategia che mira a ridurre l’inquinamento ambientale.
Vediamo più da vicino questi prodotti nanotech per l’edilizia, sapendo che i sistemi di mitigazione dell’inquinamento ambientale tramite l’applicazione di pitture fotocatalitiche furono introdotti in Giappone circa 20 anni fa.
I vantaggi pratici di queste tecnologie innovative si potranno osservare all'interno delle case dove non avremo più le pareti annerite dall’azione dei caloriferi o unte dal grasso di cottura dei fornelli, ma anche negli ambienti dove si pratica sport ottenendo superfici pulite ed asettiche, che limitano il timore di infezioni da funghi per mezzo di un'aria più salutare. Addirittura nelle periferie delle città, sarà possibile notare meno inquinamento grazie alle facciate trattate con questi prodotti fotocatalitici, mentre in luoghi come ospedali o ambulatori si potrà ottenere la riduzione di germi, microbi e batteri.
Di conseguenza la pittura fotocatalitica è molto apprezzata ed utilizzata per applicazioni quali ospedali, sale operatorie, scuole, mense industrie alimentari ed in tutti quegli ambienti in cui è richiesta la massima asetticità.
Si è calcolato che, una superficie di x metri quadri, rifinita con prodotto fotocatalitico, riesce a pulire circa 200x metri cubi di aria in circa 10 ore di luce, infatti, la parete funziona solo come catalizzatore, sfruttando l’ossigeno e l’acqua presenti nell’aria; di conseguenza la sua capacità di abbattere lo smog rimane inalterata nel tempo.
La ricerca e la tecnologia fotocatalitica sono in grado di arrivare ad un risultato ambientale sicuramente positivo, dimostrando come l’inquinamento possa essere combattuto con facilità e a bassi costi.
L’attività dei materiali fotocatalitici è originata dalla luce che, colpendo la superficie del materiale interessato, attiva le molecole di catalizzatore permettendo l’innesco di reazioni chimiche altrimenti irrealizzabili a temperatura ambiente. I materiali fotocatalitici di interesse edile attivano principalmente reazioni di ossidazione di una gran varietà di composti organici ed inorganici adsorbiti o depositati sulla superficie.
In base alle finalità applicative del prodotto sviluppato, le reazioni di ossidazione possono essere utilizzate per rimuovere dall’aria composti inquinanti, come gli idrocarburi aromatici quali il Benzene, il Toluene, e l’Etilbenzene, o gli ossidi di azoto (NOx), per impedire o rallentare il deposito di film organici sulle superfici.
Queste azioni sono necessarie per impedire la formazione di patine scure sui manufatti architettonici esposti all’ambiente urbano, ma sono anche utili per disinfettare le superfici da contaminanti biologici quali batteri, funghi e virus.
Grande interesse stanno dimostrando verso questi nuovi prodotti sia i progettisti che le Pubbliche Amministrazioni, infatti, alcuni Comuni, fra i più sensibili alla lotta contro l’inquinamento, stanno inserendo nei loro regolamenti edilizi e nei piani regolatori incentivi all’uso del fotocatalitico.
Il Decreto del Ministero dell’Ambiente e della Tutela del Territorio del 1 aprile 2004 che individua, nei prodotti fotocatalitici quali pitture, malte, intonaci, rivestimenti, un sistema e una tecnologia innovativa per la mitigazione e l’abbattimento dell’inquinamento ambientale, testimonia quanto detto in precedenza.
In conclusione le sostanze inquinanti sopra descritte vengono trasformate, attraverso un processo di nanotecnologia, in calcare CaCo3, in nitrati di sodio NaNo3, e carbonati di sodio che sono assolutamente innocui per la salute pubblica.

domenica 11 ottobre 2009

Nanotecnologie sempre più Disruptive Technology


Le nanotecnologie sono considerate, fin dal loro inizio, come la forza trainante per una nuova rivoluzione industriale, attraendo risorse finanziarie ed investimenti da parte di governi e multinazionali di tutto il mondo.
L’innovazione nanotecnologica permette la crescita ed il cambiamento della produzione industriale anche quando le nuove aziende competitors mettono in crisi economica e finanziaria le imprese incumbent legate a tecnologie obsolete e superate.
Un docente di Harvard, Clayton Christensen, nel 1995 propose il termine Disruptive Technology indicando un’innovazione che in tempi rapidi si imponesse e conquistasse un mercato esistente, o ne facesse nascere uno completamente nuovo.
Nella sua analisi Christensen riconosce in alcune tecnologie la capacità di cambiare drasticamente le dinamiche di mercato, a spese delle imprese e dei prodotti ormai consolidati, determinando effetti devastanti sugli incumbents poiché molte di esse sono in grado di sviluppare prodotti in grado di sostituire quelli esistenti.
Le imprese incumbent, in questo contesto, sono incapaci di rispondere senza perdere profitti trovandosi a dover affrontare un’erosione progressiva della loro quota di mercato.
Nella prima metà del ventesimo secolo, si definiva questo processo “distruzione creativa”, rilevando sia gli aspetti positivi che quelli negativi del cambiamento tecnologico ed industriale, quali la nascita di nuovi impieghi, imprese ed industrie, e di contro la crisi strutturale di alcune imprese costrette a chiudere dal cambiamento tecnologico.
La storia è piena di questi cambiamenti tecnologici, lo sono stati l’elettricità, con il fisico italiano Girolamo Cardano che con il De Subtilitate nel 1550, distinse, forse per la prima volta, la forza elettrica da quella magnetica; il motore a vapore, con molteplici applicazioni avute all'inizio del XVIII secolo, soprattutto per il pompaggio dell'acqua dalle miniere; il telefono, attribuito ad Antonio Meucci che nel 1871 dimostrò il funzionamento del suo apparecchio che chiamò telettrofono; internet, una rete di computer mondiale ad accesso pubblico teorizzata per la prima volta nel 1960 dallo statunitense J.C.R. Licklider, docente del Massachusetts Institute of Technology (MIT).
Più lontano dai nostri giorni facevano vanto di se altre importanti innovazioni come la ruota, inventata nell'antica Mesopotamia nel V millennio a.C. per la lavorazione di vasellame; l’agricoltura, nata circa 11.000 anni fa attraverso la domesticazione avvenuta per la prima volta in un villaggio presso il fiume Giordano a 15 km a nord di Gerico.
Ritornando al nanotech il concetto di Disruptive Technology è intrinseco nella definizione stessa del termine “nanotecnologia” che può avere significati diversi.
Gran parte delle definizioni possono essere ricondotte allo studio ed al controllo di fenomeni e materiali in scala di lunghezza al di sotto dei 100 nanometri.
Altre definizioni si basano sul fatto che in un sistema nanotecnologico, la scala di lunghezza dei componenti deve essere a livello nanometrico e le proprietà chimico-fisiche devono essere legate alla stessa dimensione nanoscopica. Infatti, la nanotecnologia ha creato una specie di rivoluzione nella scienza fisica e nell’ingegneria, legando tra loro possibili settori di ricerca, come la chimica e la scienza dei materiali, ma anche come la biologia e la medicina, determinando, di fatto, una scienza innovativa multidisciplinare.
E’ proprio questa multidisciplinarità che consente la produzione di materiali tecnologicamente rivoluzionari, destinati nel breve periodo a sostituire i vecchi prodotti industriali ed a saturare il mercato dell’alta tecnologia.
Limitatamente al settore dell’elettronica vorrei evidenziare quanto scrive Federico Faggin sulla definizione del termine “nanoelettronica” asserendo che questa rappresenta una nuova classe di dispositivi elettronici più piccoli e più veloci, basati su nuovi principi di funzionamento, che promettono di sostituire i transistori MOS. La nanoelettronica, di conseguenza, offre una nuova strada per continuare ad aumentare le prestazioni e ridurre le dimensioni e il costo dei circuiti integrati, una volta che i transistori MOS hanno raggiunto il limite fisico dello scaling.
Proprio il raggiungimento del limite fisico dello scaling potrebbe sentenziare la fine del transistor al silicio per dare spazio a nuove produzioni competitors basate, ad esempio, sui nanotubi di carbonio o meglio ancora sul grafene.
Quindi le Disruptive Technology intese come versioni dei prodotti più innovativi, con un target clienti interamente nuovo, emergono facilmente, paralizzando le aziende istituite.
Esse sono, nella fase iniziale, indirizzate a servire le fasce più alte del mercato ed alla fine, quando si consolidano e migliorano la loro affidabilità, riescono a conquistare quote fondamentali di mercato sostituendo il prodotto che prima dominava.

giovedì 1 ottobre 2009

Grafene più “silenzioso” del silicio

La prima distinzione necessaria da fare, in un circuito elettrico, è quella tra rumore e disturbo, per rumore solitamente si intende l’insieme dei segnali di origine interna, mentre i disturbi sono i segnali che provengono dall'esterno. Secondo quanto definito nel dizionario del IEEE ( Institute of Electrical and Electronic Engineers), il rumore in un sistema elettrico si può considerare come l’insieme di tutte le perturbazioni indesiderate che si sovrappongono al segnale utile e tendono a mascherarne il contenuto. Quindi in elettronica per rumore spesso si indica l’agitazione che hanno gli atomi e gli elettroni a causa della agitazione termica, dell’intrappolamento e del rilassamento dei portatori.
In modo analogo a livello macroscopico il rumore dei sistemi elettrici può essere rappresentato, per far comprendere meglio il fenomeno, dalle bolle generate in un becher pieno d’acqua posto sopra un fornello. Infatti, appena il fornello è acceso si nota l'appannamento del becher, dopo pochi minuti l'appannamento scompare e la temperatura dell'acqua sale, all’inizio in modo regolare, poi più lentamente finché, raggiunti i 100 °C, si stabilizza mentre l'acqua comincia a bollire vigorosamente.
Tornando all’elettronica, si può dire che la sorgente di rumore più comune nei dispositivi elettronici è il rumore termico, questo è intrinseco in ogni elemento dissipativo, come ad esempio il resistore, che si trova ad una temperatura diversa dallo zero assoluto. Si è soliti intendere, per convenzione, come rumore interno solo quello termico, poiché questo ultimo è la principale sorgente del rumore interno. In realtà in elettronica si considerano altri rumori come, ad esempio, il rumore shot prodotto dai portatori di carica quando attraversano una barriera di potenziale come nelle giunzioni p-n. Dal punto di vista pratico e funzionale il rumore presente nei circuiti elettronici limita la massima risoluzione strumentale del sistema in cui essi sono inseriti, come succede nel caso di elevati livelli di rumore, al suono distorto di un altoparlante, o al degrado di un’immagine di un sistema televisivo.
I transistor moderni, che compongono la quasi totalità dei sistemi elettronici, sono divisi in due categorie principali i transistor bipolari (BJT) e i transistor ad effetto di campo (FET). Nel transistor bipolare il meccanismo di amplificazione dipende dai portatori minoritari (controllati dalla corrente o tensione di base), mentre i FET sono più semplicemente resistenze variabili controllate dal gate.
La loro progressiva riduzione dimensionale, coerente con la prima legge di Moore, spalanca le porte alle nanotecnologie nei sistemi elettronici, evidenziando nuovi problemi progettuali che possono mettere a rischio l’affidabilità stessa del componente.
Possiamo considerare il "nanoscaling" come una progressione che mette in contrapposizione due definizioni di nanotecnologia. Secondo la prima, strettamente dimensionale, è nanotecnologia ciò che produce componenti sotto i 100 nanometri o miliardesimi di metro. Per la seconda definizione, più scientifica e massimalista, la nanotecnologia è ciò che manipola componenti in modo da cambiarne le proprietà, sfruttando effetti quantistici a livello nanometrico.
In ogni caso, la corsa verso la riduzione dimensionale dei circuiti integrati è in pieno svolgimento, e con essa tutti i problemi correlati tra cui la riduzione del rumore elettrico.
Uno dei maggiori problemi legati all'uso dei sempre più ridotti componenti nanotech è la relazione inversa tra le dimensioni del dispositivo e la quantità di rumore elettrico incontrollato che viene generato, infatti, più sono ridotti nelle dimensioni, tanto più cresce il rumore.
La crescita del rumore è dovuta alle cariche elettriche che rimbalzano intorno al materiale e che causano molteplici interferenze, vanificando l'utilità del dispositivo stesso. Questo fenomeno è noto come Effetto Hooge e si verifica nei dispositivi tradizionali costituiti da silicio.
A dimensioni nanometriche, l'impatto sul rumore dell'Effetto Hooge è molto amplificato, perché le dimensioni si avvicinano a quelle di pochi atomi, e il rumore generato può essere superiore al segnale elettrico che si deve ottenere. Si può pertanto asserire che a livello nanometrico il rumore coincide con il segnale, in altre parole, non è possibile produrre alcun dispositivo elettronico, utile a dimensioni nanometriche, se il rumore è paragonabile al segnale che si sta tentando di generare.
Per risolvere questo problema i ricercatori IBM hanno scoperto che il rumore nei dispositivi semiconduttori basati sul grafene può essere quasi totalmente soppresso. Nei loro esperimenti hanno scoperto che utilizzando due fogli di grafene, posti uno sopra l'altro, al posto di un solo strato, come è stato fatto nelle progettazioni precedenti, il rumore è ridotto in modo significativo.
Questi risultati sperimentali consentiranno l’incremento dell’utilizzo del grafene al posto del silicio, per realizzare semiconduttori più efficienti da destinare alla fabbricazione di sensori, di sistemi informatici e di comunicazione.

giovedì 24 settembre 2009

Le due leggi di Moore e la singolarità tecnologica


In matematica se una funzione non è continua in un punto c del suo dominio si dice che c è un punto di discontinuità o singolarità. Al di fuori delle rigide terminologie matematiche la singolarità tecnologica identifica il momento del sorpasso dei sistemi elettronici sull'uomo, in altre parole è il punto di non ritorno in cui l'uomo riuscirà a progettare e costruire, grazie all’indispensabile contributo delle nanotecnologie nel quantum computing o nel DNA computing, il primo computer super intelligente.
Le leggi di Moore possono dare un’indicazione attendibile sui tempi necessari all’evoluzione della sopra enunciata singolarità tecnologica.
Infatti, l’enunciato della prima legge di Moore dice che le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiano ogni 18 mesi.
Nel 1965 Moore intuì che le prestazioni dei microprocessori sarebbero raddoppiate ogni 12 mesi. Dieci anni dopo questa previsione si rivelò ancora corretta e prima dell’inizio del successivo decennio i tempi del raddoppio si allungarono a 24 mesi, periodo che rimase valido per tutti gli anni ottanta.
La legge è stata riformulata alla fine degli anni ottanta nella sua forma definitiva, elaborando una media aritmetica tra le due previsioni precedenti fermandosi ad un raddoppio delle prestazioni dei processori ogni 18 mesi.
Negli stessi anni Arthur Rock osservò con gran timore, vista la sua posizione di finanziatore della Intel, che il costo dei macchinari per la fabbrica di cui era azionista, raddoppiava circa ogni quattro anni. Da qui una prima osservazione su cui fondare una nuova legge, evidenziando il concetto che il costo delle apparecchiature per costruire semiconduttori raddoppia ogni quattro anni.
In seguito, da queste osservazioni, Moore integrò definitivamente la sua legge originaria con una seconda, asserendo che il costo di una fabbrica di chip raddoppia da una generazione all'altra.
Con questa seconda legge si cominciò a ragionare sull'osservazione della dinamica dei costi legati alla costruzione delle nuove fabbriche di chip, poiché questi costi erano cresciuti ad un ritmo superiore rispetto all'incremento di potenza dei processori
Oggi siamo a conoscenza che abbiamo bisogno di circa 10^16 calcoli al secondo (cas) per ottenere un equivalente funzionale di tutte le regioni del cervello. I supercomputer contemporanei sono già a (10^14) di cas e si prevede che raggiungeranno i 10^16 cas verso la fine del 2020.
Ritorniamo al concetto di singolarità tecnologica che fu coniato per la prima volta nel 1993 da Vernor Vinge. Secondo Vinge, entro il 2030, avremo a disposizione le tecnologie necessarie a creare intelligenze artificiali super-umane. Il perfezionamento dello scaling nel campo dell'hardware e l'approfondimento delle ricerche biotecnologiche e nanotecnologiche potrebbe portare alla creazione di computer coscienti, con intelligenza nettamente superiore a quella umana.
Questi perfezionamenti dell'hardware, come è stato detto, sono confermati pienamente dalle due leggi di Moore, la prima per il mantenimento del trend dimensionale costantemente decrescente, la seconda per una costante temporale dell’incremento dei costi che rende fattibile una efficiente programmazione degli investimenti a favore di un miglioramento delle prestazioni di sistemi elettronici sempre più evoluti.
Lo sviluppo di queste tecnologie nanotech porterebbe fra le altre cose, anche alla progettazione di modelli di intelligenza amplificata contraddistinti dall'integrazione biotecnologica tra uomo e telematica verso livelli di intelligenza “post-umana”.
Quindi nella futurologia, una singolarità tecnologica potrà rappresentare un punto, previsto nello sviluppo di una civilizzazione, dove il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli stessi esseri umani.
In ogni caso, il fatto che una singolarità tecnologica possa mai avvenire, è in questo periodo materia di dibattito.

lunedì 14 settembre 2009

I.I.T. un investimento nella competenza multidisciplinare per non ripetere un’altra “Perottina”


Premetto che ho molta stima ed ammirazione per l'attività di ricerca svolta da molti centri di eccellenza dell'Università e degli enti di ricerca ubicati su tutto il territorio nazionale.
Si può, in ogni caso, affermare che, negli ultimi lustri, la ricerca italiana, per mancanza di fondi adeguati, è entrata crisi, e ad eccezione di alcune nicchie di ricerca scientifica, spesso frutto della collaborazione pubblico-privato, università e centri di ricerca pubblici, nel settore dell’innovazione tecnologica, producono sempre meno eccellenze.
Troppa burocrazia, scarso legame con il mondo produttivo, poca meritocrazia, incoraggia la “fuga dei cervelli”, creando una situazione dove se molti dei nostri ricercatori migliori partono, vederne arrivare in Italia da altri paesi è molto difficile.
Il nuovo «Istituto italiano di tecnologia» (IIT), versione italiana del glorioso e stimato Massachusetts Institute of Technology di Boston, va contro questa tendenza, diventando accentratore di competenze italiane ed estere, in altre parole si è realizzato un centro d'eccellenza come quello di Cambridge in Gran Bretagna o quelli di Harvard e Palo Alto negli Usa.
Oggi l'IIT è radicato sul territorio nazionale attraverso una rete di nove poli associati, composta dal National Lab di Genova Morego, dalla SISSA di Trieste, da Politecnico, IFOM - IEO e San Raffaele di Milano, dalla Scuola Normale Superiore e Scuola Superiore Sant'Anna di Pisa, dall’ EBRI di Roma, dal CRIB di Napoli ed infine dal Laboratorio Nazionale di Nanotecnologie di Lecce.
In questa rete l'approccio alla ricerca è di tipo multidisciplinare, infatti, la filosofia operativa dell'IIT promuove, attraverso reciproci scambi tra le piattaforme tecnologiche, l'incrocio di conoscenze e competenze tra fisici, chimici, ingegneri, matematici, biologi, medici, creando un modus operandi indispensabile per affrontare ricerche scientifiche e tecnologiche di altissima complessità. L''attività scientifica è stata affidata a studiosi di riconosciuta fama internazionale, molto conosciuti nei rispettivi settori di ricerca, a seguito di una rigorosa selezione avvenuta anche sulla base della reputazione e dei risultati scientifici prodotti.
La scommessa è quella di creare i presupposti scientifici per dare vita a start up e spin off e sviluppare progetti avanzati a stretto contatto con il mondo industriale.
Per il raggiungimento di questi obiettivi ambiziosi l’IIT è diviso in quattro unità: il Dipartimento di Robotica, Scienze Cognitive e del Cervello, il Dipartimento di Neuroscienze e Neurotecnologie, il Dipartimento di Ricerca e Sviluppo Farmaci, e la Facility di Nanobiotecnologie.
Questi dipartimenti sono finalizzati alla ricerca pura in settori potenzialmente a crescita elevata, con l'obiettivo di conseguire brevetti innovativi di prima generazione, quelli che costituiscono la base per la ricerca applicata, sviluppata poi da altri istituti o dagli spin-off opportunamemente costituiti.
La speranza che tutti questi sforzi economici, organizzativi e scientifici siano utili a non ripetere errori di strategia tecnologica, come il mancato sviluppo produttivo, negli anni sessanta, della Perottina, o l’emigrazione intellettuale dall’Italia di un personaggio come Federico Faggin ideatore del microprocessore Intel 4004.
Nel campo delle applicazioni tecnologiche, le innovazioni costituiscono una rottura col passato, infatti, le nuove tecnologie operano come tecnologie killer rispetto a quelle tradizionali, rappresentando la base di nuovi paradigmi.
La leadership dell'Olivetti nella meccanica dei calcolatori e delle macchine per scrivere aveva attenuato, negli anni sessanta, la capacità di intuire quei deboli segnali, premonitori della imminente rivoluzione microelettronica che avrebbe in poco tempo trasformato il mondo della elettronica applicata.
Ricordo che l’ingegner Perotto realizzò nel 1965 la “Programma 101”, meglio conosciuta come la “perottina”, si trattava di una macchina da tavolo con stampante e tastiera incorporati, del peso complessivo di 30 chili, che usava una scheda magnetica come ingresso ed uscita e la cosiddetta “linea magnetorestrittiva”, al posto dei nuclei ferritici, come memoria, sostituzione quest’ultima che può essere ricordata come il simbolo di un livello scientifico di assoluta avanguardia mondiale.
Questo prodotto informatico, precursore degli attuali pc, adottava un nuovo linguaggio di programmazione, antenato del Basic, basato su sedici istruzioni e stampava su una striscia di carta alla velocità di 30 caratteri al secondo.
Nel 1965 la “ Perottina “ fu esposta al “Bema Show” di New York, che rappresentava una delle più importanti fiere per l’innovazione tecnologica.
Il pubblico di esperti ed appassionati trovandosi di fronte al primo computer da tavolo si entusiasmò a tal punto che ne furono vendute 44000 esemplari.
Alcune Perottine furono acquistate anche dalla NASA, in quel tempo impegnata con le missioni Apollo alla conquista della luna.
Le aziende concorrenti rimasero in un primo momento attonite dalla novità tecnologica, poi cominciarono a copiare i sistemi elettronici del prodotto informatico italiano.
La Hewlett-Packard con la sua proposta “HP-9100”costruì solo un clone della “perottina”, certificandone l’indiscusso primato di originalità progettuale.
L’italiano Federico Faggin, nei primi anni 70 trasferitosi proprio dall’Olivetti, che aveva abbandonato gli investimenti nel settore elettronico dei pc, alla Silicon Valley, sviluppò il primo microprocessore ( Intel 4004 ) contribuendo ad una rivoluzione storica per l’informatica di quei tempi.
Oggi con le nanotecnologie siamo di fronte ad un’altra rivoluzione tecnologica, pari a quella degli anni 70, e sarebbe un vero peccato ripercorrere gli stessi errori che 40 anni fa affossarono un prodotto tecnologico dalle enormi potenzialità economiche e di sviluppo industriale come la “ Perottina “.

lunedì 7 settembre 2009

Nanotecnologie, drug delivery, nanoshell.


Le nanotecnologie applicate alla medicina si occupano di tutte quelle conoscenze e applicazioni che abbiano un utilizzo medico e farmacologico nell'ordine di grandezza dei nanometri.
Gli approcci nanotech, in questo settore, vanno dall'uso medico dei nanomateriali, alla formulazione di nuovi sistemi per la somministrazione dei farmaci, ai biosensori nanotecnologici, al possibile utilizzo, nel medio periodo, della nanotecnologia molecolare.
Molte sono le ricerche sperimentali per la produzione e la caratterizzazione di nanoparticelle che ricoperte con polimeri biocompatibili possano diventare dei carrier efficienti da utilizzare nel drug delivery.
Il drug delivery è lo sviluppo di sistemi alternativi di indirizzamento dei farmaci nell’organismo, avente l’obiettivo di circoscriverne l’effetto biologico su una determinata tipologia di cellule, migliorando l’efficacia e riducendo la tossicità di una terapia.
Quindi il drug delivery rappresenta una delle opportunità più rilevanti per la somministrazione alternativa di farmaci, destinati a quei malati cronici che necessitano di dosi massicce e continue di medicinale, subendo i negativi effetti collaterali derivanti dal loro utilizzo prolungato.
La somministrazione di farmaci, tramite sistemi nanotecnologici di rilascio del farmaco, permette di ottenere vantaggi rispetto alle terapie farmacologiche convenzionali, infatti, l'intero quantitativo di farmaco necessario per una terapia sarà somministrato in una sola volta ed in un modo controllato.
Un altro vantaggio è la possibilità di indirizzare il rilascio del farmaco solamente in una specifica zona del nostro corpo, evitando il contatto potenzialmente nocivo tra il farmaco e gli organi non interessati.
E’ importante analizzare più da vicino i possibili carrier da utilizzare nei sopra descritti processi di drug delivery, infatti, nanosistemi basati su nanoparticelle di oro, di silice, o di ossidi di ferro insieme a dendrimeri (molecole molto ramificate, caratterizzate per la loro perfezione strutturale) e nanoparticelle polimeriche hanno una grande potenzialità come sistemi multivalenti per un impiego sia diagnostico che terapeutico.
Il chiosano, ad esempio, è un polimero di origine naturale derivato per deacetilazione alcalina dalla chitina, ed è stato recentemente proposto quale materiale per il rilascio controllato di farmaci attraverso le mucose, o come altro esempio, ci sono i globuli rossi che potranno essere usati come carrier biologici, sviluppando efficaci sistemi di targeting e delivery di farmaci.
In alternativa si studiano le nanoshell multistrato che sono costituite da un nucleo di silice ricoperto da un sottile guscio dorato. La dimensione, la forma e la composizione delle nanoshell determinano in esse particolari proprietà ottiche che le fanno rispondere a specifiche lunghezze d'onda.
La terapia fototermica sfrutta le nanoshell per convertire la luce in calore, distruggendo in questo modo le cellule cancerose vicine, visto che il calore, molto localizzato, non colpisce i tessuti sani adiacenti al tumore.
In altre parole questi nano-gusci sono realizzati da un nocciolo sferico e da un dielettrico di ossido di silicio, aventi entrambe dimensioni nell’ordine dei nanometri. Il nocciolo è racchiuso in un guscio di oro, dello spessore di alcuni nanometri, che può essere in fase progettuale opportunamente costruito in modo da risuonare con la radiazione della luce incidente nella regione spettrale dell’infrarosso-vicino. In questa regione dello spettro la luce è assolutamente innocua, penetra profondamente nei tessuti e riscalda in modo selettivo le nanoshells irradiate, provocando l’ablazione termica del tessuto con il quale sono a contatto.
Sapendo che l’indice terapeutico (TI) di un farmaco è il rapporto tra il suo beneficio per una data prescrizione, e gli effetti collaterali indesiderati, è possibile mettere in atto su questi nanovettori strategie multiple e simultanee di destinazione, che consentono un guadagno cumulativo nella localizzazione, e la potenziale capacità di raggiungere la soglia desiderata di aumento del TI.
In altri termini, le probabilità di localizzazione di una lesione attraverso meccanismi differenti sono additive, quindi il fatto che la progettazione di nanovettori possa trarre, nello stesso tempo, vantaggi da diversi meccanismi, li rende una strategia terapeutica potenzialmente vantaggiosa.
L'obiettivo di realizzare dispositivi innovativi come i sistemi di drug delivery basati su nanocarrier rappresentati da nanoparticelle (il chiosano) o da nanocapsule (le nanoshell ) o di progettare "micro lab-on-chip" interattivi e controllabili da remoto, in grado di raccogliere e trasmettere dati, ed essere attivi come strumenti di cura dall’interno del corpo del paziente, dimostra l’enorme potenzialità delle conoscenze consolidate nel campo delle nanotecnologie terapeutiche, diagnostiche e farmaceutiche.

giovedì 3 settembre 2009

Nanotecnologie bottom-up incubo crichtoniano ?


Il romanzo di M.Crichton, Jurassic Park, è stato scelto per avere un’idea precisa delle conseguenze di una scorretta applicazione dell’informatica e delle biotecnologie. La valenza fortemente divulgativa e didattica del racconto crichtoniano è rafforzata dalla netta distinzione tra i fautori di una scienza specialistica, dedita al controllo e alla manipolazione atomica degli oggetti e finalizzata alle necessità del mercato, e gli assertori di una scienza alternativa, ecologica, sistemica, al servizio dell’uomo e delle sue esigenze. Una volta studiato ed approfondito il romanzo, esistono tutte le condizioni per dedurre alcune importanti conseguenze.
Se l’informatica e la genetica possono creare nuovi e inaspettati mostri, come i dinosauri redivivi descritti in Jurassic Park, che si ribellano alla natura condizionata dai tecnici, allo stesso modo anche le nanotecnologie applicate alla medicina ed alla cosmesi possono rivelarsi inaffidabili, pericolose e in ogni caso ipoteticamente non controllabili.
In questo articolo si vogliono analizzare alcune considerazioni pro e contro le nanotecnologie bottom-up, ovvero quelle tecnologie che rappresentano il tentativo di costruire entità complesse sfruttando le capacità di autoassemblamento o di autoorganizzazione dei sistemi molecolari, con un approccio di tipo chimico o biologico, potenzialmente in grado, di creare strutture tridimensionali complesse a basso costo e in grande quantità.
Alcuni, parlamentari europei particolarmente attivi sul fronte degli oppositori al nanotech, affermano di essere preoccupati per i trattamenti a base di nanoprodotti nella cosmesi. E’ necessario sapere se effettivamente la dicitura nanosfere adottate da aziende leader del settore, corrisponde all'adozione di nanotecnologie, in questo caso si dovrebbe mettere a conoscenza del consumatore il pericolo che acquistando in buona fede certi prodotti di bellezza si potrebbe fare da cavie, trovandosi a contatto con nanoparticelle che invece di riparare le cellule e far sparire le rughe, possono essere la causa di irreparabili danni fisiologici.
L'associazione internazionale Friends of the Earth, è convinta che il battage da sollevare su questo tema debba avere una propaganda ed un approfondimento per lo meno simile a quello sugli organismi geneticamente modificati.
Anche gli esperti dell'organizzazione ambientalista canadese Action Group on Erosion, Technology and Concentration (Etc) sono preoccupati, denunciando il concetto che se non è possibile controllare gli organismi geneticamente modificati, allo stesso modo diventa tecnologicamente difficile poter agire nei confronti degli organismi atomicamente modificati.
Anche tra i ricercatori, che pure vedono nelle nanotech la cosiddetta «next big thing», ovvero la prossima rivoluzione tecnologica, ci sono protagonisti di primo piano che esprimono la loro preoccupazione, infatti, affermano che se utilizzate con poca cautela queste tecnologie autoreplicanti rischiano di sfuggire al controllo.
La grande maggioranza della comunità scientifica, invece, è ottimista, infatti, sta affrontando con responsabilità la questione, valutando tutte le implicazioni del caso. Per lei tutti i soggetti contrari al nanotech hanno scelto lo scontro a priori, senza conoscere a fondo l'argomento e senza considerare che le nanotecnologie possono essere un efficace strumento per risolvere questioni cruciali riguardanti sia la salute che l’ambiente.
Greenpeace sceglie un atteggiamento più moderato, decidendo di commissionare un'approfondita ricerca agli esperti dell'Imperial College di Londra, i cui risultati dell'analisi a 360 gradi sono stati pubblicati recentemente in un rapporto di alcune decine di pagine, dove si afferma, con estrema sicurezza, che l'allarme non è giustificato.

martedì 1 settembre 2009

DNA Origami aiuterà la legge di Moore.


Origami è una parola giapponese che può essere tradotta in "piegatura della carta"; questa tecnica utilizzata su scala nanometrica, consiste nel flettere, congiungere e ripiegare su se stessi, dei filamenti di DNA.
Il DNA Origami è la prima dimostrazione di un possibile utilizzo di molecole biologiche per l'industria dei semiconduttori. L’industria nanoelettronica sta affrontando difficili sfide centrate sullo sviluppo della tecnologia litografica per dimensioni inferiori ai 22 nm, esplorando obbligatoriamente nuove classi di transistori come i nanotubi al carbonio o nanofili al silicio. Un altro filone di ricerca ha pensato di usare molecole di DNA come impalcature, dette DNA origami, dove milioni di nanotubi al carbonio avrebbero la possibilità di depositarsi e assemblarsi in modelli precisi.
Il declino della legge di Moore è una convinzione che coinvolge numerose personalità del settore elettronico, che sempre più spesso mettono in discussione gli enunciati della celebre regola.
La legge di Moore, definibile più come una supposizione che non una legge scientifica, afferma che l'evoluzione elettronica porta ad un raddoppio della capacità elaborativa dei microprocessori ogni 18 mesi; ad oggi tale supposizione si è dimostrata esatta, ma con il passare del tempo lo scaling tende ad avvicinarsi sempre di più ai limiti fisici della materia, creando i presupposti per nuove sfide tecnologiche, che potrebbero consolidare l’intuizione di Moore.
Infatti, la principale tecnica impiegata per tentare di aumentare le capacità di calcolo dei microprocessori è stata quella di ridurre lo spessore dello strato di ossido che costituisce la giunzione dei transistor e di limitare al massimo lo strato isolante che divide un transistor dall'altro. Esistono, però, dei limiti dimensionali sotto ai quali non è possibile scendere senza compromettere l'effettiva funzionalità del transistor stesso.
Molti sono i pareri che questo processo produttivo, di tipo top down, non possa essere sensibilmente migliorato, e che quindi vada sostituito, determinando conseguentemente un preciso punto di criticità della tecnologia al silicio.
La nascita di nuovi problemi e nuove sfide porterà alla progettazione di innovativi sistemi tecnologici quali il DNA Origami, basato sulle sopra citate impalcature di DNA.
Queste impalcature di DNA sono formate da un filamento che spontaneamente si piega a formare un ottaedro di dimensioni nanoscopiche grande quanto altre strutture biologiche come piccoli virus e ribosomi, costituendo una specie di reticolo tridimensionale molto compatto, formato da dodici bordi, sei spigoli e otto facce triangolari.
La tecnica dei nano-origami è quella di fabbricare i cardini della struttura a partire da una coppia di strati di materiale con spaziature atomiche leggermente differenti. La mancata corrispondenza strutturale provoca una tensione meccanica che flette il cardine, determinando la piegatura spontanea del filamento.
Si è notato come tutti i dodici bordi abbiano la medesima sequenza di neuclotidi, determinando in questo modo delle strutture molto uniformi, adatte ad essere impiegate come elementi base di sistemi più complessi.
Per la cronaca, tra le prossime tecnologie studiate ed analizzate da molti esperti del settore nanoelettronico che potranno avere una crescita esponenziale, convalidando ancora i presupposti della legge di Moore, ci sono le connessioni ottiche, che aumenteranno di otto volte, rispetto ai tradizionali microcircuiti in rame, la velocità di spostamento dei dati tra i semiconduttori; e i chip 3D (quelli realizzati su tre dimensioni), capaci di sfruttare al meglio lo spazio, incrementando la densità dei circuiti, riducendo i consumi energetici ed aumentando le performance; a queste tecnologie aggiungerei anche quella, altrettanto promettente, del DNA Origami.

martedì 25 agosto 2009

Grafene: un possibile futuro per l’elettronica


Il grafene è una molecola bidimensionale spessa un solo atomo, ovvero 0,35 nm, o 3,5 10-10m. Si può desumere dalla desinenza -ene che gli atomi sono ibridati e disposti in modo da formare esagoni con angoli di 120°. La presenza di imperfezioni rappresentate da pentagoni o ettagoni al posto degli esagoni deforma la sua struttura, con maggiore precisione possiamo dire che quando ci sono 12 pentagoni, si ha un fullerene, uno dei vari allotropi del carbonio, mentre in presenza di singoli pentagoni o ettagoni il grafene rivela solo alcune increspature della superficie.
La struttura cristallina di questa membrana di carbonio non è immobile ma grazie ad un impercettibile movimento oscillatorio acquista una terza dimensione che le permette di restare integra anziché frantumarsi, resistendo, così, maggiormente agli effetti del calore.
Sapendo che la frequenza operativa di un transistor è determinata dalla sua dimensione e dalla velocità con la quale gli elettroni si spostano al suo interno, si può capire per quale motivo nell'industria vi sia questa irrefrenabile corsa alla miniaturizzazione dei transistor in silicio.
Un aspetto chiave del grafene si trova nell'elevata velocità con la quale gli elettroni possono muoversi al suo interno, permettendo così la realizzazione di transistor ad elevate prestazioni.
Questo materiale, per quanto detto, è costituito da un singolo strato di atomi, tutti di carbonio che sono legati tra loro esagonalmente a nido d'ape, costituendo una specie di sottilissimo velo atomico. Proprio in virtù di questa disposizione gli elettroni possono muoversi al suo interno con estrema mobilità, spostandosi come particelle del tutto prive di massa.
Un ostacolo nella produzione di questi transistor basati sul grafene è rappresentato dal reperimento della stessa grafite, che è un minerale, in natura, molto meno presente del silicio e dall’altissima temperatura necessaria per poter modellare il grafene stesso. Si può dire di conseguenza che oggi produrre grafene in quantità e in modo riproducibile e' molto complicato.
Da qui l’idea di alcuni gruppi di ricerca che hanno pensato di ottenere grafene artificiale replicando la famosa struttura geometrica a nido d'ape in un semiconduttore all'arseniuro di gallio, creando in questo modo un semiconduttore fuori dal comune, che alle precedenti sue proprietà associa quelle straordinarie del grafene, il tutto all’interno di un materiale abitualmente usato nell'industria elettronica, facilmente lavorabile e scalabile.
Un’ altra soluzione per la produzione su larga scala del grafene si ottiene con lo sviluppo di un processo in cui un foglio di ossido di grafite è posto in una soluzione di idrazina pura, sostanza molto corrosiva, che lo riduce ad un sottilissimo strato di grafene, costituendo, di fatto, il futuro della ricerca del grafene nanoelettronico.
Un esempio di dispositivo ricavato da un singolo foglio di grafene può essere rappresentato da un “quantum dot”, ovvero una nanostruttura formata dall’inclusione di un materiale semiconduttore con una certa banda proibita all'interno di un altro semiconduttore con banda proibita più grande, costituito da quattro anelli di benzene connessi ad elettrodi di grafene, con un gate complanare che controlla il flusso di carica attraverso il circuito. Per l’utilizzazione come componente di transistor è tuttavia necessario indurre un gap fra banda di conduzione e banda di valenza, che si può ottenere drogando opportunamente il grafene oppure confinando la sua geometria, o in alternativa facendo crescere il grafene su un apposito substrato.
Queste ricerche hanno fatto ravvedere tutti i professionisti del settore elettronico che non ritenevano la legge di Moore, basata sul raddoppio ogni 18 mesi delle prestazioni dei microprocessori, ancora valida ed applicabile, poiché i transistor al silicio avrebbero ormai raggiunto la loro massima miniaturizzazione e il massimo livello di prestazioni.

sabato 11 luglio 2009

Il time-to-market potrebbe condizionare l’innovazione nanotecnologica


Nel 1965, Gordon Moore, uno dei due fondatori dell’Intel, osservò che ogni 18 mesi il numero di transistori in un circuito integrato raddoppiava, pronosticando che questo comportamento sarebbe continuato nel futuro. Questa osservazione venne più tardi chiamata la legge di Moore, anche se ovviamente non è una legge fisica come la leggi della termodinamica e la sua validità sarà molto probabilmente limitata nel tempo. La longevità della legge di Moore è strettamente collegata al principio dello scaling, secondo il quale, riducendo le dimensioni critiche del transistore MOS nella stessa proporzione, si diminuisce oltre l’area del transistore e la sua potenza dissipata, anche la sua velocità.
Le tecniche dello scaling, a partire dal loro inizio, hanno rappresentato una strategia di produzione industriale fondamentale per migliorare le prestazioni e ridurre il costo dei circuiti integrati.
Possiamo osservare che nel 1972 la litografia più avanzata era in grado di stampare linee di 6 µm, mentre oggi la nanoelettronica con gli ultimi microprocessori viaggia su dimensioni intorno a 45 nm, riducendo, in 38 anni, l’area di un transistore di circa 20.000 volte.
Le aziende che operano nel settore produttivo dell’elettronica di consumo conoscono bene il valore delle competenze specialistiche interne e il prezioso contributo che molti documenti tecnici portano all’interno degli uffici tecnici e delle linee di produzione. Le multinazionali dell’elettronica nonostante siano orientate verso il contenimento dei costi e l'ottimizzazione dell'efficienza, sono costantemente alla ricerca di tecnologie innovative per lo sviluppo di nuovi progetti e la riduzione del time-to-market, ovvero il tempo che intercorre dall’ideazione di un prodotto alla sua effettiva commercializzazione.
Il time-to-market comprende le fasi di studi di mercato, gli studi di fattibilità, l’ingegnerizzazione, la creazione di un prototipo, la produzione in larga scala, l’immissione sul mercato. All'inizio di un progetto, i progettisti si impegnano per comprendere i vincoli che condizionano il problema, sia esso la costruzione di un oggetto o un'applicazione di un sistema più complesso. Questi vincoli includono le risorse disponibili, le prospettive per il futuro ed i limiti fisici o tecnici del sistema da progettare. Analizzando i suddetti vincoli, gli ingegneri lavorano per tradurre i requisiti in specifiche, disegni e controlli della qualità, necessari a soddisfare i requisiti richiesti per un determinato campo di impiego e per la realizzazione della componentistica da eseguire.
L’imperativo categorico delle multinazionali dell’elettronica e dell’informatica è di ridurre i costi, ottimizzando il tempo dedicato alla progettazione, allo sviluppo, ai processi di produzione e alla manutenzione; di aumentare l’innovazione, attraverso la collaborazione digitale che permette di concettualizzare e testare numerose alternative e soluzioni possibili; di migliorare la reattività sfruttando competenza e know-how e condividendo la conoscenza in tutta l’azienda; di ottimizzare l’efficienza attraverso test sui prodotti digitali, pianificando i processi produttivi dalle fasi iniziali della progettazione al prodotto finale; di migliorare la collaborazione, riunendo processi e competenze di tutta l’azienda per migliorare la creatività e l’efficienza.
Infine, ma non per ultimo la riduzione del time-to-market, ottimizzando tutti i processi dalla fase di progettazione alla fase di produzione, riadattando progetti esistenti, diminuendo gli errori di progettazione, accorciando la fase di prototipazione e snellendo il processo di assemblaggio.
Quanto più un prodotto è innovato, tanto più difficile è per i concorrenti copiarne le caratteristiche, quindi il time-to-market sta diventando sempre più frequentemente il fattore discriminante fra successo e fallimento per i prodotti elettronici di largo consumo.
E’ proprio il time-to-market che può innescare la miccia del dubbio, infatti, la rapidità di progettazione richiesta da un time to- market in costante decrescita è incompatibile con la necessità di aggiungere al prodotto le più ricercate funzionalità richieste dal mercato.
Funzionalità raggiungibili, ad esempio, nel campo della nanoelettronica attraverso un nuovo e più miniaturizzato microprocessore, assecondando le strategie di scaling, la cui adozione però richiede un certo tempo per poterne assimilare le nuove caratteristiche, con opportuni tempi di analisi e sintesi progettuale e serie verifiche di collaudo.
L’esigenza di comprimere il time-to market diminuisce di conseguenza il tempo che ogni progettista ha per migliorare il proprio progetto, mettendo a rischio la naturale evoluzione tecnologica.
Il problema sta proprio nella locuzione time to market, ovvero nell'idea di mettere le novità sul mercato nel modo più veloce possibile, per approfittare della risonanza globale data dal lancio di un prodotto innovativo, attraverso le attuali le reti di comunicazione.
Possiamo, in conclusione, asserire che la grande vittima di questa fretta è spesso la qualità, con la possibilità non tanto remota di mettere nelle mani degli utenti finali prodotti non sempre efficienti, facendo fare all'utente stesso un lavoro di collaudo che non gli compete.

domenica 7 giugno 2009

Viaggio nel mondo delle memorie flash


Avere un’idea chiara su come le memorie flash ci possono aiutare ad ottimizzare l’utilizzo degli svariati dispositivi portatili è una condizione assolutamente irrinunciabile.
Le caratteristiche tecniche da osservare si possono sintetizzare in tre fattori fondamentali: la prima cosa da notare è il formato fisico, ossia le sue dimensioni, e la compatibilità con lo slot dell’apparecchio con cui la memoria si deve interfacciare. Il secondo fattore da considerare in fase di scelta è la capienza, in altre parole la quantità di dati che una memoria flash è in grado di ospitare. Il terzo aspetto è la velocità di accesso ai dati, che deve permettere al dispositivo di prelevare le informazioni nel modo più celere possibile.
Tecnicamente si distinguono due tipi di memoria flash: la NOR e la NAND.
La NOR chiamata in questo modo per via del tipo di funzione logica che utilizza nel processo di funzionamento, ha una bassa velocità di accesso alla scrittura e alla cancellazione, ma permette una localizzazione delle informazioni memorizzate di tipo random, in altre parole qualsiasi dato può essere recuperato in qualsiasi momento indipendentemente da tutti gli altri. Per queste caratteristiche le memorie flash sono perfette per l’utilizzo in casi in cui le informazioni memorizzate non devono essere continuamente aggiornate.
Se consideriamo le memorie NOR, le prime ad essere state prodotte, ogni cella è simile ad un MOSFET ma con due gate anziché uno soltanto. Uno è il solito CG (Control Gate) mentre l'altro è chiamato Floating Gate (FG), che risulta essere completamente isolato da uno strato di ossido. Il floating gate si trova tra il CG e il substrato. Poiché il FG è isolato, ogni elettrone che gli passa sopra è intrappolato permettendo così di conservare il bit di informazione.
Ricordiamo che la somma logica negata NOR si esegue su due o più variabili, l’uscita assume lo stato logico 0 se almeno una variabile di ingresso è allo stato logico 1. In tutti gli altri casi Y=1.
Le memorie flash di tipo NAND, che come le NOR prendono il nome dal tipo di operazione logica impiegata nel processo di funzionamento, sono più rapide in fase di cancellazione e scrittura, hanno una capacità di memorizzazione maggiore e un costo per byte minore rispetto alla memoria NOR. Lo svantaggio di queste memorie è che possono accedere ai dati solo in modo sequenziale, ovvero che possono recuperare l’informazione in un ordine prestabilito. Le NAND sono adatte per un impiego sulle memory card dei PC o di altri dispositivi portatili, perché non è necessaria un’estrema velocità nel recupero delle informazioni registrate.
Ricordiamo che il prodotto logico negato NAND si esegue su due o più variabili, l’uscita assume lo stato logico 0 se tutte le variabili di ingresso sono allo stato logico 1. In tutti gli altri casi Y=1.
Attualmente le memorie flash più diffuse sul mercato mondiale, per la loro semplicità ed universalità di impiego, sono le USB Flash Drive.
Queste memorie sono di tipo NAND, la loro capienza può raggiungere i 64 GB e la loro velocità i 10 MBps.
In Italia queste cartucce sono chiamate in vari modi, i più frequenti sono Pen Drive, Chiave USB, Pocket Drive, USB Drive, USB Stick, Flash Disk.
Le USB Flash Drive non sono le uniche memorie flash, ne esistono molte altre con varie caratteristiche tecniche come ad esempio: Miniature Card, SmartMedia, MultiMediaCard (MMC), RS-MMC (Reduced-Size Multi Media Card), SD (Secure Digital), MiniSD, MicroSD, Memory Stick, Compact Flash, xD-Picture Card (Extreme Digital Picture Card).
L’approfondimento delle caratteristiche tecnologiche di ognuna di queste memorie flash sopra citate saranno oggetto di prossimi articoli tematici su questo variegato mondo della nanoelettronica.

giovedì 28 maggio 2009

La spintronica aiuterà l’efficienza luminosa degli OLED


Esistono nel mondo, ed anche in Italia, spin-off che studiano e commercializzano tecnologie per lo sviluppo di prodotti innovativi, quali memorie ed elementi logici spintronici, basati sui semiconduttori organici, ed in particolare ricercano come poter migliorare l'efficienza dei displays OLED mediante iniezione spin-polarizzata.
Queste società operano nello sviluppo di applicazioni nella spintronica che è una delle nuove frontiere dell’elettronica destinata a soppiantare l’elettronica tradizionale.
Spintronica è un neologismo derivante dalla contrazione dei termini inglesi spin ed electronics, in altre parole è la disciplina di una nuova elettronica fondata sullo spin.
Tradizionalmente tutti i dispositivi elettronici commerciali sono basati sul trascinamento per mezzo di un campo elettrico o sulla diffusione di portatori di carica, elettroni e lacune, disponibili nei semiconduttori. I dispositivi spintronici sono progettati in modo che si produca un'interazione tra un campo magnetico esterno alla struttura ed i portatori che fluiscono al suo interno; poiché alla proprietà intrinseca di spin è associato un momento magnetico.
In generale il momento magnetico è una grandezza fisica vettoriale che esprime le proprietà di un corpo assimilabile ad un dipolo magnetico come una calamita o un circuito elettrico. Quindi Il vettore momento magnetico ha un valore numerico (o scalare), una direzione e un verso, che dipende dal senso della corrente elettrica.
Per un circuito elettrico il valore numerico del momento magnetico è definito come il prodotto dell’intensità di corrente che vi circola per l’area racchiusa dal circuito, la direzione è perpendicolare al piano individuato dal circuito e il verso si ottiene con la regola della mano destra ( avvolgendo le dita nel senso della corrente, il verso del momento magnetico è indicato dalla punta del pollice).
Le argomentazioni espresse sul momento magnetico di una corrente elettrica permettono di definire anche il momento di corpi magnetizzati. Questo fenomeno magnetico, infatti, si può interpretare pensando a correnti elettriche circolari interne agli atomi, considerando la materia come un insieme di microscopici circuiti elettrici. Nel loro moto orbitale intorno al nucleo, gli elettroni costituiscono tante piccole correnti chiuse, ognuna delle quali caratterizzata da un momento magnetico specifico. Il momento magnetico del corpo è dato dalla somma vettoriale dei momenti associati a tutti gli elettroni atomici che esso contiene,
La spintronica intesa inizialmente come tecnologia di memorizzazione, da pochi anni a questa parte riesce a trovare nuovi spazi di ricerca nella cosiddetta spintronica organica, che punta a trovare nuove soluzioni tecnologiche anche nel campo degli OLED prevedendo, nel medio termine, un deciso aumento dell’efficienza luminosa per effetto della iniezione di portatori con spin polarizzato.
L’obiettivo è quello di sviluppare i materiali e le tecnologie per realizzare dispositivi elettronici, oltre le memorie, con proprietà notevolmente superiori a quelle basate sulla tecnologia attuale. L’utilizzo innovativo della iniezione di portatori con spin polarizzato in semiconduttori organici prevede applicazioni che interessano un settore dalle notevoli potenzialità quale quello degli schermi OLED, con la potenzialità di migliorare di un fattore fino a quattro la loro efficienza luminosa, attraverso applicazioni in dispositivi sia attivi che passivi, sviluppando l’elettronica di consumo dei telefoni cellulari, delle autoradio, degli schermi per personal computer e per televisori.
Studi di proprietà spettrali e di efficienza luminosa di OLED con uno o due elettrodi spin polarizzati nascono dall’idea di realizzare, nel settore dell’illuminotecnica, dispositivi spintronici con l’utilizzo combinato di semiconduttori organici e di materiali a magnetoresistenza colossale.
Si ricorda in conclusione che la magnetoresistenza è la proprietà di alcuni materiali di cambiare il valore della loro resistenza elettrica in presenza di un campo magnetico esterno. Questo effetto è stato scoperto da Lord Kelvin nel 1856, anche se i primi materiali studiati evidenziavano una variazione massima del 5% della resistenza elettrica. I materiali che mostrano queste variazioni sono detti a magnetoresistenza ordinaria (OMR-Ordinary MagnetoResistance), ma recenti scoperte hanno portato alla scoperta della magnetoresistenza gigante (GMR-Giant MagnetoResistance) e della magnetoresistenza colossale (CMR-Colossal MagnetoResistance), proponendo nuove aspettative di ricerca nella spintronica organica.

.

domenica 24 maggio 2009

La battaglia nanotecnologica degli schermi video: SED contro OLED



La tecnologia SED (Surface-conduction Electron-emitter Display) è stata studiata e progettata qualche anno fa e, almeno sulla carta, ha ottime qualità tecniche per renderla una valida alternativa ai sistemi OLED.
I nuovi schermi SED, per televisori, dovevano entrare in produzione già nell'agosto del 2005 e in seguito messi in vendita nella primavera del 2006. Il vicepresidente di Toshiba, invece, nel marzo del 2006 ha posticipato la loro produzione nel corso del biennio 2007/08 e il probabile ingresso nel mercato negli anni successivi, una volta risolta la causa tra Canon e Nano-Proprietary, legata a problemi di licenze non concesse a Toshiba.
Con questo sistema ogni singolo pixel dello schermo è costituito da un tubo catodico in miniatura, funzionante come i vecchi tubi a raggi catodici, in sigla CRT (dal corrispondente termine inglese "cathode-ray tube"), composti da fosfori luminosi, che sono illuminati da fasci di elettroni.
Si avranno, di conseguenza, miglioramenti sui livelli del nero, sull’angolo di visione e sulla resa cromatica generale. In altre parole, si uniscono i vantaggi dei vecchi CRT con quelli degli LCD e dei Plasma.
Ricordiamo in sintesi le caratteristiche dei sistemi al plasma ed a LCD; uno schermo al plasma (Plasma Display Panel - PDP) è un tipo di schermo piatto comunemente usato per grandi televisori al di sopra dei 32 pollici. Il sistema è composto da molte piccole celle poste in mezzo a due pannelli di vetro, all’interno dei quali risiede una mistura inerte di gas nobili quali neon e xeno. Il gas nelle celle è trasformato elettricamente in un plasma, il quale in seguito eccita i fosfori ad emettere luce.
Uno schermo a cristalli liquidi o LCD (Liquid Crystal Display), è uno schermo sottile e leggero basato sulle proprietà ottiche di particolari sostanze denominate cristalli liquidi. Tale liquido è intrappolato fra due superfici vetrose provviste di numerosissimi contatti elettrici con i quali poter applicare un campo elettrico al liquido contenuto. Ogni contatto elettrico comanda una piccola porzione del pannello identificabile come un pixel o subpixel per gli schermi a colori.
La tecnologia SED, a differenza degli OLED, ha un'aspettativa di vita del display piuttosto lunga, mentre i tempi di risposta, sono più alti rispetto a quelli promessi dal concorrente, rimanendo sempre nell'ordine dei decimi di millisecondo.
Il contrasto della tecnologia SED si dovrebbe attestare su valori di 100.000:1.
Purtroppo, nonostante le buone caratteristiche tecniche, il costo produttivo di questa tecnologia è ancora molto alto ed essendo tutto questo settore di ricerca coperto da brevetti detenuti da Canon ( multinazionale capace di sviluppare i concetti di electron-emission e microfabrication ) e Toshiba (leader nella creazione di CRT e LCD ), non ci si aspetta, nel breve periodo, un lancio su larga scala dei SED, poiché recentemente la stessa Toshiba ha annunciato il suo appoggio alla tecnologia OLED.

Ritornando alle caratteristiche della tecnologia SED, possiamo sintetizzare che ogni singolo pixel è un microscopico tubo catodico, con fosfori luminosi che sono accesi da un flusso di elettroni, unendo le qualità tecnologiche dei tubi catodici, come contrasto e velocità di risposta, alla praticità di uno schermo piatto al plasma o LCD.
Un'altra importante caratteristica è che l'immagine non perde qualità nei pressi dei bordi grazie a migliaia di "pistole", una per ogni pixel, che agiscono sparando elettroni anche nelle zone esterne, consentendo di avere delle dimensioni dello schermo elevate, un ingombro sicuramente ridotto, e la qualità dell'immagine ai bordi esattamente uguale come al centro dell'immagine.
Questi schermi nanotecnologici usciranno molto presto dai laboratori e gli utenti informatici potranno trarre enormi vantaggi dall'uso di monitor SED. Infatti, la possibilità di avere un dot pitch particolarmente basso, unito a tempi di reazione da record, ne farà una scelta obbligata per grafici, progettisti, e per le applicazioni dei videogiochi più complessi.
Ricordo in conclusione e per completezza di informazione, che il dot pitch, chiamato anche fosforo, è la somma delle dimensioni di una triade e la distanza tra le triadi stesse, dove per triade si intende un gruppo di tre puntini di fosforo, di colore rosso, verde, blu all'interno di uno schermo CRT, quindi indirettamente è la misura della larghezza di un singolo pixel. In generale dunque un display con minore dot pitch dovrebbe avere una migliore qualità di immagine rispetto ad uno con dot pitch più elevato.

domenica 17 maggio 2009

OLED: come illuminare la casa del futuro


Come avviene di norma nell’ambito delle discipline scientifiche, anche nell’illuminotecnica sono stabiliti i principi sui quali si basa la valutazione delle caratteristiche delle lampade e degli apparecchi di illuminazione standardizzando le relative unità di misura. Le definizioni più importanti sono rappresentate dall’efficienza luminosa che è pari al rapporto fra il flusso luminoso (lm) emesso da una sorgente luminosa e la potenza elettrica assorbita (watt, W): E = F/P, e dal flusso luminoso che rappresenta la quantità di luce od energia raggiante emessa da una sorgente
nell'unità di tempo: F = Q / t = quantità di luce/tempo da cui si deduce che il flusso luminoso è una potenza (energia diviso tempo).
L’efficienza luminosa come appunto dice anche la parola esprime l’efficienza di una lampada, si
misura in lm/W ed è una funzione variabile con il tipo di lampada.
L'efficienza di una lampadina ad incandescenza si aggira intorno ai 13,8 lumen/watt, quella di una lampadina alogena può arrivare fino ai 20 lumen/watt, mentre arriva fino a 60 lm/watt nelle lampadine fluorescenti, ovvero quelle a risparmio energetico. Sono di recente commercializzazione sorgenti di illuminazione a led che raggiungono, entro un angolo di 60°, l'efficienza di oltre 150 lm/watt.
Il flusso luminoso, per quanto detto sopra, non è altro che la parte di radiazione emessa (W) da una sorgente all’interno del campo del visibile, tra i 380nm e 780nm, nell’unità di tempo.
Nel panorama della illuminotecnica entrano di prepotenza gli OLED costituiti da polimeri organici che emettono luce quando sottoposti ad una debole corrente elettrica, consentendo di realizzare elementi illuminanti di forma piana, molto sottili ed a basso consumo energetico.
Questi sono dispositivi che stanno rivoluzionando anche il mondo delle sorgenti luminose, mostrando grandi potenzialità per lo sviluppo di moduli solidi piatti e flessibili visibili sotto forma di fogli ( carta da parati ) o di piastrelle, che oltre ad illuminare potranno anche arredare la casa del futuro.
I fogli flessibili OLED e le piastrelle OLED si possono, quindi, utilizzare per un’illuminazione ad alta efficienza, caratterizzando sistemi di elevata luminosità con basso consumo di energia.
Vediamo ora come è stato il lancio di questa nuova ed innovativa tecnologia, il 14 maggio 2007 ad Aachen in Germania due anni e mezzo dopo il suo inizio, il progetto di ricerca OLLA, Organic high brightness emitting diodes for ICT & Lighting Applications, ha raggiunto un importante traguardo nella creazione di un prototipo di sorgente di luce bianca realizzato con diodi a emissione di luce organici (OLED), con una efficienza di 25 Lumen per Watt e una durata di oltre 5000 ore oltre a una luminanza di 1000 cd/m2.
Il progetto OLLA, si pone, tra gli altri, l’obiettivo finale di ottenere prodotti con un tempo di vita di almeno 10.000 ore, 10 volte superiore alla durata di una lampada ad incandescenza standard, e un’efficienza di 50 lumen per Watt.
Una Considerazione alla base del progetto OLLA si fonda sul fatto che il consumo energetico per l’illuminazione in Europa ammonta a quasi 400 TWh/anno, ipotizzando, infatti, un risparmio del 30% rispetto all'uso di lampade ad incandescenza ed una penetrazione sul mercato del 30% di queste nuove tecnologie oled, si può prevedere una riduzione del consumo elettrico di poco inferiore al 10%, pari all’ammontare di energia fornita da circa 7 centrali termoelettriche di grande potenza.
Questo risparmio energetico avrà come conseguenza diretta una riduzione della quantità di gas serra immessa nell’atmosfera corrispondente a diversi milioni di tonnellate per anno di CO2, con effetti sicuramente benefici sull’ambiente.
Da fonte Osram possiamo dire che il futuro dell’illuminazione OLED è già iniziato con una lampada da tavolo dal nome è Early Future.
Si tratta di una lampada da tavolo prodotta dalla Osram Opto Semiconductors composta da dieci diversi pannelli Oled, che misurano 132 × 33 mm ciascuno e una luminanza di 1000 cd/m2, la luminaza è definita come il rapporto tra l’intensità luminosa emessa da una sorgente verso una superficie normale alla direzione del flusso e l’area della superficie stessa.
I diodi organici possiedono uno spessore dello strato attivo tipicamente inferiore a 500 nm in grado di emettere luce sfruttando la proprietà elettroluminescente di alcuni composti organici, determinando proprietà uniche, come l’estrema flessibilità, la leggerezza e la trasparenza.
Gli Oled hanno un costo molto ridotto e consumano meno elettricità di quella che serve alle lampadine a risparmio energetico, inoltre hanno una superficie radiante che genera una luce diffusa, riducendo le ombre e riflessi indesiderati, caratteristiche queste, che determinano un enorme passo avanti nell’illuminazione ad alta efficienza.

domenica 3 maggio 2009

Centrali termoelettriche e nanopatologie


Ultimamente, dopo l’accordo Berlusconi-Sarkozy, si è parlato spesso di centrali termonucleari, non focalizzando sufficientemente, a livello di pianificazione energetica, i problemi ambientali delle già progettate centrali termoelettriche a gas naturale, tecnicamente denominate Ngcc ( Natural Gas Combined Cycle ).
Con il meccanismo attivato in Italia della liberalizzazione del mercato dell’energia, si è assistito negli ultimi anni alla presentazione di numerose proposte di impianti termoelettrici a gas metano, caratterizzati da cicli combinati e cogenerativi, che si aggiungeranno agli esistenti impianti funzionanti con altri combustibili.
In generale, le centrali termoelettriche sono caratterizzate da una caldaia, alimentata automaticamente dal deposito che contiene il combustibile e attraversata da una serpentina nella quale circola l'acqua.
L'acqua, grazie alla combustione e all'energia termica conseguentemente creata, è riscaldata fino a circa 300°C trasformandosi in vapore; in seguito il vapore è ulteriormente riscaldato fino oltre i 450°C, acquisendo una notevole pressione.
Il vapore, con queste caratteristiche di temperatura e pressione, è convogliato sulla turbina, dove cede la sua energia cinetica facendo ruotare la stessa. La turbina a sua volta, collegata all'asse dell'alternatore lo trascina in rotazione. Nell'alternatore, in base al fenomeno dell'induzione elettromagnetica, l'energia meccanica trasmessa dalla turbina, è trasformata in energia elettrica. L'energia elettrica prodotta dall'alternatore è trasmessa al trasformatore che ne innalza la tensione, per evitare perdite, prima di immetterla nella rete di distribuzione. Il vapore che esce dalla turbina, escluse le centrali turbogas a ciclo aperto, è riportato allo stato liquido nel condensatore e ripompato nella caldaia.
Il camino della centrale termoelettrica, infine, espelle nell'atmosfera i fumi della combustione.
I produttori di energia termoelettrica dicono, riferendosi ai fumi della combustione, che è un processo molto importante, infatti, i fumi prima di essere rilasciati in atmosfera, devono essere opportunamente filtrati, per ridurre le emissioni inquinanti. Affermano, inoltre, che dalle centrali termoelettriche i fumi escono dopo aver subito un minuzioso processo di depurazione per garantire che l'inquinamento dell'aria sia veramente ridotto a valori inferiori ai limiti di legge.
Questi limiti di legge sono dettati dai decreti sulla Valutazione di Impatto Ambientale (VIA) scaricabili dal sito del Ministero dell’Ambiente, pertanto nei progetti per le nuove centrali Ngcc si dovrebbero menzionare oltre le polveri PM10 anche le PM2,5, ma soprattutto le PM0,1 come inquinanti di rilievo.
Diversi articoli di settore testimoniano che per le centrali italiane, ai fini della valutazione dell’inquinamento atmosferico, è richiesto unicamente di misurare il Pst ( Particolato Sospeso Totale ) primario filtrabile, che peraltro ha scarsa rilevanza sanitaria. Questo approccio si rivela quindi totalmente inutile per valutare l’inquinamento da polveri di centrali a gas che producono PM10, PM2,5 e PM0,1, principalmente di natura secondaria.
La definizione corrente di particolato contempla quattro categorie, a seconda dell’intervallo di dimensioni del diametro aerodinamico della particella, che indicato con (da) si denomina: ultrafine per da≤0,1 μm; fine per 0,1 μm≤da≤2,5 μm; grossolano per 2,5 μm≤da≤10 μm; ultragrossolano per da>10 μm.
Questa articolata classificazione è semplificata nella prassi comune ove si utilizzano i termini PM10, PM2,5 e PM0,1 per indicare tutto il particolato con diametro minore od uguale rispettivamente a 10, 2,5 e 0,1 micron (μm).
Il particolato atmosferico, quindi, è costituito da particelle inorganiche talmente piccole da poter essere inalate e, attraverso gli alveoli polmonari, assorbite dal sangue che può portarle verso ogni organo o tessuto del corpo umano dove, accumulandosi, possono dar luogo a processi degenerativi meglio noti con il nome di nanopatologie.
Le nanopatologie, pur coinvolgendo diversi campi della medicina, sono tematiche nuove al di fuori di ambiti scientifici molto particolari e ancora riservate agli addetti ai lavori.
Volendo offrire una loro definizione possiamo affermare che le nanopatologie sono le malattie provocate da microparticelle e, soprattutto, nanoparticelle inorganiche che riescono a penetrare nell’organismo, sia umano che animale, provocando effetti i cui meccanismi sono ancora in gran parte da indagare e approfondire.
In ambito medico, si comincia a prendere atto che l’incremento vertiginoso della concentrazione in atmosfera delle nanopolveri va di pari passo con l’incremento di affezioni, per esempio, di natura cardiovascolare, ed inoltre cominciano ad essere molto sospette malattie tumorali, malattie neurologiche, malattie della sfera sessuale e malformazioni fetali.
Per queste indagini ci si avvale principalmente degli ESEM (Environmental Scanning Electron Microscope), in altre parole microscopi elettronici a scansione ambientale, opportunamente modificati. Questi strumenti nanoscopici offrono la possibilità di osservare campioni biologici in "wet mode", vale a dire in condizioni di normale idratazione, a pressione atmosferica, senza la necessità di renderli elettroconduttivi tramite ricoperture di carbone o di metalli quali l'oro e il palladio.
Quindi, il principale obiettivo dell'analisi è l'individuazione di micro/nano-particolato inorganico eventualmente contenuto nell'esemplare in studio, che è raggiunto senza alcun processamento del campione.
Da monitorare, infine, anche il grande aumento delle patologie allergiche, specie a livello pediatrico, che potrebbe essere correlato a fenomeni d’inquinamento ambientale o a prodotti d’uso comune quale, ad esempio, il cemento cui vengono sempre più spesso addizionate le ceneri che residuano da processi di combustione fossile delle centrali termoelettriche, ma questa è un’altra storia.

domenica 26 aprile 2009

Il futuro dei PC passa anche per gli smartphone.


“Silverthorne”, è il nuovo processore mobile della multinazionale Intel di Santa Clara, destinato a costituire la base per i dispositivi UMP (Ultra Mobile Platform).
Grazie ai miglioramenti introdotti nel processo produttivo, questo processore sarà in grado di assicurare performance superiori, infatti, avrà un profilo energetico incredibilmente basso, compreso fra 0,6 e 2 watt, tutto ciò consentirà un suo impiego non solo nei dispositivi subnotebook di categoria UMP tra cui i PC ultramobili (UMPC) e i Mobile Internet Device (MID), ma anche negli smartphone.
Questo sviluppo tecnologico, imprevedibile fino a qualche tempo fa, apre scenari completamente nuovi, possiamo facilmente immaginare quali applicazioni potrebbe avere un processore così potente all'interno di un telefono cellulare.
Silverthorne avrà le dimensioni di un francobollo, grazie alla tecnologia di processo high-k metal gate a 45 nanometri, fornendo all'incirca le stesse performance di un Pentium M di prima generazione, basato su tecnologia a 90 nanometri e con un consumo medio di circa 21 watt.
Da un singolo wafer da 300 mm sarà possibile ricavare circa 2500 processori Silverthorne, grazie alla maggiore miniaturizzazione rispetto ai suoi predecessori, rendendo questi chip i più economici mai realizzati dalla multinazionale americana.
Vediamo più nel dettaglio cosa sono i subnotebook e gli smartphone.

Il Mini-portatile o Subnotebook è un computer portatile di peso e dimensioni limitati, possiede solo le capacità essenziali di un portatile ma è notevolmente meno ingombrante e più leggero. Comunemente offre uno schermo con diagonale da 26,5cm = 10.4″ o meno, e una massa da meno di 1 kg, in contrapposizione al portatile full-size che ha uno schermo da 30,5cm =12″ o 38cm = 15″ e un peso superiore a 2 kg. La misura ed il peso contenuti usualmente sono il risultato dell'omissione di porte o drive, infatti, i subnotebook possono essere spesso accoppiati con stazioni base fisse per compensare le caratteristiche mancanti.
Per smartphone generalmente si considera ogni dispositivo portatile che integra un sistema di gestione di informazioni personali e funzionalità di telefonino nello stesso apparecchio.
Questo succede aggiungendo le funzioni di cellulari ai PDA (Personal Digital Assistant) ovvero computer palmari, oppure aggiungendo funzionalità "intelligenti", come le funzioni di PDA, ad un cellulare.
Sugli smartphone opera un sistema operativo, il più comune è il Symbian, gli altri sono il Pam OS, Windows CE e sue evoluzioni, e Linux.
La funzionalità di uno smartphone è completa, infatti, si passa dal ricevitore GPS, alla connessione WiFi e Bluetooth, dalla push email (la possibilità di un apparecchio come uno smartphone o un palmare di trasferire email in tempo reale) alla connettività 3G HSDPA e HSUPA, in particolare con l’utilizzo delle tecnologie HSDPA (High Speed Downlink Packet Access ) e HSUPA (High Speed Uplink Packet Access ), le velocità di Download possono arrivare fino a 7.2 Mega, mentre la velocità di Upload fino a 2Mega.
In informatica viene chiamata upload, che in italiano vuol dire caricamento, l'azione di invio alla rete di un file, mentre l'azione inversa è definita download.
Tutte queste sigle, acronimi, terminologie in inglese sono entrate nel linguaggio comune dei più esperti utenti della rete, ma è importante comprendere, anche ad un semplice livello divulgativo, per una più consapevole gestione di questi strumenti, il funzionamento della componentistica nanoelettronica che gestisce tutto ciò: il transistor.

domenica 19 aprile 2009

La discesa verso il nanocosmo ed oltre.


Per meglio comprendere le dimensioni che caratterizzano il mondo delle nanotecnologie, si possono rappresentare alcune grandezze metriche che contano nel vivere quotidiano di ognuno di noi.
Ad esempio, l’uomo può essere misurato in metri, mentre uno spillo ha uno spessore dell’ordine del millimetro, ovvero 0,001 metri.
Un capello, che spesso nella divulgazione sulle nanotecnologie è preso come riferimento per far capire le dimensioni nanometriche, ha uno spessore medio di 50 micron, corrispondenti a 0,00005 metri.
Continuiamo nella nostra discesa dimensionale e incontriamo le cellule che sono le unità fondamentali della vita ovvero le più piccole entità definite vive. La cellula possiede la capacità di mantenere al proprio interno condizioni chimico-fisiche diverse dall'ambiente circostante, in pratica è un piccolo, ma potentissimo, laboratorio chimico all'interno del quale si susseguono continuamente reazioni che stanno alla base del metabolismo vitale.
In questo caso l’ordine di grandezza metrica da considerare è il micron, in altre parole un milionesimo di metro.
I virus Sono mediamente circa 100 volte più piccoli di una cellula e consistono di alcune strutture fondamentali. Il loro comportamento parassita è dovuto al fatto che non hanno tutte le strutture biochimiche e biosintetiche necessarie per la loro replicazione. Tali strutture sono reperite nella cellula ospite in cui il virus penetra, utilizzandole per riprodursi in numerose copie.
Quindi i virus sono entità biologiche con caratteristiche di parassita obbligato che possono essere responsabili di malattie in organismi appartenenti a tutti i regni biologici.
Le dimensioni in questo caso sono di 100 nm, limite metrico superiore del mondo nanotecnologico.
Come diceva il fisico Richard Feynman “There's Plenty of Room at the Bottom “traducibile con: "C'è un sacco di spazio giù in fondo", si può proseguire nella discesa della scala dimensionale trovando le proteine, molecole che si trovano in tutte le cellule di un organismo.
Le proteine sono formate da catene di aminoacidi particolari ed univoche per ciascuna di loro. Ogni proteina è costituita da una o più catene di aminoacidi disposti secondo una sequenza precisa e caratteristica. Questa successione non casuale di aminoacidi lungo la catena, detta struttura primaria della proteina, può consentire per idrofilia o idrofobicità una serie di legami o interazioni tra aminoacidi non contigui, grazie ai quali la proteina assume una conformazione tridimensionale caratteristica, di grado più o meno complesso a seconda del tipo di strutture e del numero di catene proteiche coinvolte.
Le proteine hanno dimensioni medie dell’ordine dei 10 nm.
Più sotto troviamo Il DNA che è un polimero di unità più piccole legate tra loro attraverso legami fosfo-diesterici: i nucleotidi.
Abbiamo, infatti, 4 diversi tipi di nucleotidi, che si differenziano per la base azotata che contengono. Un nucleotide è costituito da uno zucchero (il deossiribosio nel DNA o il ribosio nell'RNA), un gruppo fosfato, ed una base azotata (citosina, adenina, timina, uracile, guanina).
Siamo arrivati con il DNA a larghezze dell’ordine di 1 nm, in pratica un miliardesimo di metro.
Sotto le dimensioni del nanometro troviamo l’atomo, che rappresenta la più piccola porzione di un elemento chimico che conservi le proprietà dell’elemento stesso.
La parola "atomo", che deriva dal greco átomos, "indivisibile", fu introdotta dal filosofo greco Leucippo per definire le entità elementari, indistruttibili e indivisibili, di cui egli riteneva che fosse costituita la materia.
Ogni sostanza ha una sua struttura atomica, dovuta alla quantità, disposizione e natura dei componenti atomici.
Per la chimica, l’atomo, invece, è la più piccola particella capace di combinarsi in un composto o in una reazione.
L'atomo non è altro che una struttura di energia che ponendosi in una gerarchia di particelle assume una forma che è possibile analizzare anche dal punto di vista chimico.
In questo caso siamo di fronte ad un livello di frazioni di nanometro, più precisamente a 0,1 nm.
Ancora più in basso troviamo l’elettrone scoperto nel 1897, da parte di J.J. Thompson, che ha fatto notare per la prima volta l'esistenza delle particelle elementari, o meglio la natura non continua della materia.
Delle tre particelle che costituiscono gli atomi, l'elettrone è notevolmente il più leggero ed il più piccolo.
Il raggio dell'elettrone è così piccolo da poter dire che è puntiforme. Sappiamo inoltre che è privo di struttura interna, vale a dire è una particella fondamentale perché non composta da altre più piccole. Nell'uso comune, l'elettrone viene abbreviato con il simbolo "e-" e la sua carica elettrica per convenzione è negativa. La carica dell'elettrone Qe è identificata come carica elementare.
Il fatto che l’elettrone sia puntiforme vuol dire che a livello dimensionale siamo arrivati a 3 fm, cioè 0,000003 nm., in altre parole siamo andati oltre il nanocosmo.