Sottocosto Trony a Rimini

Da oggi 21 Ottobre 2009 e fino al 31 Ottobre 2009 si svolge la campagna di offerte sottocosto di Trony ke festeggia il compleanno della sede di Rimini. Sn diversi i prodotti offerti sottocosto e si segnala il notebook COMPAQ modello CQ60 con microprocessore AMD QL62, 4 GB di RAM, HD da 320 GB con schermo LCD da 15,6″ e webcam integrata a 349 Euro. Sn presenti inoltre molte altre offerte su varie categorie merceologike e quindi è consigliato farci un giro. Sempre in questo periodo ma con validità x tutti i negozi Trony in Italia è possibile vedere le offerte e proposte commerciali sul seguente volantino online.

Paolo Gargini, Intel Fellow e vice-presidente per la ricerca avanzata

Direttamente dal blog di Beppe Caravita, giornalista ke scrive x il quotidiano il sole24ore.it e penso anke altri, una storia interessante, di un fiorentino, fisico e ingegnere: Paolo Gargini. Vale la pena di riportarla integrale.

La sua storia ?

Nel 1965 un professore di ingegneria di Bologna, Ercole De Castro, fece un’associazione con l’Università di Stanford. E allora mandò due ricercatori a Stanford e l’università californiana mise a disposizione tutti i macchinari e le tecnologie di cui si serviva. Questo professore, così, riuscì ad ottenere dei finanziamenti e mise in piedi a Bologna un laboratorio analogo a quello di Stanford. Ai tempi Firenze si occupava di architettura e Bologna di ingegneria. E io, fiorentino, andai appunto a studiare a Bologna e entrai in questo laboratorio appena avviato. Un fatto difficilissimo fare un laboratorio del genere in Italia, un miracolo. Ma De Castro era convintissimo: già nel 1965 ci diceva che questi semiconduttori avrebbero cambiato il mondo. E fu profetico.
Io volevo fare telecomunicazioni, perché era quello che allora si faceva in Europa. Ma lui reclutò quattro di noi studenti, con media del 30, per il suo nuovo laboratorio. Guardate, ci disse, io sono convinto che siamo alle soglie di una rivoluzione che esploderà negli anni 80 e vorrei che vi specializzaste su questo. Io mi ero già occupato di progettazione di circuiti, e avevo qualche conoscenza di base in merito. Ne sapevo di fisica dello stato solido. Per cui lui convinse tre di noi a prendere anche la laurea in fisica. E ci convinse bene. Per cui nel 1970 presi la laurea in ingegneria elettronica e dopo, nel 72, quella in fisica. Sempre a Bologna, completando i miei studi sullo stato solido.
Vinsi poi una borsa di studio Fullbright. E andai ovviamente a Stanford. Camminavo nei laboratori e sapevo che cosa vi si faceva, erano i tempi dei primi circuiti integrati Mos. In quel momento l’Intel aveva fatto la prima memoria da un kilobyte.
E venni messo in un gruppo per sviluppare i primi c-mos, una tecnologia che poi arriverà realmente sul mercato solo nel 1984. E il capo di questo gruppo era della Fairchild. La C-mos era una tecnologia estremamente complicata, allora. Finii lo stage di tre anni e me ne tornai in Italia. Ma qui le cose, al mio rientro, mi apparvero estremamente lente.

Nel frattempo uno dei professori di Stanford, Craig Barrett, si era stufato di stare all’università e andò all’Intel. Nel 1972. Noi a Stanford si andava a nuotare assieme e si diventò conoscenti. Quando tornai in Italia, nel 1977, andai a una conferenza in Usa e tra gli altri andai fuori a cena con Barrett. E lui mi propose di andarlo a trovare il mattino dopo all’Intel. Quando arrivai la guardia mi disse che il mio gruppo di intervistatori era già pronto, e risposi che forse c’era un fraintendimento. Ma mi avvertirono che Barrett era occupato fino a mezzogiorno e nel frattempo aveva pensato bene di farmi intervistare. Lo presi come un gioco, non sapendo che il gruppo era composto dal capo della ricerca, di quello delle memorie e della produzione.
Passai il pomeriggio con Barrett. E me ne tornai in Italia. Dopo due mesi mi arrivò una lettera dall’Intel per posta. Era un’offerta di lavoro, molte volte di quello che guadagnavo al tempo, come ricercatore Cnr. E poi nel marzo del 78 tornai in Usa per una conferenza. E Barrett mi disse: questo non era abbastanza, ti farò una proposta che non potrai rifiutare. Sembrava di essere nel film Il Padrino. Mi fece la proposta e alla fine, nell’estate del 78, capitolai. Facciamo questo esperimento e, se non funziona, me ne posso sempre tornare in Italia. Presi un’aspettativa di tre anni dal Cnr e andai a lavorare a Santa Clara. All’inizio Barrett, che era un professore di fisica dello stato solido, voleva un aiuto sull’affidabilità dei componenti, che non era esattamente il mio campo. E lui mi disse: poi ti affido qualcosa di meglio per te. Però cominciai lo stesso. Poi due anni dopo tornò da me e mi disse: hai fatto quello che ti avevo chiesto. Ora ti affido un compito un po’ più vicino ai tuoi interessi. Spero che tu ne sappia un po’ di questi nuovi microprocessori. Io ti affiderei la guida del gruppo sviluppo di questo 286, però non ti posso dare molti soldi, con il tuo nuovo gruppo cerca di spendere poco, perché di questi ne venderemo poche decine di migliaia di pezzi.
Invece Ibm scelse proprio il 286 C-Mos per il suo secondo pc e poi partimmo in quarta sul 386. Mi trovai nell’occhio del ciclone. Il mio gruppo decollò.
Alla metà degli anni 80 si lavorava su memorie da 256mila componenti sia in N-Mos che in C-mos. Il problema era che con il Cmos si avevano il doppio dei componenti. Alta complessità. E allora facemmo ambedue le tecnologie, ma la dissipazione di potenza sull’N-Mos cominciava ad essere troppo elevata. Per fortuna in quegli anni il C-Mos fece progressi tali da poter essere prodotto su crescenti densità di componenti, paragonabili a quello che si faceva prima ma con livelli di dissipazione nettamente inferiori.

Questo permise la continuazione della legge di Moore, e il passaggio senza strappi dalla tecnologia N-Mos a quella C-Mos.

Il problema però si ripresentò alla fine degli anni Novanta. Si doveva fare di nuovo qualcosa di fondamentale per diminuire la potenza immessa nei microprocessori, e quindi la dissipazione, il calore e gli effetti elettromagnetici distorsivi che tendevano a crescere troppo in relazione all’aumento di velocità dei chip, ovvero ai gigahertz.
Stressando il silicio, e insieme mettendo un dielettrico, un isolante, tra il gate e il substrato, si è ottenuta una riduzione da 100 a mille volte della dissipazione di potenza. Per cui un chip come l’Atom con 50 milioni di transistori consuma meno di un watt, contro un precedente Pentium 4 che con 30 milioni di transistori arrivava a consumi di 100 watt.
E questa è stata la seconda transizione. Mentre negli anni 80 fu quella di mettere due componenti complementari, questa elimina tutte le perdite di energie.
Un esempio a contrario: il rame, su cui ha puntato Ibm,  è come progettare una città in cui tutte le strade passano da senso alternato a unico, in modo che tutti possano muoversi più velocemente. Ma i semafori restano gli stessi.
La chiave invece era cambiare il transistore stesso. Prima, nel transistor originale, tra il gate e la sorgente c’era ossido di silicio. Ma noi siamo riusciti a rimpiazzarlo con ossido di Afnio, isolante. Questo materiale, accuratamente scelto, offre una minor dissipazione di uno o due ordini di grandezza.
Fu per questo che, nel 1999-2001, nel laboratorio I-Mac lavorammo su due candidati: Zirconio e Afnio. Alla fine si scelse l’Afnio, lo si portò dentro Intel, lo si perfezionò e così via. E ora siamo sulla seconda generazione.

Cosa pensa della legge di Moore? Il silicio ha ancora un futuro, e per quanto tempo? Oggi voi lavorate in fabbrica sui 45 nanometri, in laboratorio state sviluppando i 16 nanometri e persino qualcuno dice che pensiate ai 4 nanometri? Come stanno le cose?

Il fatto è che se uno pretende di utilizzare voltaggi elevati su chip ormai così delicati, questi ovviamente si spaccano. Però ora lavoriamo su voltaggi di meno di un volt, per cui queste limitazioni sulla fine prossima del silicio sono state molte volte fatte in modo miope. Certo, se uno mantiene i voltaggi di un tempo è chiaro che si arrivi a dei limiti del silicio. Ma se invece si riescono a ridurre le potenze elettriche immesse in modo equilibrato si può andare oltre. E il fatto che si possa costruire un transistore di 4 nanometri significa una precisa calibrazione della potenza, un isolamento dall’ambiente circostante quasi perfetto, via ossido di Afnio, un’architettura e un processo produttivo appropriati …

Siamo al livello di meno di cento atomi, sotto la dimensione di un grosso enzima. Eppure pensate di riuscirci.

Fortunatamente abbiamo trovato la chiave tecnologica per farlo.

Eppure sul Pentium 4 andaste a sbattere contro la barriera dei 4 gigahertz sul singolo microprocessore

Nel 1989 quattro di noi costruirono una proiezione secondo cui ci si aspettava che nel 2001 avremmo avuto bisogno di almeno 4 core. In modo di avere, anziche una solo core a 4 gigahertz quattro capaci di lavorare assieme in parallelo a 1 gigahertz. E questo fu un evento un po’ simile a quello del 1985 in cui si fece in parallelo una memoria in N-Mos e C-Mos proseguendo poi sulla seconda. Fu una specie di scelta obbligata. Fu un ultimo caso, il Pentium 4 , in cui si fece il single core, con troppa dispersione,  e calore. L’unica cosa da fare era la transizione, e poi si passò ai prototipi persino a 80 core, e prodotti a due e quattro. Siamo vicini al miliardo di transistori sul singolo chip. E al 2015, a 32 nanometri, ci si arriva. Questo non è il problema.

La Sun in quei tempi presentò uno Sparc a otto core. Voi ci siete andati più cauti

Il problema è che non c’era e ancora c’è software abbastanza per gestire bene i multicore. Per questo spingemmo il single core il più possibile. Dal punto di vista tecnologico la transizione era infatti assolutamente triviale. Per l’ingegnere che produce architetture o processi che vi sia uno o otto core non gliene frega niente. Però dal punto di vista delle applicazioni cambia tutto. Perché uno sfortunatamente non può prendere degli eventi sequenziali e trasformarli per magia in eventi paralleli. E’ come se uno prendesse il passato, il presente e il futuro e li fa accadere allo stesso tempo. Per cui è molto difficile.

Facciamo un parallelo con il Cell di Ibm , processore parallelo potentissimo, ma altrettanto difficile da programmare

Molte volte vi sono delle intuizioni e delle idee su come le cose potranno funzionare in futuro. Molte volte le cose falliscono perché uno cerca di farle accadere troppo presto. Mentre la tecnologia era in grado di provvedere multicore già negli anni 90, non c’era il software per sfruttarli. E’ il motivo per cui ci siamo mossi lentamente, con cautela. Perché ci stiamo tirando tutte queste migliaia di sviluppatori, che devono abituarsi a scrivere diversamente, devono cambiare modo di pensare, da sequenziale a parallelo. E non è facile. Oggi produciamo più strumenti di sviluppo software, e abbiamo più programmatori di Microsoft.

Bè, l’area della concorrenza, del parallelismo a giudicare dai linguaggi general purpose esistenti appare un po’ come la più primitiva della Computer Science?

Abbastanza vero. Ma questa comunità di sviluppatori sta cominciando a padroneggiare oggi quantomeno il multithreading su più core. C’è stato un miglioramento netto ma si può e si deve fare ancora molto.

Attaccare sul vero parallelismo massiccio e general purpose?

Si. E’ ormai tempo. Ci abbiamo scommesso vari milioni di dollari in progetti di ricerca, con decine di università.

E invece che cos’è per Intel il system on chip? Voi lo prevedete per i dispositivi mobili avanzati, e oggi?

Bè, guardi. Le faccio un esempio. Quando uno fa un personal computer mette cento milioni di transistori sulla Cpu (unità centrale di elaborazione), poi duecento milioni sulla memoria e trenta milioni sull’interfaccia….

Il chip-set. Tanto per capirci.

Sì, tutta questa roba. E di più. Oggi mettiamo tutto questo su un solo chip, e nel momento in cui tu li metti su un solo chip i tipi di trade off, di scelte, che puoi fare diventano diversi. Perché prima si prendeva la Cpu da Intel e la memoria da, mettiamo, Samsung. E allora c’erano dei margini da disegnare. Nel momento che uno disegna tutto sullo stesso chip l’architettura cambia. Può fare partizioni diverse, divedere la memoria in punti multipli. Non è solo un esercizio di tecnologia aggregativa, ma un ripensamento anche radicale. Noi stimiamo che, per una data tecnologia, per esempio i 45 o 32 nanometri il microprocessore, in progettazione, preceda l’analogo system on chip di almeno un anno.  Perché sul primo si punta alla massima potenza, ma sul secondo si studiano i voltaggi più bassi possibile, l’architettura complessa e ottimizzata. Il system on chip non è un sistema automatico.
Quando uno fa il sistema completo normalmente deve incorporare i regolatori di voltaggio, che nel caso del microprocessore sono esterni. E sono migliaia, tutti da posizionare al posto giusto. E poi questi componenti non sono di nostra tradizione, come le radio, che spesso abbiamo comprato fuori. Il System on chip è quindi un esercizio complesso a più tecnologie integrate sulla stessa piastrina, alcune per nulla facili.

Intel è quindi in pieno dentro la frontiera della complessità

In questo momento abbiamo circa 500 progetti di ricerca in corso. Diciamo 400 negli Usa e gli altri in altre parti del mondo, dal Giappone all’Australia. In pratica valutiamo idee da tutte le parti del mondo, e se ci convincono vi collaboriamo. Io ho perso la nozione del tempo, vivo in aereo, e se c’è luce sto sveglio e se c’è buio dormo. Bisogna guardare tutto. E uno non può fare un’invenzione in tempi brevi. Bisogna che sviluppi le possibilità per molto tempo. E bisogna valutare tutte le idee possibili.

Volete tenere il numero di ricercatori interni il più limitato possibile?

Sì, e ci interessa un rapporto solido con le università, dove i giovani esprimono idee nuove, a volte sorprendenti.

E sul fotovoltaico, come mai non ci siete?

Abbiamo investito su alcune aziende, con il venture capital interno. Non abbiamo trovato nulla di interessante, per noi come Intel corporate. La tecnologia è ancora rudimentale. Però credo utile questa buona tecnologia solare. Noi però si investe altrove, dove si fa fa meglio il nostro mestiere.

Package Debian Lenny Pidgin 2.6.2

E’ il mio primo tentativo di creare un .DEB ovvero un pacchetto (package) software x la distribuzione Debian Lenny 5.x.
Dato ke uso la versione Debian stabile (stable) nome in codice Lenny e + precisamente la versione 5.0.3, ke notoriamente è + adatta ad un uso server ke nn desktop, mi ritrovo cn molte applicazioni ke sn datate e nn allo stato dell’arte cm si suole dire. Una di questa è il programma di messaggistica istantanea Pidgin ke nella versione standard di Debian Lenny è fermo alla versione 2.4. Questa versione ha un bugs noto ke impedisce la comunicazione con i client Yahoo Messenger, guarda caso proprio quello ke uso e su cui ho registrato i miei contatti.
Orbene, mi sn scaricato i sorgenti dell’ultima versione di Pidgin ovvero la 2.6.2 e l’ho compilata e pacchettizzata infine installata in sostituzione della vecchia e devo dire ke funziona benissimo.
L’unica cosa ke nn va è l’audio/video ke in Debian Lenny nn è possibile attivare a causa di una libreria nn disponibile, pazienza.
Ho quindi deciso di renderlo disponibile a tutti gli utilizzatori di Debian Lenny creando un apposito arkivio sul web all’indirizzo http://www.laseroffice.it/Dpkg_Lenny dove scaricare il nuovo pacchetto pidgin_2.6.2-1_i386.deb e dove sxo col tempo di aggiungerne molti altri:
http://www.laseroffice.it/Dpkg_Lenny/pidgin_2.6.2-1_i386.deb
naturalmente attendo commenti nella speranza di aver fatto cosa utile a molti 🙂