Grande o piccolo? Le due strade dei prossimi chip.

Due notizie a distanza di pochi giorni portano all’attenzione dei non specialisti le due strade che sta prendendo l’evoluzione dei microprocessori, alla ricerca di prestazioni sempre più elevate. Storicamente la crescita è definita da una legge empirica, formulata nel 1965 da Gordon Moore, allora capo delle ricerca e sviluppo di Fairchild Semiconductors, l’azienda-madre dell’industria microelettronica americana e mondiale, nonché del concetto stesso di silicon valley. Nella versione definitiva di dieci anni dopo, Moore constatava che storicamente il numero di componenti di un circuito integrato era raddoppiato ogni due anni e che la tendenza sarebbe continuata; concludeva affermando che il costo della potenza di calcolo si sarebbe dimezzata ogni due anni. Con il procedere del tempo e con la continua conferma della previsione di Moore, la sua diventò una specie di legge e finì per guidare la pianificazione a lungo termine dell’industria e gli obiettivi della ricerca. In partica, siccome tutti lavoravano ritenendo che la legge fosse tale, le sue previsioni si trasformarono in una profezia autoavverantesi.


A partire dai primi anni 2000 la validità delle “legge” cominciò ad essere messa in dubbio, anche perché la tecnologia sembrava stesse raggiungendo i limiti fisici della realizzazione di componenti. Nel 2010 venne addirittura dichiarata smentita, ma evidentemente qualcuno non lo sapeva e la densità dei circuiti ha continuato a crescere, come si vede dal grafico.

Ciò non significa che non si arriverà mai a un limite, solo che per ora non ci siamo ancora. La più recente indicazione viene da IBM, che non produce più microchip in grandi quantità (ha venduto le sue fabbriche a Global Foundry nel 2014 e collabora anche con Samsung e Intel), ma è ancora tra i leader mondiali nelle ricerca industriale. Il 6 maggio scorso la società ha annunciato che il suo centro ricerca di Albany, nello stato di New York, è riuscito a realizzare un chip molto semplice (gli indizi puntano a una RAM statica con poche componenti logiche) ma funzionante, basato sulla tecnologia dei 2 nanometri (che non vuol dire che i componenti hanno quelle dimensioni) contenente in media 50 miliardi di transistor su una superficie di 150 mm2, con una densità di 333 milioni componenti per millimetro quadrato. Secondo IBM ciò permetterà un aumento di prestazioni del 45% a parità di architettura logica, oppure una riduzione del 75% dell’assorbimento di energia rispetto a quanto possibile con l’attuale tecnologia standard a 7 nanometri. Oggi sono in produzione alcuni microprocessori a 5 nm (tecnologia introdotta anch’essa per prima da IBM nel 2017) e prima della produzione di massa dei 2 nanometri il passo sarà sui 3 nanometri. I prodotti a 2 nanometri non sono quindi attesi prima del 2025. Fino ad allora il vecchio Moore resiste.


Non la stessa risonanza mediatica ha ricevuto un’altra notizia di quindici giorni prima, anche se avrebbe meritato. Si tratta di un chip contenente 2,6 trilioni di componenti logici. Avete letto bene. Un chip complesso realizzato dalla taiwanese TSMC con normale tecnologia a 7 nanometri. In questo caso a fare la differenza sono le dimensioni: come si vede dall’immagine, non è un chip normale, ma un “foglio” che occupa buona parte di un intero wafer di silicio. La superficie è di 46.225 mm2, 56 volte quella del più grande chip in produzione oggi, la Graphical Processing Unit (GPU) A110 di Nvidia. Il megachip è progettato dalla Cerebras, una startup americana di Sunnyvale in California che è uscita dalla modalità stealth nel 2019 con la mission di realizzare i più potenti sistemi specializzati per il supercalcolo e l’intelligenza artificiale basandosi sulla Wafer Scale Integration, ossia l’utilizzo dell’intera superficie di un wafer di silicio per realizzare un sistema.

Per i vecchi del settore, quorum ego, leggere di Wafer scale integration ha fatto suonare mille campanelli e la mente è andata subito a Gene Amdhal e al suo tentativo di realizzare un mainframe, come si chiamavano allora i grandi computer da centro di calcolo, grossi come armadi, compatibile con l’architettura 360/370 di IBM, che Amdhal aveva contribuito a creare, ma con prestazioni molto superiori e costi imbattibili. La Trilogy, così si chiamava la sua azienda, non riuscì nell’intento: nonostante l’imponente dotazione di capitali (200 milioni di dollari del 1979) i mezzi del tempo non consentivano di correggere gli errori di fabbricazione, che accumulandosi rendevano inutilizzabili i wafer. In pratica, bastava qualche errore e la resa andava a zero. Il vecchio Gene ci ha lasciato a quasi 93 anni nel 2015, ma sarebbe entusiasta nel sapere che la resa del chip Cerebras, che si chiama WSE2 (Wafer Scale Engine 2) è il 100% tondo. In pratica l’architettura logica e fisica è fatta in modo da escludere e aggirare i difetti, aiutata anche dal fatto che il “foglio” (chiamarlo chip sembra riduttivo) contiene 850.000 core logici. Ci sono anche 40 GByte di memoria SRAM con una banda passante per la memoria di 20 Petabyte (1 Petabyte= 1000 Terabyte) per secondo. La griglia di interconnessione tra i “core” viaggia a 220 Petabit al secondo.

Come abbiamo detto si tratta di un’unità specializzata nel supercalcolo e nell’esecuzione di programmi AI. Il “foglio” non è disponibile singolarmente ma arriva come componente del sistema CS-2, un’unità a forma di armadietto alta 70 centimetri. L’assorbimento di energia è di 23 KWatt, nulla di particolarmente impressionante, garantiti da una configurazione ridondante di 9 alimentatori con tre di riserva. Il tutto viene raffreddato con una sistema a circuito chiuso ad acqua, che toglie calore dal sistema, e uno scambiatore di calore ad aria che raffredda l’acqua.


Al di là delle caratteristiche del sistema, che tra l’altro può essere a sua volta messo in parallelo con altri, il WSE2 dimostra che esiste un’altra strada per raggiungere potenze di calcolo sempre più elevate: non solo ridurre le dimensioni, ma anche allargare i substrati. Vedremo mai dei sistemi wafer scale nei computer domestici? Magari non a questi livelli, ma certamente si potrebbe usare una parte del wafer integrando memoria RAM, grafica, audio, controllo della memoria di massa, rete e quant’altro su un unico “chippone”. Il futuro si prospetta interessante.


#MarcoComelli #tecnologia #chip

 

VUOI APPROFONDIRE ARGOMENTI DI TUO INTERESSE?

iscriviti e leggi la nostra newsletter mensile

14 visualizzazioni