L’ intelligenza artificiale ha reso obsolete le architetture elettriche e di raffreddamento. Densità per rack fino a 100 kW, liquid cooling, edge computing distribuito: ecco cosa sta cambiando e cosa devono sapere progettisti e installatori
I NUOVI CLUSTER DEDICATI ALL’ AI RAGGIUNGONO 30-50 KW PER RACK, CON PICCHI FINO A 100 KW NELLE CONFIGURAZIONI PIÙ SPINTE
30
DATA CENTER E AI
Mercato e trend tecnologici emergenti
L’ intelligenza artificiale ha reso obsolete le architetture elettriche e di raffreddamento. Densità per rack fino a 100 kW, liquid cooling, edge computing distribuito: ecco cosa sta cambiando e cosa devono sapere progettisti e installatori
L’
intelligenza artificiale generativa e i Large Language Models( LLM) stanno imponendo ai data center requisiti energetici che i progettisti di dieci anni fa non avrebbero immaginato. I carichi computazionali associati all’ addestramento e all’ inferenza di modelli AI sono significativamente superiori rispetto ai carichi tradizionali dei server web, database e applicazioni enterprise. Secondo studi internazionali, l’ addestramento di un singolo modello di grandi dimensioni— come GPT-4 o equivalenti— può richiedere potenze di picco nell’ ordine di decine di MW per periodi di diverse settimane, mentre le attività di inferenza generano carichi distribuiti ma persistenti nell’ ordine dei MW per ciascun cluster di GPU. Per la filiera elettrica italiana, questo trend ha due implicazioni dirette e concrete. La prima riguarda la densità di potenza per rack: i tradizionali data center enterprise presentano densità nell’ ordine di 3-8 kW per rack; i nuovi cluster dedicati all’ AI raggiungono 30-50 kW per rack, con picchi fino a 100 kW nelle configurazioni più spinte. Numeri
www. nt24. it che impongono soluzioni diverse in termini di distribuzione elettrica— cavi di sezione maggiorata, busway ad alta capacità, trasformatori più vicini ai carichi— e rendono il solo raffreddamento ad aria del tutto insufficiente. La seconda implicazione riguarda il profilo di carico: a differenza dei carichi tradizionali, relativamente stabili nel tempo, i carichi AI presentano picchi significativi durante le fasi di training e periodi di minor consumo durante la manutenzione o l’ ottimizzazione dei modelli. Questa variabilità richiede sistemi di alimentazione e raffreddamento più flessibili, con sistemi di accumulo capaci di gestire transitori rapidi senza compromettere la stabilità della rete.
I NUOVI CLUSTER DEDICATI ALL’ AI RAGGIUNGONO 30-50 KW PER RACK, CON PICCHI FINO A 100 KW NELLE CONFIGURAZIONI PIÙ SPINTE