Come far fronte alla crescente domanda di tecnologia di raffreddamento nei server AI
Allo stato attuale, il modulo di dissipazione del calore è composto principalmente da una tecnologia di dissipazione del calore ibrida attiva e passiva contenente tubi termici. Il modulo di dissipazione del calore del tubo di calore è progettato e combinato con componenti come diffusori d'aria, dissipatori di calore e tubi termici, che possono fornire un ambiente operativo di dissipazione del calore a temperatura uniforme per i componenti elettronici interni, rendendo più stabile il funzionamento delle apparecchiature elettroniche. Con la tendenza dei prodotti elettronici terminali multifunzionali e leggeri, la fabbrica di moduli termici si è rivolta alla progettazione di soluzioni termiche basate principalmente su camera di vapore e heatpipe.

Il modulo dissipatore di calore è diviso in due tipologie: "dissipatore di calore raffreddato ad aria" e "dissipatore di calore raffreddato a liquido". Tra queste, la soluzione raffreddata ad aria prevede l'uso dell'aria come mezzo, attraverso materiali intermedi come materiali di interfaccia termica, camera di vapore (VC) o tubi di calore, e viene dissipata per convezione tra il dissipatore di calore o la ventola e l'aria. "Il raffreddamento a liquido si ottiene principalmente attraverso la convezione con il liquido, raffreddando così il chip. Tuttavia, con l'aumento della generazione di calore e del volume del chip, aumenta il consumo energetico di progettazione termica (TDP) del chip e l'uso di raffreddato ad aria la dissipazione del calore diventa gradualmente insufficiente.

Con lo sviluppo dell’Internet delle cose, dell’edge computing e delle applicazioni 5G, l’intelligenza artificiale dei dati ha portato la potenza informatica globale in un periodo di rapida crescita. Secondo la società di ricerca TrendForce, il volume delle spedizioni di server AI dotati di GPGPU (GPU per uso generale) ha rappresentato circa l'1% nel 2022. Tuttavia, nel 2023, grazie alle applicazioni ChatGPT, si prevede che il volume delle spedizioni di server AI aumenterà del 38,4% e il tasso di crescita annuo composto complessivo delle spedizioni di server AI dal 2022 al 2026 raggiungerà il 29%.
Esistono due direzioni principali per la progettazione della prossima generazione di moduli dissipatori di calore. Il primo è aggiornare i moduli di dissipazione del calore esistenti con una camera di vapore 3D (3DVC), mentre l'altro è introdurre un sistema di raffreddamento a liquido, utilizzando il liquido come mezzo convettivo per migliorare l'efficienza termica. Pertanto, il numero di casi di test sul raffreddamento a liquido aumenterà in modo significativo nel 2023, ma 3DVC è solo una soluzione transitoria. Si stima che dal 2024 al 2025 entreremo nell’era del raffreddamento parallelo a gas e a liquido.

Con l'ascesa di ChatGPT, l'intelligenza artificiale generativa ha aumentato le spedizioni di server, insieme ai requisiti per l'aggiornamento delle specifiche dei moduli dissipatore di calore spingendoli verso soluzioni di raffreddamento a liquido per soddisfare i severi requisiti dei server in termini di dissipazione del calore e stabilità. Al momento, l'industria utilizza principalmente la tecnologia di raffreddamento ad immersione monofase nel raffreddamento a liquido per risolvere il problema della dissipazione del calore di server o parti di riscaldamento ad alta densità, ma esiste ancora un limite superiore di 600 W, perché ChatGPT o server di ordine superiore necessitano di un capacità di dissipazione del calore superiore a 700 W per far fronte.

Considerando che il sistema di raffreddamento rappresenta circa il 33% del consumo totale di energia nel data center, la riduzione del consumo totale di elettricità e la riduzione dell'efficienza nell'utilizzo dell'energia includono il miglioramento del sistema di raffreddamento, delle apparecchiature informatiche e l'utilizzo di energia rinnovabile. L’acqua ha una capacità termica quattro volte quella dell’aria. Pertanto, quando si introduce un sistema di raffreddamento a liquido, è necessaria solo 1U di spazio per la piastra di raffreddamento a liquido. Secondo i test NVIDIA, per ottenere la stessa potenza di calcolo, il numero di armadi necessari per il raffreddamento a liquido può essere ridotto del 66% Il consumo energetico può essere ridotto del 28%, il PUE può essere ridotto da 1,6 a 1,15 e l'efficienza computazionale può essere migliorata .

L'elaborazione veloce porta a un miglioramento continuo del TDP e i server AI hanno requisiti più elevati per la dissipazione del calore. Il tradizionale raffreddamento a tubi di calore si sta avvicinando al suo limite ed è inevitabile introdurre soluzioni termiche raffreddate a liquido.






