Η Nvidia ανακοινώνει την GPU Blackwell B200 για υπολογισμούς AI
Share
Κατά τη διάρκεια του GPU Technology Conference, η Nvidia ανακοίνωσε το ισχυρότερο τσιπ στον κόσμο για υπολογισμούς που σχετίζονται με την τεχνητή νοημοσύνη, το GB200, το οποίο τροφοδοτεί την GPU Blackwell B200. Είναι ο διάδοχος του τσιπ H100 AI και προσφέρει τεράστιες βελτιώσεις στην απόδοση και την αποδοτικότητα.
Η νέα GPU B200 είναι ικανή για 20 petaflops σε FP4 χάρη στα 208 δισεκατομμύρια τρανζίστορ στο εσωτερικό του τσιπ. Επιπλέον, η GB200 έχει 30 φορές μεγαλύτερη απόδοση από την H100 σε φόρτους εργασίας LLM, ενώ μειώνει την κατανάλωση ενέργειας κατά 25 φορές. Στο benchmark GPT-3 LLM, ο GB200 είναι επίσης επτά φορές ταχύτερος από τον H100.
Για παράδειγμα, η εκπαίδευση ενός μοντέλου με 1,8 τρισεκατομμύρια παραμέτρους θα απαιτούσε 8.000 GPU Hopper και περίπου 15 μεγαβάτ, ενώ ένα σύνολο 2.000 GPU Blackwell μπορεί να το κάνει αυτό με μόλις 4 μεγαβάτ.
Για να βελτιώσει περαιτέρω την αποδοτικότητα, η Nvidia σχεδίασε ένα νέο τσιπ μεταγωγής δικτύου με 50 δισεκατομμύρια τρανζίστορ που μπορεί να χειριστεί 576 GPU και να τις αφήσει να επικοινωνούν μεταξύ τους με εύρος ζώνης διπλής κατεύθυνσης 1,8 TB/s.
Με αυτόν τον τρόπο, η Nvidia αντιμετώπισε ένα πρόβλημα με την επικοινωνία, καθώς προηγουμένως, ένα σύστημα που συνδυάζει 16 GPUs θα περνούσε το 60% του χρόνου για την επικοινωνία και το 40% του χρόνου για τον υπολογισμό.
Η Nvidia λέει ότι προσφέρει στις εταιρείες μια ολοκληρωμένη λύση. Για παράδειγμα, το GB200 NVL72 επιτρέπει 36 CPU και 72 GPU σε ένα μόνο υγρόψυκτο rack. Ένα DGX Superpod για DGX GB200, από την άλλη πλευρά, συνδυάζει οκτώ από αυτά τα συστήματα σε ένα, το οποίο κάνει 288 CPUs και 576 GPUs με 240TB μνήμης.
Εταιρείες όπως η Oracle, η Amazon, η Google και η Microsoft έχουν ήδη μοιραστεί τα σχέδιά τους να ενσωματώσουν τα NVL72 για τις υπηρεσίες νέφους τους.
Η αρχιτεκτονική GPU που χρησιμοποιείται για την GPU Blackwell B200 θα αποτελέσει πιθανότατα τη βάση της επερχόμενης σειράς RTX 5000.