A Microsoft megint megmutatta, mennyire komolyan gondolja az AI-versenyt: létrehozta első AI szuperfactoryinfrastruktúráját, amely gyakorlatilag egy több államot összekötő, elosztott szuperszámítógép. A rendszer Wisconsin és Atlanta gigantikus adatközpontjait kapcsolja össze saját optikai hálózattal, hogy a több millió hardverkomponenst úgy működtesse együtt, mintha egyetlen gép lenne.
A Fairwater névre keresztelt dizájn két szintre pakolja a GPU-k tömegét, elképesztően nagy sűrűséget és minimális késleltetést célozva. A chipkötegekhez külön hűtőkörök futnak, amelyek a felforrósodott folyadékot az épületen kívülre viszik, és lehűtve juttatják vissza – így stabil marad a teljes klaszter még extrém terhelésnél is. A Microsoft szerint a rendszer gyakorlatilag nem használ friss vizet, csak időszakos utántöltést igényel.
A valódi áttörést azonban nem a hűtés, hanem a dedikált AI WAN hálózat jelenti. Ez az a nagy sebességű optikai gerinchálózat, amely kontinensnyi távolságokon át képes annyira gyors adatmozgatásra, hogy a különböző helyszínek szinte valós időben dolgoznak ugyanazon a modelltréningen. Nem külön, párhuzamos folyamatok, hanem egy feladat, amelyet több ezer kilométerre lévő adatközpontok egyszerre számolnak.
Ahogy Alistair Speirs fogalmazott:
„Ez egy olyan elosztott rendszer, amely virtuális szuperszámítógépként működik. Nem egy helyen tréningezünk – hanem több helyszín dolgozik egy feladaton.”
És itt jön a lényeg: a vezető AI-modellekhez már nem elég egy datacenter. Nem kettő. Hanem több, óriási kapacitású helyszín együtt. A Microsoft ezt az architektúrát kifejezetten olyan partnerek igényeire szabja, mint az OpenAI vagy a saját, egyre ambiciózusabb Superintelligence Team – ahol a tréningadatok, a paraméterszámok és a modellméret olyan tempóban nő, hogy a klasszikus adatközpontos működés összeomlana alattuk.
A Fairwater struktúra NVIDIA GB200 NVL72 rackekre épít, amelyek Blackwell-generációs GPU-klasztereket skáláznak hatalmas méretre. Emellett exabájtos tárhely és több millió CPU-mag támogatja a kiegészítő feladatokat, hogy a GPU-k soha ne álljanak tétlenül. A cél egyszerű: folyamatos tréning, megszakítás nélkül.
A két emeletre kihúzott architektúra, az optimalizált hálózati protokollok, a minimális késleltetésre hangolt kábelezés és a teljesen újragondolt hűtés mind egy irányba mutatnak:
a jövő AI-fejlesztése már nem egy adatközpontban történik – hanem összekapcsolt szupergyárak hálózatában.
A Microsoft szerint ez lesz az alapja a következő generációs AI-modelleknek. Olyan infrastruktúra, amely elég nagy, elég gyors és elég stabil ahhoz, hogy a több százmilliárd paraméteres rendszerek valóban szintet léphessenek.
És ha ez így folytatódik, a számítástechnika térképe pár éven belül teljesen újra fog rajzolódni – ezek a szuperfactory-k lesznek az új erőművek, amelyek az AI-gazdaságot mozgatják.













