Grænsen mellem pc'en og datacentret udviskes hurtigt, og med den kommer en ny kategori: stationære supercomputere til AIDette spring demokratiserer ikke blot adgangen til massiv databehandling, det ændrer ogsĂ¥, hvordan vi prototyper, træner og udleder avancerede modeller uden altid at være afhængige af skyen.
Parallelt oplever planeten et reelt kapløb om exaskalaen, fra nationale infrastrukturer pĂ¥ hundredvis af megawatt til kompakte computere, der er i stand til at nĂ¥ petaFLOPS pĂ¥ en forskers kontor. I denne artikel samler vi alle de vigtigste data fra de konsulterede kilder pĂ¥ Ă©t sted: et globalt overblik, europæiske og asiatiske aktører, historiske lister, førende centre og selvfølgelig den nye desktopstjerne, Nvidia DGX Spark.
Hvad er en supercomputer, og hvorfor er den vigtig i kunstig intelligens?
Un supercomputer Det er et system med computerkapaciteter, der er langt bedre end en konventionel pc. Dets ydeevne udtrykkes i FLOPS (flydende kommaoperationer pr. sekund), med enheder som petaFLOPS (1015) og i den nuværende elite exaFLOPS (1018).
De fungerer som et sæt af tusindvis af noder (hver med CPU, Dedikerede GPU'er, hukommelse og lager) forbundet af højhastighedsnetværk og switche, til at fungere som en enkelt maskine. Mens en kraftfuld stationær computer kan køre i snesevis af TFLOPS, kan disse systemer nĂ¥ hundredvis af PFLOPS eller mere.
Dens anvendelser dækker næsten alt: vejrudsigter, astrofysik, biomedicin, lægemiddeldesign, nukleare simuleringer, geofysik, bæredygtighed og AI-forskning. Takket være massiv databehandling kan de behandle milliarder af datapunkter pĂ¥ fĂ¥ sekunder og løse problemer, der ville tage Ă¥r med traditionelt udstyr.
- Fremhævede anvendelser: vĂ¥ben og national sikkerhed, medicinalindustri, big data, bioinformatik, klima og luftkvalitet, ingeniørsimulering, smarte byer, uddannelse og cloud computing.
PĂ¥ grund af deres størrelse og forbrug kræver de avanceret køling (ofte væske), specifikke rum med temperaturkontrol og brandsikring. Der findes endda centre, der genbruger den genererede varme, som det er tilfældet i schweiziske faciliteter, der opvarmer universitetsbygninger.
Europa accelererer: EuroHPC, InvestAI og store systemer

Europa har 162 supercomputere registreret i 2025 og planlægger nye faciliteter. EU har ogsĂ¥ fremmet en investering pĂ¥ 200.000 milliarder euro under InvestAI-initiativet for at blive en global leder inden for kunstig intelligens.
Koordineringen og finansieringen af ​​højteknologisk databehandling falder pĂ¥ "Europæisk joint venture for højtydende databehandling» (EuroHPC JU), som sponsorerer og driver et netværk af 9 systemer spredt over hele kontinentet. Disse omfatter LUMI (Finland), Leonardo (Italien) og MareNostrum 5 (Spanien), som er søjler i europæisk digital suverænitet.
Spanien bidrager med Barcelonas Supercomputercenter (BSC-CNS), som i 2004 byggede den historiske MareNostrum 1 og præsenterede MareNostrum 5 i december 2023. Sidstnævnte, med 314 maksimale PFLOPS, Intel Xeon-processorer og et forbrug pĂ¥ 4.158,90 kW, vil indtage 11. pladsen i TOP500 i 2025 og er orienteret mod AI, medicinsk forskning, lægemiddeludvikling og meteorologi.
Italien strĂ¥ler med Leonardo (Cineca + EuroHPC), installeret i 2022 i Bologna. Den kombinerer AMD- og Intel-teknologi, forbruger 7.493,74 kW og nĂ¥r op pĂ¥ 315,74 PFLOPS og er rangeret som nummer 9 pĂ¥ verdensplan. Det er afgørende for universiteter og virksomheder at konkurrere globalt inden for biomedicin, energi, klima og frem for alt kunstig intelligens.
Finland er vært VÆRELSE (CSC + EuroHPC), drevet af AMD og HPE. Det Ă¥bnede i 2023 i Kajana og forventes at nĂ¥ 386 PFLOPS, forbruger 7.106,82 kW og indtager 8. pladsen pĂ¥ verdensplan. Inden for EuroHPC er den en af ​​de mest kraftfulde bastioner.
Sideløbende driver Schweiz supercomputeren pĂ¥ CSCS ALPERNE/ALPERNE 5, som med et forbrug pĂ¥ 7.124,00 kW og 434,90 PFLOPS rangeret som nummer 7 i verden. Den fokuserer pĂ¥ meteorologi, kunstig intelligens, biomedicin og energi, og er en del af et program med 13 projekter, hvor ALPES er det mest symbolske.
Energisektoren presser ogsĂ¥ pĂ¥: ENI (Italien) lancerede i 2024 HPC-6 med AMD og HPE, hvilket opnĂ¥r 606,97 PFLOPS med et forbrug pĂ¥ 8.460,90 kW. Den er forbundet med ENIs grønne datacenter for at fremskynde energiomstillingen og rangerer som nummer 5 pĂ¥ verdensplan.
Asien og Amerika: exaskala, optegnelser og skyggesystemer
Japan opretholder et symbol pĂ¥ ekspertise med fugaku (RIKEN R-CCS, Kobe). Baseret pĂ¥ Fujitsu A64FX og ARM-arkitekturen opnĂ¥r den 442 PFLOPS med 26.248,36 kW, og fortsætter med at være en benchmark for sin effektivitet, i en sĂ¥dan grad at den er førende inden for Green500 ifølge de konsulterede kilder. Det gælder medicin, klima, kunstig intelligens og energieffektivitet.
Rusland indsatte, pĂ¥ trods af sanktionerne, i 2023 MSU-270 pĂ¥ Lomonosov State University (Moskva). Det integrerer omkring 100 banebrydende grafikacceleratorer (det er ukendt, om de er fra AMD eller Intel) og anslĂ¥s at være 400 PFLOPS, integreret i et netværk af russiske centre for kunstig intelligens, fysik, kemi, matematik og medicin.
Kina kombinerer diskretion og styrke. Serien Sunway (Wuxi) blev født i 2016 med TaihuLight (125 PFLOPS) og udviklede sig i 2021 til OceanLight, der betragtes som exaskala (>1 exaFLOPS), dog uden officielle tal pĂ¥ grund af teknologiske spændinger med USA. I 2024/2025 Tianhe-3 (Xingyi) Den ville have opnĂ¥et mellem 1,57 og 2,01 exaFLOPS i tests, med rygter om at kunne overgĂ¥ El Capitan.
USA spiller i de "store ligaer" med adskillige exaskala-modeller. Aurora (ANL + DOE), designet til at nĂ¥ 1,9-2 exaFLOPS, blev installeret i 2023 og nĂ¥ede sit højdepunkt i 2024; i dag rangerer den som nummer 3 i TOP500 og betjener videnskab, medicin, klima, kunstig intelligens, astrofysik og partikelfysik. Parallel, Kaptajnen (LLNL + NNSA) sigter mod 2-2,8 exaFLOPS, fører TOP500 og vil være dedikeret til national sikkerhed med anvendelser inden for nukleare simuleringer, cybersikkerhed, sundhedspleje, klimaforandringer og astrofysik.
Ud over den offentlige liste er der specifikke AI-initiativer pĂ¥ landeniveau. I Wuhan, China Telecom driver det centrale intelligente datacenter, bygget med indenlandsk hardware og software og væskekøling, beregnet til træning af gigantiske modeller; nogle kilder peger endda pĂ¥ 5 exaFLOPS, dog uden officiel bekræftelse.
Indien tænder pĂ¥: GPU'er, cloud og exaskala-horisonten
Indien ønsker ikke at blive efterladt. Initiativet IndiaAI beregningskapacitet (inden for IndiaAI-missionen) afsatte omkring 1.240 milliarder dollars i 2024 til en ny supercomputer med mindst 10.000 GPU'er til AI i samarbejde med Nvidia. Derudover Microsoft annoncerede 3.000 milliarder dollars i januar 2025 for cloud- og AI-infrastruktur i landet.
Det lokale økosystem opvarmes: Bhavish Aggarwal (Administrerende direktør for Ola) investerede 230 millioner dollars i Krutrim-2 LLM. Der er 34 supercomputere, og C-DAC driver, sammen med National Supercomputing Mission (NSM), et nationalt netværk, der kan levere Indiens første exaskala-system mellem 2025 og 2026. Det er planlagt at bygge mere end 70 supercomputere i de næste Ă¥r.
Colossus, xAI's supercomputer, og energikontroversen
I USA, xAI (Elon Musk) implementerede Colossus i Memphis pĂ¥ bare 122 dage i 2024. Det startede med 100.000 Nvidia GPU'er og planlægger 200.000, med mĂ¥l om Grok 3.0 AI og fremtidige versioner. I benchmarktests ville det have nĂ¥et 10,6 exaFLOPS af AI, en figur der ville placere den blandt de mest magtfulde pĂ¥ planeten.
Ikke alt er applaus: brugen af naturgas som energikilde har fĂ¥et kritik for sin indvirkning pĂ¥ den lokale luftkvalitet. Projektet illustrerer dog den hastighed, hvormed den private sektor kan opbygge AI-fokuseret infrastruktur i verdensklasse.
DGX Spark: "Desktop-supercomputeren", der bringer avanceret AI hjem
Nvidia har sat barren højt med DGX Spark, et kompakt system, der er blevet kĂ¥ret af TIME som en af ​​de "bedste opfindelser i 2025", og som kan købes generelt fra den 15. oktober. Dets hjerte er Grace Blackwell GB10, i stand til at nĂ¥ 1 petaFLOPS, med ConnectX-7-netværk og hele Nvidia AI-softwarestakken, sĂ¥ forskere og startups kan bruge det "plug and play".
PĂ¥ hardwareniveau kombinerer Spark en 20-kernet ARM CPU (10 Cortex-X925 + 10 Cortex-A725), 128 GB LPDDR5x Unified GPU-hukommelse, 4 TB selvkrypterende M.2 NVMe SSD, 4x USB-C, HDMI, WiFi 7, Bluetooth 5.4, 10 GbE LAN og system DGX OSDen er designet til agentisk AI, ræsonnement og moderne komplekse nyttelaster.
Nvidia fastholder, at de kan være tilpasse modeller med op til 70.000 milliarder parametre, køre lokal inferens og opbevare følsomme data on-prem uden at være afhængig af skyen. Andre rapporter indikerer, at den kan hĂ¥ndtere LLM'er pĂ¥ op til 200.000 milliarder parametre afhængigt af konfiguration og model, hvilket understreger dens ambition som et desktop-"mini-datacenter".
Funktionsmæssigt er muligheden for forbinder to gnister i en miniklynge for at skabe en "personlig sky". Integrationen er nem: kablede og trĂ¥dløse netværk, Bluetooth-enheder og stakken CUDA/cuDNN, Triton og firma skal indsætte Agentprototyper, finjustering, isoleret inferens og datasikkerhed.
Startprisen er fastsat til Dollar 3.999, og store mærker som Acer, Asus, Dell, Gigabyte, HP, Lenovo og MSI vil være markedsførte varianter. Vigtigt: Dette er ikke en typisk Windows-pc; det er en lokal supercomputer til AI kompatibel med modeller af DeepSeek, den kinesiske kunstige intelligensMeta, Nvidia, Google og Qwen, blandt andre open source-applikationer. Selv Elon Musk har allerede modtaget sin enhed fra Jensen Huang.
Ankomsten af ​​Spark falder sammen med en ændring i prioriteter: ifølge brancheledere, Brugere og virksomheder vil lede efter systemer, der understøtter den næste bølge af smart opladning.Bestillinger er Ă¥bne pĂ¥ Nvidia.com og gennem autoriserede partnere og distributører.
AI-pc'er og arbejdsstationer: NĂ¥r du har brug for specifik hardware

Hvis du skal træne modeller eller udvikle, er det tilrĂ¥deligt invester i specialiseret hardware; hvis du kun bruger AI, kan et balanceret team være tilstrækkeligt eller ty til EC2 tilfælde pĂ¥ skyen.
Derudover er der teams, der bringer kraftfuld AI til det lokale marked uden at være afhængige af skyen, som vi har set med Spark. Og hvis du er usikker pĂ¥ valget, tilbyder nogle personlig support: IbericaVIP lover at rĂ¥dgive dig om valg af den ideelle pc til dine AI-projekter.
Fællesskab og nyheder: ikke alt, hvad du læser, er officielt
Internettet er fyldt med Nvidia-fokuserede fora og subreddits, hvor drivere, GPU'er og rygter diskuteres. Bemærk: Disse fællesskaber administreres af fans og repræsenterer ikke Nvidia, medmindre andet udtrykkeligt er angivet. Det er godt at huske pĂ¥ dette, nĂ¥r man evaluerer lækager eller ubekræftede tal.
SĂ¥dan ser de ud indeni: arkitektur, skalering og køling
En supercomputer er i bund og grund et sæt af tusindvis af computere, der er forbundet af netværk med lav latenstid og høj bĂ¥ndbreddeHver node integrerer CPU, GPU, RAM og lagerplads; systemet tilføjer kraft gennem optimeret software og biblioteker.
Den regerende mĂ¥leenhed er FLOPS: vi gik fra TFLOPS pĂ¥ hjemme-pc'er til PFLOPS og exaFLOPS i HPC. SĂ¥ledes er 1 TFLOPS = 1012 FLOPS og 1 PFLOPS = 1015Supercomputere optager hele rum og bruges af flere teams pĂ¥ Ă©n gang, hvor ressourcerne ofte er ved at løbe tør.
Køling er afgørende. Der findes CPU'er og GPU'er, der overstiger 80 ºC, hvilket er grunden til, at der anvendes tempereret eller flydende vand, varmevekslere og specialdesignede løsninger. Nogle installationer anvender kreative løsninger, sĂ¥som genbrug af varme til opvarmning af bygninger.
Hvor de er, og hvordan man besøger dem
Der er mere end tusind supercomputere i verden. Kina og USA fører an i antal og styrke, med historiske data sĂ¥som 226 kinesiske systemer blandt de 500 mest magtfulde. USA har dog akkumuleret flere samlede PFLOPS (644) sammenlignet med Kina (565) i visse udgaver.
I Spanien er den Marenostrum af BSC-CNS (Barcelona) er den kraftigste i landet. Dens første versioner blev placeret i en glasmontre med mikrotĂ¥ge brandbekæmpelsessystem og en unik placering: kapellet pĂ¥ UPC North Campus. Virtuelle ture og lejlighedsvis guidede ture er tilgængelige.
Historiske dokumenter placerede idriftsættelsen af Mare Nostrum 5 mellem 2020 og 2021; den blev endelig introduceret i slutningen af ​​2023 med den førnævnte præstationsforøgelse. Denne udvikling illustrerer tydeligt, hvordan kalendere i HPC udsættes for justeringer pĂ¥ grund af teknisk kompleksitet.
Historiske lister og andre fremhævede systemer
Listen TOP500 Den har eksisteret siden 1993 og opdateres to gange om Ă¥ret. I 2021 omfattede top 10 for eksempel Fugaku, Summit, Sierra, Sunway TaihuLight, Perlmutter, Selene, Tianhe-2A, Juwels Booster Module, HPC5 og Frontera. Selvom flere allerede er blevet overgĂ¥et, er de stadig teknologiske milepæle for dens indflydelse.
Nogle yderligere relevante data fra systemer citeret i kilderne: Frontier (HPE Cray EX, ORNL) var den første til officielt at bryde exascale; Summit (IBM POWER9 + Nvidia V100) udmærkede sig inden for Alzheimers, genetik og meteorologi; Sierra (IBM + Nvidia + Mellanox) arbejdede for NNSA med nuklear sikkerhed.
I Europa er der, udover de allerede nævnte, Juvels Booster y SuperMUC (Lenovo, direkte vandkøling) med snesevis af petabyte og kraftfulde visualiseringsmiljøer. Schweiz drev pizz daint (Cray), med DataWarp som burstbuffer til at accelerere I/O.
Italien inkorporeret HPC5 (Dell, pĂ¥ ENI) med Xeon Gold 6252 og Nvidia V100; Marconi-100 (IBM POWER9 + Volta V100) hos Cineca; og Perlmutter (Berkeley Lab, USA) var en af ​​de mest kraftfulde inden for AI-behandling med 6.000 A100 GPU'er, der er i stand til 180 PFLOPS og, i visse AI-scenarier, adskillige effektive exaFLOPS.
I USA, Selene (Nvidia, A100) strĂ¥lede med effektivitet (1.344 kW); Frontera (Dell, Univ. of Texas) skilte sig ud med sin lagerplads (50 PB HDD + 3 PB SSD, 12 Tbps) og genstart pĂ¥ 17 sekunder; Trinity (Cray XC40) tjente NNSA med Haswell og Knights Landing; Efterlad (IBM Power9) styrkede LLNL-økosystemet.
Japan promoverede ogsĂ¥ ABCI (Fujitsu) til AI i skyen. Og i Spanien, Mare Nostrum 4 (2017) nĂ¥ede 13,7 PFLOPS før springet til MN5, med anvendelser inden for genetik, kemi, palæontologi, meteorologi eller luftkvalitet (CALIOPE).
Hele dette kort, fra exaskala-installationer til desktop-computere, tegner en nær fremtid, hvor Testning, finjustering og udledning af avancerede modeller vil blive mere og mere lokalt, med skyen som et supplement. Europa træder speederen i bund med EuroHPC, USA og Kina holder pulsen i exaskala, Indien er pĂ¥ vej frem med massive investeringer, og pĂ¥ desktop-siden Ă¥bner DGX Spark en hĂ¥ndgribelig dør til AI pĂ¥ højt niveau uden at man behøver at forlade laboratoriet, kontoret eller endda hjemmet.