NVIDIA GTC Telecom Special Address: AI Grid, které inteligentně propojuje AI infrastrukturu
Jsem si čím dál jistější, že telekomunikace prožívají jednu z největších technologických změn v historii. Ne kvůli dalšímu skoku v rádiu, ne kvůli dalšímu typu připojení. Tohle je změna v tom, jakým způsobem se AI dostane k reálnému světu.
V centru pozornosti stojí koncept AI grid. V překladu zní jednoduše. V praxi jde ale o ambiciózní myšlenku: vybudovat distribuovanou vrstvu infrastruktury napříč sítěmi telco a edge prostředím tak, aby dokázala spolehlivě a ekonomicky spouštět fyzické AI aplikace. A to ne jako jednorázový experiment, ale ve velkém měřítku.
V tomhle článku se na AI grid dívám jako na praktickou cestu: proč vzniká, jak souvisí s přechodem z 5G na 6G, proč se teď slévá telekomunikační “compute stack” s AI “compute stackem” a jaké konkrétní use cases už dnes nabírají tempo. Přidám i to nejdůležitější: co se musí stát, aby to celé fungovalo jako jeden orchestr, ne jako mozaika izolovaných míst.
Obsah
- 🤖 Proč po AI revoluci přichází infrastrukturní revoluce v telekomunikacích
- 🌍 Tři “tectonic forces”, které mění trajektorii telekomunikací
- 🧩 Co znamená sloučení telekomunikačního a AI compute stacku
- 🏗️ Spodní vrstva: “land, power, shell” jako základ AI grid
- 🧠 Orchestrace: klíč k tomu, aby distribuovaná síť dávala SLA smysl
- 🏭 AI factory: jak telco budují vlastní AI a infrastrukturu pro ni
- ⚡ Obrovská nevyužitá příležitost: distribuovaná infrastruktura často čeká na AI spotřebitele
- 💸 “Money slide”: tokenika a monetizace jsou síťově podmíněné
- 🎥 Vision AI a hyperpersonalizace: nejrychlejší cesta k reálným scénářům
- 🚗 Od 5G use case k “Internet of Intelligent Things” (IOIT)
- 📺 Comcast, ads a edge compute: tisíce lokálních možností
- 🎬 Spectrum a rendering: nízká latence jako konkurenční výhoda pro studia
- 🌐 Akamai: distribuovaná inference a SLA-aware orchestrace
- 📡 AI RAN: rádiová část jako součást gridu
- 🏙️ T-Mobile a Nokia: fyzické AI aplikace na AI-RAN ready infrastruktuře
- 🌏 AI grid jako cesta k uzavření digitální propasti (Indonesia IOH)
- 🧱 Referenční architektura, modely a rychlý on-ramp pro partnery
- 🕹️ Jak AI grid funguje jako unified orchestrated computing platform
- 🔐 Open, secure and trusted: principy 6G, které mají zabránit uzavřenému chaosu
- 🧪 Demokratizace 6G výzkumu: simulační éra fyzického AI
- 🚀 Co z toho plyne: AI native telco journey je cesta, kterou je lepší začít teď
🤖 Proč po AI revoluci přichází infrastrukturní revoluce v telekomunikacích
Je to už zhruba tři roky od startu vlny, kterou často označujeme jako AI revoluci. První viditelný efekt byl v IT infrastruktuře. AI vyžaduje výpočetní výkon, akcelerátory, nové typy workflow a v praxi se objevují obří “build-outy” v datových centrech.
Jenže AI do hry nevede samo o sobě. AI potřebuje propojení s fyzickým světem. Potřebuje sítě, místa pro nasazení výpočtu blízko dat a uživatelů, a hlavně strukturu, která umí rozhodovat, kde se daná úloha vykoná. A právě tady vstupuje telekomunikace.
To, co se teď začíná rýsovat, je další infrastrukturní vrstva. Ne “lepší servery” jako takové. Ale infrastruktura, která propojuje AI výpočet s telekomunikační sítí a distribuuje výkon tak, aby AI běželo tam, kde to dává smysl pro latenci, cenu a dostupnost.
Tomu se říká AI grid. A podle toho, jak se o něm dnes mluví v oboru, nejde o čistě technologický koncept. Je to zároveň obchodní příležitost, protože telco sítě mají něco, co většina cloudových hráčů nemá v takové míře: distribuovanou přítomnost, důvěru v regionech a přímé spojení na populaci i enterprise.
🌍 Tři “tectonic forces”, které mění trajektorii telekomunikací
Když se snažím pochopit, proč se AI grid najednou objevuje ve všech důležitých debatách, pomáhá mi rozlišit tři obří síly, které na sebe navazují.
1) Přechod z general-purpose compute na accelerated compute
Po celá desetiletí fungoval telekomunikační svět na vlastním “compute stacku”, často postaveném na účelových čipech a specializovaném softwaru. Cloud zase dlouho stavěl na general-purpose compute.
Teď se to začíná měnit. Akcelerované výpočty dávají AI aplikacím jinou výkonnostní trajektorii (a obrovský skok v poměru výkon na spotřebu i v latencích). V praxi se tím otevře možnost sloučit telekomunikační stack s AI stackem částečně nebo dokonce systémově.
2) Rychlý vývoj AI: od percepce po fyzické AI
AI postupně přebírá další a další části “kognitivního řetězce”. Dnes se běžně mluví o generative AI, ale v praxi je klíčové, že se dostáváme k physical AI. To je AI, které vnímá prostředí, rozhoduje a jedná v reálném čase, často v prostředí plném senzorů, kamer a zařízení.
A aby physical AI fungovalo, potřebuje infrastrukturu, která je fyzicky blízko. Ne jen rychlá v průměru, ale spolehlivá v čase.
3) 6G rodí AI-native síťovou “fabric”
Možná zní přechod z 5G na 6G jako něco, co samo o sobě “nepřevrátí svět”. Jenže 6G se rodí v éře AI. Poprvé je možné cílit na AI-native 6G, kde se síť stává součástí AI schopností. Ne jen pipe pro data.
To je důležité, protože právě “fabric” (tkanina) sítě a její schopnost měnit se podle potřeb AI úloh je předpokladem pro AI grid.
🧩 Co znamená sloučení telekomunikačního a AI compute stacku
Telekomunikační infrastruktura má dlouho vlastní logiku: účelové moduly, síťové funkce, vysoké nároky na spolehlivost a provozní determinismus. Cloud zase optimalizuje jinak: flexibilitu, škálování a sjednocené rozhraní.
Sloučení těchto světů bylo historicky obtížné. Virtualizace telekomunikačních stacků se zkoušela, ale bez plnohodnotného základu v akceleraci nebylo možné dosáhnout toho, co dnes AI grid slibuje.
Podle současných trendů se to ale mění díky accelerated compute. Výsledkem je možnost uvažovat o tzv. AI-RAN: běžet RAN (radio access network) a AI aplikace na stejné distribuované platformě.
To přináší nové KPIs. A když jsem dřív slýchával “řešme latenci a SLA”, často to zůstalo v rovině síťové metriky. Tady jde o širší záběr: deterministický real-time provoz, škálování nasazení aplikací a možnost agentických toků uvnitř AI operací.
🏗️ Spodní vrstva: “land, power, shell” jako základ AI grid
Jedna z nejpraktičtějších částí myšlenky AI grid je pohled na nejspodnější vrstvu telekomunikačního stacku. V talku se popisuje vrstva typu land, power, shell (pozemek, energie, základní prostorová infrastruktura).
V telekomunikacích to už existuje. A to je velká konkurenční výhoda. Telco sítě mají footprint: MSO prostředí, central office, point of presence a v praxi to sahá až k základnovým stanicím a okrajovým lokalitám.
Tohle “footprint” je v dnešním světě často dimenzované na voice, video a data. Jenže když přichází potřeba pro AI infrastrukturu, najednou se ukáže, že obrovská část lokací je předpřipravená. Někdy je dokonce power předimenzovaná.
Výhoda je dvojí:
- Kapacita už existuje (ne vše, ale dostatečně na to, aby bylo možné škálovat nové služby).
- Propojení s uživateli a s daty je nativní (ne “přenášet vše do jednoho cloudu”).
AI grid pak není jen o tom dát GPU “někam ven”. Je to o tom, jak z existující sítě postavit distribuovanou platformu, která se umí koordinovat.
🧠 Orchestrace: klíč k tomu, aby distribuovaná síť dávala SLA smysl
Distribuovaná infrastruktura přináší jednu obrovskou výzvu: orchestrace. Když máte mnoho lokalit, musíte umět rozhodovat, kde se co spustí, a jak zajistit, že aplikace splní požadované SLA.
V talku zaznívá, že roste počet firem, které přicházejí s SLA-aware orchestration. V praxi to znamená orchestr, který bere v úvahu dostupnost, latenci, náklady a priority a umí naplánovat workload tak, aby kvalita služby nebyla jen marketingový slib.
To je taky důvod, proč AI grid často nevypadá jako jedna technologie. Vypadá jako vrstva architektury a “control plane”, která propojuje:
- aplikace a jejich požadavky,
- modely a runtime prostředí,
- compute zdroje,
- a síťové vlastnosti (včetně blízkosti k uživateli).
🏭 AI factory: jak telco budují vlastní AI a infrastrukturu pro ni
Tohle není jen teorie. V řeči se uvádí, že 24 telco po celém světě už buduje tzv. AI factories.
Proč je to důležité? Protože telco jsou v regionech “trusted”. Mají přímý dosah na populaci, enterprise a často i na veřejný sektor. A když AI factory začne napájet lokální služby, vznikají nové typy hodnoty, které nejsou univerzální pro celý svět.
V talku se jako příklady objevují platformy podporující:
- lokální jazyky a kulturní kontext,
- vyšší vzdělávání a výzkum,
- vládní služby,
- aplikace, které vyžadují důvěru v infrastruktuře.
Z pohledu trhu to dělá AI grid atraktivní i proto, že nejde jen o “kolemjdoucí” AI. Jde o služby, které se dají monetizovat a škálovat v regionech.
⚡ Obrovská nevyužitá příležitost: distribuovaná infrastruktura často čeká na AI spotřebitele
Jedna z nejzajímavějších ekonomických tezí je, že část distribuované sítě je předimenzovaná vzhledem k tomu, co dnes typicky běží (voice, video, data). To může znamenat, že některé lokality mají rezervu v energii nebo v dostupnosti zdrojů.
Když se pak přidá požadavek na AI infrastrukturu, ukáže se “zlatý” moment: místo budování úplně nových datových center jen pro AI se dá více využít to, co už stojí.
To zní banálně, ale v praxi je to často rozdíl mezi:
- nákladným budováním od nuly,
- postupným upgradem lokální infrastruktury a rychlejším time-to-market.
💸 “Money slide”: tokenika a monetizace jsou síťově podmíněné
AI grid není jen o technických parametrech. V talku se opakovaně řeší, jak se tvoří hodnota. Jedna z nejvýraznějších myšlenek je, že v nové ekonomice AI se objevuje “tokenomics”. A to, jak rychle a jak kvalitně aplikace dodají výsledky, je ovlivněno právě sítí a distribucí compute.
Řeč zmiňuje tokeny v kontextu metrik jako:
- time to first token,
- uplink tokens,
- tokens per second.
To je zajímavé i pro business: pokud se monetizace váže na kvalitu zkušenosti, pak musí orchestrace a umístění workloadu ovlivnit i to, jak rychle a stabilně AI odpovídá. A to nejde udělat jen výkonným modelem. Musíte mít i infrastrukturu, která pomáhá.
V talku se objevuje i přístup “bits přes rádio a infrastrukturu se mění na tokeny přes aplikace”. Zjednodušeně: síťová cesta a distribuovaná platforma definují, jak dobře se AI služby chovají.
🎥 Vision AI a hyperpersonalizace: nejrychlejší cesta k reálným scénářům
Jedním z nejrychleji rostoucích typů aplikací je Vision AI. A tady AI grid dává smysl nejrychleji, protože fyzické prostředí často generuje obrovské množství dat (video proudy, kamery, sensory) a AI musí jednat v reálném čase.
Co je v praxi důležité:
- Concurrency: schopnost obsloužit velký počet současných uživatelů nebo streamů.
- Jitter a determinismus: latence a variabilita latence rozhodují o kvalitě zážitku.
- Proximity: čím blíž k uživateli a zdroji dat, tím méně komplikací a často lepší výkon.
V ukázce se popisuje aplikace, která běží nejdřív jako LLM v cloudu, a pak je optimalizovaná jako “grid-ready” služba na AI grid. Rozdíl se projevuje v latenci a v tom, jak se aplikace chová při zátěži.
Další část se zaměřuje na hyperpersonalizaci. Personalizace není jen “hezky to vypadá”. Je to obchodní motor: pokud AI dokáže personalizovat obsah, přichází lepší konverze a více prostoru pro monetizaci (v talku se zmiňují i reklamní příležitosti).
🚗 Od 5G use case k “Internet of Intelligent Things” (IOIT)
AI grid se často vysvětluje na příkladech z obchodu a veřejné bezpečnosti. Jenže největší potenciál vidím v tom, jak se překlápí IoT na inteligentní úroveň.
V talku se uvádí, že AT&T už provozuje masivní connected IoT síť s hundreds of millions připojení, včetně connected cars. Teď AT&T, Cisco a Nvidia spolupracují na přechodu k IOIT (Internet of Intelligent Things).
Konkrétně se zmiňuje nasazení GPU třídy RTX 6000 Server Edition (v talku je zmíněno i bezpečnostní a výkonové ověření). Use case pro Edge AI se uvádí v Dallas pro public safety.
Myšlenka, kterou si z toho beru, je jednoduchá: když AI běží blízko místa, kde vzniká situace, může reagovat rychleji. A u bezpečnosti je rychlost často rozdíl mezi “detekcí” a “akčním zásahem”.
📺 Comcast, ads a edge compute: tisíce lokálních možností
Comcast se v řeči popisuje jako operátor s velmi rozsáhlou edge compute sítí, která dosahuje až 65 milionů lokalit. V takovém měřítku už nejde o experimentální nasazení. Jde o to, jak transformovat způsob, jakým se content a reklamy dostanou k zákazníkům.
Konkrétní příklad v talku zmiňuje spolupráci na personal AI pro hyper-personalized ads. Zjednodušeně: čím blíž AI běží k uživateli, tím lépe zvládá personalizaci s nízkou latencí, vyšší konzistencí a v reálném čase.
A co je pro menší firmy důležité: SMBs mohou získat přístup k AI asistencím bez toho, aby stavěly vlastní globální infrastrukturu. AI grid jim v tom může pomoct díky distribuci a standardizovaným vrstvám.
🎬 Spectrum a rendering: nízká latence jako konkurenční výhoda pro studia
Další zajímavý use case přichází od Spectrum, který pracuje s filmovými tvůrci. Pro studia je klíčová nízká latence a schopnost spolupracovat v reálném čase při komplexním 3D renderingu.
Řeč popisuje transformaci datových center a hubů, které jsou do 10 milisekund od studií. Díky tomu má studio ekonomičtější přístup k low-latency GPU capability pro rendering.
Tady si uvědomuju jednu věc: telekomunikace obvykle nejsou vnímány jako “rendering platforma”. Ale v AI grid světě se hranice posouvají. Když umíte garantovat blízkost a spustit GPU funkce na edge, jste schopní nabídnout služby, které dřív musely běžet na drahých lokálních systémech.
🌐 Akamai: distribuovaná inference a SLA-aware orchestrace
Akamai už v řeči zaznívá jako hráč s tisíci lokacemi po světě, kde probíhá distribuovaná AI inference na edge. Důležitý posun je, že tyto lokality nyní vstupují do globální orchestrace.
To, co Akamai popisuje (a co je v AI grid klíčové), je globální AI orchestration pro SLA-aware distribuci obsahu a aplikací.
Pro čtenáře je to signál, že bez orchestrace se AI grid nerozjede ve velkém. Nejde jen o to “mít GPU”. Jde o to mít správné GPU pro správnou úlohu ve správný okamžik.
📡 AI RAN: rádiová část jako součást gridu
Do této chvíle jsem mluvil hlavně o AI grid jako distribuované platformě pro aplikace. Ale je tu ještě jedna zásadní část: radio access network (RAN).
V talku se vysvětluje, že díky akcelerované compute vzniká AI-RAN. V podstatě jde o to, aby RAN běžel spolu s AI aplikacemi na infrastruktuře, která je připravená na AI.
Zmíněná AI RAN Alliance zahrnuje zhruba 150 firem, které ukazují výhody a benefity v AI-RAN. Z pohledu architektury to vypadá takto:
- vzniká grid distribuovaných siteů,
- orchestrace spojuje jejich výkon a dostupnost,
- RAN workload se může chovat “spolu” s aplikačním workloadem,
- a s SLA-aware orchestrace je možné doručit kvalitu služby na vyžádání.
🏙️ T-Mobile a Nokia: fyzické AI aplikace na AI-RAN ready infrastruktuře
Velmi konkrétně se v talku zmiňuje T-Mobile a jejich integrace physical AI aplikací na AI-RAN ready infrastruktuře. Popisuje se spolupráce s Nokia a zapojení Ericssson při portování softwaru pro AI-RAN infrastrukturu.
To nejzajímavější je, že se od “infrastruktury” přechází k aplikacím: ekosystém vývojářů přináší aplikace do stejné infrastruktury. V ukázce se uvádí nasazení do San Jose pro vision analytics.
Scénář je typický pro physical AI. Kamery sledují provoz, detekují anomálie a AI má jednat (například reagovat na dopravní situaci). V řeči se zmiňuje zrychlení výkonu při akcích, “5x” v kontextu rychlosti detekce a reakce.
To může znít jako marketingová čísla, ale princip je jasný: rychlost rozhodování závisí na latenci a jitteru. Pokud zkrátíte cestu a umístíte compute blíž, získáte výkon.
V talku se zmiňují i další partneři a typy aplikací, například pro inspekci a validaci AI do infrastruktury, nebo pro analýzu situací v budovách a na křižovatkách.
🌏 AI grid jako cesta k uzavření digitální propasti (Indonesia IOH)
AI grid zní často jako projekt pro velké trhy. V talku se ale zdůrazňuje i regionální a společenský dopad.
V příkladu se uvádí Indosat Aredo Hutchinson (IOH) z Indonésie. Je popsáno, že je to archipelag s relativně nízkým ARPU. To znamená, že ekonomika nasazení AI musí být citlivá na náklady.
IOH prý buduje AI infrastrukturu, trénuje na lokální jazyky a dialekty a chce nasazovat AI aplikace napříč populací. Cílem je zmenšit digitální propast a doručit například:
- vzdělávací aplikace,
- zemědělské informace pro farmáře,
- zdravotnické aplikace.
Zmíněno je i budování “center of excellence” pro trénink lidí a vývoj aplikací. Nasazení probíhá prostřednictvím aplikace “Sahabat AI”.
Pro mě je pointa tato: AI grid není jen “rychleji pro uživatele v bohatých městech”. Může to být i mechanismus, jak doručit AI služby v geograficky i ekonomicky náročných podmínkách díky distribuované struktuře a škálovatelným nákladovým modelům.
🧱 Referenční architektura, modely a rychlý on-ramp pro partnery
V talku zaznívá, že se doposud mluvilo o GPU platformách, orchestrace a aplikacích. Ale chyběla ještě jedna klíčová část: modely.
Význam modelů v AI grid světě je v tom, že reference architecture pomáhá OEM a zákazníkům dostat se rychle k nasazení. Zmíněný je důraz na open-source modely a ekosystém partnerů, kteří přebírají koncept AI grid.
Smyslem reference architektury je vytvořit společný způsob, jak integrovat různé vrstvy:
- modelové prostředí,
- orchestration vrstvu,
- aplikační runtime,
- a propojení na distribuované sitey.
To je důležité zejména ve chvíli, kdy chcete ekosystém. Pokud každá integrace vyžaduje “vymýšlet znovu kolo”, nevznikne škálovatelná platforma.
🕹️ Jak AI grid funguje jako unified orchestrated computing platform
V druhé části se popisuje AI grid architektura jako “connected, distributed sites operating as a unified, orchestrated computing platform”. To je přesně ten okamžik, kdy si potřebuji ujasnit, jak to celé vypadá na úrovni řízení.
V popisu se zmiňuje, že AI grid control plane vyhodnocuje workload, intent a resources a následně nasazuje úlohy do nejbližších distribuovaných siteů podle priorit jako latency, cost a availability.
Pak se uvádí, jak to napájí physical AI scénáře. Například:
- video se mění na real-time insight pro traffic, safety a public spaces,
- roboti offloadují těžké části výpočtu do AI grid (speech, planning),
- AI grid udržuje vysokou využitelnost a nenechává GPU kapacitu “idle”.
Poslední část, která je důležitá pro dlouhodobý provoz, je učení. AI grid se prý časem zlepšuje: anticipuje bottlenecks a doporučuje přidání nebo přesun kapacity. To znamená, že nejde jen o statickou orchestraci. Jde o adaptivní platformu.
🔐 Open, secure and trusted: principy 6G, které mají zabránit uzavřenému chaosu
Závěr talku se posouvá od AI grid k tomu, jak se to přelévá do budoucnosti 6G. A tady zaznívá důležitý princip: AI a 6G přinášejí vlnu nových endpointů a obrovskou závislost sítě na softwaru.
Když je síť “software-defined” a zároveň je plná endpointů, musíte mít důvěru. A důvěra v telecom světě znamená:
- Open: otevřít prostor inovacím,
- Secure: end-to-end zabezpečení v hardware i software,
- Trusted: transparentnost, auditovatelnost a důvěryhodnost.
V talku je zmíněno i vytvoření závazku, že 6G bude postavené jako open, secure and trusted iniciativou s operátory, poskytovateli equipmentu a vládními entitami. To je signál, že téma není jen “technologie pro výkon”, ale i “technologie pro důvěru”.
🧪 Demokratizace 6G výzkumu: simulační éra fyzického AI
Jedna z nejzajímavějších částí závěru se týká vývoje v simulaci. Pokud AI grid a physical AI rostou, tradiční testovací metody nemusí stačit. Musí přijít digitální dvojčata a simulace, které zvládnou fyzikální realitu.
Proto se v talku zmiňuje digitální twin založený na Omniverse, který má umožnit vyvíjet, simulovat a optimalizovat wireless systémy v prostředích, která odpovídají fyzikální realitě.
Konkrétně se popisuje, že platforma umí:
- evaluovat beam-forming strategie a site design,
- dělat site-specific ray tracing channel simulace pro nové waveforms a AI algoritmy,
- vylepšovat kalibraci simulací pomocí field data,
- validovat AI-RAN systémy propojením antenní fyziky s elektromagnetickou simulací,
- a škálovat simulace od single base station až po city on demand.
Pointa zní takto: 6G bude born in simulation. To znamená, že budoucnost vývoje sítí se bude víc opírat o digitální prostředí, kde se testuje před nasazením do živé sítě.
🚀 Co z toho plyne: AI native telco journey je cesta, kterou je lepší začít teď
Na konci talku je sdělení, které mi přijde praktické a zároveň motivační. AI native telco journey může být ohromující, ale jde o generational opportunity. A není potřeba znát kompletní plán od prvního dne. Stačí začít.
Z pohledu toho, co jsem v obsahu viděl, se dá cesta rozdělit do několika kroků:
- Vyhodnotit distribuční footprint: kde už máte land, power, shell a jaké jsou rezervy.
- Postavit orchestration schopnosti: SLA-aware rozhodování o tom, kde workload běží.
- Začít s use cases, které profitují z latence a proximity: typicky Vision AI, hyperpersonalizace, public safety, video insight.
- Připravit AI-RAN a grid kompatibilitu: nejdřív pro určité typy site, pak postupně rozšiřovat.
- Udržet principy open, secure and trusted kvůli škálování endpointů a důvěře.
- Využít simulace: digitální dvojčata pro vývoj a validaci před nasazením.
Pokud tohle shrnu jednou větou: AI grid je způsob, jak udělat AI praktickou infrastrukturní službu. Ne jako “aplikaci, která někde běží”, ale jako vrstvu, která dokáže doručit AI schopnosti tam, kde vzniká data a kde je potřeba akce.
A právě proto jde o generaci pro telekomunikace: protože AI mění výpočet, mění typ aplikací a v kombinaci s 6G mění i způsob, jakým budujeme konektivitu. Telco mají jedinečné předpoklady. Teď jde o to, jestli je promění v konkrétní platformu, která bude umět orchestrace, monetizaci a fyzickou real-time hodnotu.



