Globalne zapotrzebowanie na moc obliczeniową, napędzane głównie przez nienasyconą sztuczną inteligencję, rośnie w postępie geometrycznym. Inżynierowie Google, jedni z głównych graczy tego wyścigu, otwarcie stwierdzili, że nasza planeta staje się zbyt ciasna dla ich rosnących ambicji. Gigantyczne centra danych wielkości małych miast i tysiące kilometrów kabli światłowodowych na dnie oceanów to najwyraźniej za mało.
Jaki jest nowy plan? Wyniesienie całej infrastruktury obliczeniowej AI prosto na orbitę. Tak, dobrze czytasz. Google na poważnie bada projekt, który szczegółowo opisuje na własnym, oficjalnym blogu badawczym. Chodzi o stworzenie globalnej sieci obliczeniowej, składającej się z setek satelitów, zawieszonych kilkaset kilometrów nad naszymi głowami. Nie jest to bynajmniej jakaś luźna koncepcja ani czysto marketingowa zagrywka. Jest to realna propozycja badawcza, którą firma szczegółowo opisała na swoim oficjalnym blogu Google Research, nazywając ją skalowalnym systemem infrastruktury AI bazującym w kosmosie.
Dlaczego ziemia robi się za ciasna
Skąd wziął się pomysł na kosmiczną przeprowadzkę? Odpowiedź jest prosta, chociaż bezwzględna – obecny model rozwoju AI zderza się ze ścianą.
Sztuczna inteligencja, szczególnie zaawansowane modele językowe czy systemy generujące obrazy, jest nienasycona. Pożera moc obliczeniową i energię w tempie, które przyprawia księgowych o zawrót głowy, a ekologów o dreszcze. Budowanie kolejnych, coraz większych centrów danych na Ziemi napotyka bardzo fizyczne bariery. Brakuje odpowiednich terenów, dostępu do stabilnej energii i, co kluczowe, gigantycznych ilości wody potrzebnej do chłodzenia maszyn.
Według raportu Międzynarodowej Agencji Energetycznej (IEA) z 2024 roku, globalne zużycie energii przez centra danych sięga już około 460 terawatogodzin (TWh) rocznie. Dla porównania, roczne zużycie energii elektrycznej w Polsce to około 169 TWh, a w Szwecji – 166 TWh. Oznacza to, że same centra danych zużywają znacznie więcej prądu niż cała Polska i Szwecja razem wzięte. Utrzymanie takiego tempa wzrostu na lądzie jest po prostu niewydolne.
Do tego dochodzi problem „grawitacji danych”. Informacje są ciężkie. Przesyłanie gigantycznych zbiorów danych (petabajtów) między kontynentami przez kable podmorskie trwa. Nawet przy prędkości światłowodowej generuje to opóźnienia (tzw. latencję). Może to ułamki sekund, ale dla zaawansowanych systemów AI, które muszą przetwarzać dane w czasie rzeczywistym – na przykład dla autonomicznych samochodów czy globalnych systemów finansowych – taka zwłoka jest nieakceptowalna. Google szuka więc sposobu, by ominąć ziemskie korki.
Rój satelitów połączony laserami
Google proponuje więc ucieczkę w górę. Pomysł, opisany na blogu Google Research, jest elegancki w swojej zuchwałości. Zamiast budować jedną, wielką „Gwiazdę Śmierci” pełną serwerów, planują wysłać na niską orbitę okołoziemską (LEO) całą flotę, czyli konstelację, współpracujących satelitów.
To ma być rozproszone centrum danych. Każdy z satelitów miałby na pokładzie specjalistyczne jednostki obliczeniowe (procesory TPU od Google, skrojone pod AI). Kluczem do sukcesu nie są jednak same satelity, ale sposób, w jaki będą się ze sobą komunikować.
Zapomnij o Wi-Fi czy falach radiowych. Mówimy tu o laserach. Technologia nazywa się FSOC (Free Space Optical Communications) i polega na przesyłaniu danych za pomocą precyzyjnych, niewidzialnych dla oka wiązek światła między satelitami. Działa to błyskawicznie, z prędkością światła w próżni (czyli szybciej niż w światłowodzie), omijając zakłócenia atmosferyczne i fizyczne ograniczenia kabli na dnie oceanu.
W praktyce ma to działać następująco – zadanie obliczeniowe (np. analiza zdjęcia satelitarnego) nie jest wysyłane na Ziemię. Jest wysyłane do najbliższego satelity Google, który „rozmawia” laserowo z kilkoma innymi, dzieląc się pracą. Obliczenia odbywają się w locie, na orbicie, a na Ziemię trafia już gotowy wynik. Prawdziwa “chmura” i to taka na wysokości 500 kilometrów.
Co my z tego będziemy mieli
Orbitalne ambicje Google są imponujące. Warto jednak zadać kluczowe pytanie – co taki system zmieni z perspektywy końcowego użytkownika? Pomijając sam fakt przetwarzania danych w kosmosie, potencjalne korzyści są całkiem praktyczne.
Po pierwsze – globalny zasięg. Infrastruktura na orbicie oznacza, że superszybkie przetwarzanie danych AI staje się dostępne wszędzie. Na środku Pacyfiku, na Saharze, w Arktyce, czy (co może ważniejsze) w Twojej ulubionej kawiarni ze słabym internetem. Dostęp do zaawansowanych obliczeń przestaje być zależny od tego, czy w pobliżu leży światłowód.
Po drugie – szybkość. Google twierdzi, że przetwarzanie danych bezpośrednio w kosmosie i przesyłanie ich laserami między satelitami drastycznie obniży opóźnienia. Weźmy monitorowanie klęsk żywiołowych. Dziś satelita robi zdjęcie pożaru, musi przelecieć nad stacją naziemną, wysłać setki gigabajtów danych, dane idą kablem do centrum obliczeniowego, tam AI je analizuje, a wynik (mapa zagrożenia) wraca do służb. To trwa godziny. W systemie Google’a satelita robi zdjęcie, wysyła je laserem do orbitalnego “sąsiada” (serwera AI), analiza dzieje się w sekundę, a gotowy wynik jest wysyłany od razu do ekip ratunkowych na miejscu.
Inny serwis, który pisał już o tym zagadnieniu – The Register, słusznie zauważa, że skalowalność też wygląda obiecująco. Jeśli Google zabraknie mocy obliczeniowej na orbicie, po prostu… zamówi kolejny start rakiety i dorzuci kilka satelitów do roju. Proste… przynajmniej na papierze.
Kosmiczne śmieci i orbitalne restarty
Warto jednak wylać na optymizm kubeł zimnej, kosmicznej wody. Plan jest, mówiąc delikatnie, ekstremalnie ambitny i obarczony gigantycznym ryzykiem.
Po pierwsze, na niskiej orbicie okołoziemskiej robi się już potwornie ciasno. Już na początku 2025 roku liczba aktywnych satelitów krążących nad naszymi głowami przekroczyła 10 000 (co potwierdzają m.in. raporty Pixalytics Ltd), a pod koniec roku zbliża się do 13 000. Jakby tego było mało, SpaceX ze swoim Starlinkiem dorzuca nowe niemal co tydzień. Google wchodzi na imprezę, która już trwa w najlepsze, a ryzyko kolizji i generowania kosmicznych śmieci rośnie wykładniczo.
Po drugie – koszty. Chociaż firmy rakietowe jak SpaceX mocno obniżyły ceny, wysłanie czegokolwiek w kosmos jest nadal astronomicznie drogie. Mówimy o tysiącach dolarów za każdy kilogram sprzętu wysłanego na LEO. Utrzymanie setek serwerów na orbicie będzie kosztować fortunę.
Po trzecie – awarie. Na Ziemi, gdy serwer w centrum danych padnie, technik idzie do szafy, wymienia dysk lub zasilacz i po sprawie. A jak zamierzasz “zrestartować” satelitę pędzącego 28 000 kilometrów na godzinę, 500 kilometrów nad Ziemią? Wysyłanie kosmicznych serwisantów w kombinezonach raczej nie wchodzi w grę. System musi być w pełni odporny na błędy, a oprogramowanie musi dać się aktualizować zdalnie, co samo w sobie jest wyzwaniem. Do tego dochodzi promieniowanie kosmiczne, które uwielbia psuć delikatną elektronikę.
Gra o kosmiczną dominację
Cały projekt ma też drugie dno. Google nie inwestuje miliardów w orbitalną infrastrukturę dla drobnych usprawnień, jak szybsze ładowanie zdjęć z wakacji. Jest to strategiczna gra o najwyższą stawkę – globalną dominację.
Przyszłością technologii jest sztuczna inteligencja, a AI działa na danych i mocy obliczeniowej. Kto kontroluje infrastrukturę, ten dyktuje warunki na rynku. Google, widząc rosnącą konkurencję ze strony Microsoftu (inwestującego w OpenAI), Amazonu (AWS) i ambitnych graczy jak SpaceX (który ma już swoją sieć transportową i internetową – Starlink), musi szukać radykalnej przewagi.
SpaceX Elona Muska już dostarcza internet z orbity (to “rury”). Google chce pójść krok dalej – chce dostarczyć z orbity przetwarzanie (to “fabryka”).
Budowa centrum danych w kosmosie to próba stworzenia globalnej, superszybkiej i co najważniejsze własnej autostrady dla informacji i obliczeń AI. Autostrady, nad którą rządy poszczególnych państw będą miały znacznie mniejszą kontrolę niż nad kablami biegnącymi przez ich terytoria lub serwerowniami stojącymi na ich ziemi. Widzimy tutaj próbę zbudowania podstaw pod globalny monopol na przetwarzanie danych. Tylko jeśli nie zrobią tego oni… zrobi to ktoś inny.
Przyszłość jest wysoko
Czy projekt Google faktycznie wystartuje i zmieni nasz świat? Trudno powiedzieć. Na razie, jak sami przyznają na blogu Google Research, to są tylko “prace badawcze nad projektem systemu”.
Jednak sam fakt, że gigant pokroju Google na poważnie inwestuje zasoby w analizowanie orbitalnej infrastruktury AI, pokazuje jedno – bitwa o dominację w sztucznej inteligencji przenosi się z gabinetów i ziemskich serwerowni wprost w przestrzeń kosmiczną. Może za 10 lat, gdy zapytasz asystenta głosowego o pogodę, odpowiedź faktycznie przyleci do Ciebie z orbity z prędkością światła.
Źródła: Blog Google Research, The Register, Własne