Sztuczna inteligencja drastycznie schudła. Jeszcze niedawno pęczniała od setek miliardów parametrów i pożerała prąd niczym małe państwo. Dziś? Wygląda na to, że przeszła na rygorystyczną dietę, gubiąc 99% swojej masy, a przy tym stając się cwańsza i – co najważniejsze – nieporównywalnie tańsza. Do takich wniosków możemy dojść po przeczytaniu raportu AI Index Report 2025 od prestiżowego Stanford Human-Centered AI Institute (HAI).
Jest to lektura obowiązkowa dla każdego, kto myślał, że rewolucja AI go ominie. Okazuje się, że dotychczasowe wydarzenia nie były nawet rozgrzewką. Prawdziwa fala dopiero nadciąga, a jest znacznie większa, szybsza i bardziej nieprzewidywalna, niż się spodziewaliśmy.
Dzisiaj odpowiemy na pytania, które faktycznie się liczą:
- Kto wygrywa szalony wyścig?
- Kto za to wszystko płaci?
- I co najważniejsze – dlaczego Twój portfel, Twoja firma i Twoja kariera odczują zmiany znacznie szybciej, niż myślisz?
Dawid kontra Goliat – czyli jak małe modele biją gigantów
Pamiętasz, kiedy dwa lata temu świat zachwycał się modelem PaLM od Google? Miał 540 miliardów parametrów, a jego “mózg” był tak skomplikowany, że potrzebował własnego kodu pocztowego. Był to jeden z pierwszych modeli, który przekroczył próg 60% skuteczności w benchmarku MMLU – trudnym teście sprawdzającym ogólną wiedzę. Wtedy wydawało się, że jest to szczyt możliwości.
Teraz przewińmy taśmę do 2024 roku. Raport Stanforda rzuca na stół dane, które brzmią jak żart. Na scenę wkracza Microsoft Phi-3-mini. Ile ma parametrów? Zaledwie 3,8 miliarda. Czyli mniej niż jeden procent tego, co miał PaLM. Jednakże maluch osiąga taki sam próg wydajności na tym samym, wymagającym teście.
Jest tu 142-krotna redukcja rozmiaru w zaledwie dwa lata. Gdyby Twój samochód w dwa lata stał się 142 razy mniejszy, a jednocześnie jeździł równie szybko, prawdopodobnie mieściłby się w kieszeni. Oznacza to, że algorytmiczna wydajność AI rośnie w tempie, które trudno sobie wyobrazić. Już nie trzeba budować cyfrowych katedr, by osiągnąć kosmiczne rezultaty. Wystarczy dobrze zaprojektowany, mniejszy model.
Dlaczego ma to dla Ciebie jakiekolwiek znaczenie? Ponieważ właśnie dlatego sztuczna inteligencja zaczyna pojawiać się wszędzie. Nie potrzebujesz już serwerowni wielkości boiska piłkarskiego, by przetwarzać dane. Za chwilę najbardziej zaawansowane funkcje AI będą działać lokalnie na Twoim telefonie, w Twoim samochodzie, a może nawet w Twojej lodówce (jeśli inżynierowie uznają, że analiza zawartości półek w czasie rzeczywistym jest niezbędna ludzkości).
Ceny lecą na łeb, na szyję – AI dla każdego (prawie)
Jeśli modele stają się mniejsze i sprytniejsze, to logiczne, że ich używanie tanieje. Słowo “tanieje” jest tu jednak sporym niedopowiedzeniem. Powinniśmy raczej mówić o cenowym trzęsieniu ziemi.
Raport AI Index 2025 podaje konkretną, oszałamiającą liczbę. Koszt skorzystania z modelu AI o wydajności porównywalnej z GPT-3.5 (czyli “mózgu”, który napędzał wczesnego ChatGPT) spadł ponad 280-krotnie w ciągu zaledwie 18 miesięcy. W listopadzie 2022 roku przetworzenie miliona tokenów (czyli około 750 000 słów) kosztowało 20 dolarów. W październiku 2024 roku, dzięki modelowi Gemini-1.5-Flash-8B, taki sam koszt wynosił zaledwie 7 centów. Tak, siedem centów. Taniej niż guma do żucia.
Co oznacza koszt skorzystania (inference cost)
Jest to opłata, jaką ponosisz za każdym razem, gdy zadajesz AI pytanie lub zlecasz mu zadanie. Nie jest to koszt budowy modelu, ale jego codziennej eksploatacji. Drastyczny spadek cen sprawia, że wbudowywanie AI w aplikacje, strony internetowe i usługi staje się ekonomicznie opłacalne nawet dla małych firm i startupów. Właśnie dlatego Twój edytor tekstu nagle potrafi pisać głosowo, a program graficzny generuje obrazy na zawołanie. Jest to czysta, brutalna ekonomia. Rynek nie jest napędzany jedynie przez postęp technologiczny, ale także przez fakt, że AI przestała być zabawką dla miliarderów.
Biznes wchodzi na całego – wskaźnik adopcji AI wystrzelił w kosmos
Firmy przez lata przyglądały się AI z mieszanką ciekawości i nieufności. Jasne, potencjał był ogromny, ale koszty, złożoność i ryzyko zniechęcały wielu. Rok 2024 wszystko zmienił. Według raportu McKinsey’a cytowanego przez Stanforda odsetek organizacji, które wdrożyły AI w przynajmniej jednym obszarze swojej działalności, wystrzelił z 55% w 2023 roku do 78% w 2024 roku.
Nie jest to zwykły wzrost, jest to prawdziwa lawina. A jeśli spojrzymy na generatywną AI (chodzi o ChatGPT, Midjourney i podobne), liczby są jeszcze bardziej przekonujące. Udział firm korzystających z niej w przynajmniej jednej funkcji biznesowej podwoił się z 33% do 71% w ciągu zaledwie jednego roku. Firmy przestały bawić się AI i zaczęły na niej zarabiać.
Gdzie widać to najbardziej? Największe korzyści z wdrożenia AI odnotowują działy marketingu i sprzedaży, gdzie 71% ankietowanych firm raportuje wzrost przychodów. Tuż za nimi plasuje się zarządzanie łańcuchem dostaw (63%) i obsługa klienta (57%). Oczywiście, najczęściej są to na razie niewielkie wzrosty, poniżej 5%, ale mechanizm ruszył. Biznes zobaczył, że AI to nie tylko chwytliwe hasło, ale narzędzie do optymalizacji kosztów i zwiększania zysków. A kiedy w grę wchodzą pieniądze, adopcja technologii przyspiesza w tempie geometrycznym.

A kto to wszystko buduje – gorzka prawda o innowacjach
Mamy więc mniejsze modele, niższe ceny i biznes, który rzuca na stół miliardy dolarów. Kto właściwie stoi za tą rewolucją? Marzysz o genialnym programiście, który w garażu tworzy kolejny przełomowy model? Niestety, taki romantyczny mit odchodzi do lamusa.
Raport AI Index 2025 bezlitośnie obnaża prawdę – to korporacje przejęły stery. W 2024 roku prawie 90% znaczących modeli AI powstało w firmach prywatnych. Rok wcześniej było to 60%. Akademie zostały daleko w tyle.
Powód jest prozaiczny – pieniądze, a konkretnie koszt mocy obliczeniowej potrzebnej do wytrenowania modelu. Stworzenie takiego giganta jak Llama 3.1 405B to, według szacunków z raportu, koszt rzędu 170 milionów dolarów. OpenAI przyznało, że trening GPT-4 kosztował ponad 100 milionów. Żaden uniwersytet na świecie nie może sobie pozwolić na podobne wydatki na pojedynczy eksperyment.
Z jednej strony to dobrze, bo dzięki ogromnym zasobom finansowym gigantów technologicznych postęp jest bardzo szybki. Z drugiej, można mieć wątpliwości, w którą stronę to wszystko pójdzie. Innowacje koncentrują się w rękach kilku graczy: Google, Meta, OpenAI czy Anthropic. Trochę szkoda otwartej, akademickiej rywalizacji, która napędzała rozwój informatyki przez dekady. Dzisiejsza czołówka AI jest coraz bardziej zamknięta i coraz mniej chętnie dzieli się swoimi sekretami. Może i jest to logiczne z biznesowego punktu widzenia, ale może spowolnić prawdziwie przełomowe odkrycia w dłuższej perspektywie.
Pojedynek tytanów – USA vs Chiny na cyfrowym ringu
Wyścig o dominację w dziedzinie AI to nowy rodzaj zimnej wojny, a głównymi graczami są Stany Zjednoczone i Chiny. I tutaj raport Stanforda przynosi kolejne zaskoczenie.
Na pierwszy rzut oka USA wciąż dominuje. W 2024 roku amerykańskie instytucje wypuściły 40 znaczących modeli, podczas gdy chińskie zaledwie 15. Jednakże prawda jest taka, że, istota rzeczy kryje się w szczegółach. Gdy przyjrzymy się jakości, a nie ilości, obraz staje się zgoła inny.
Różnice w wydajności między najlepszymi modelami z USA i Chin, które jeszcze w 2023 roku na kluczowych benchmarkach jak MMLU czy HumanEval sięgały kilkunastu, a nawet kilkudziesięciu punktów procentowych, w 2024 roku praktycznie zniknęły. Na niektórych testach są to różnice na poziomie błędu statystycznego. Chińskie modele, choć jest ich mniej, idą łeb w łeb z amerykańską czołówką.
Co więcej, Chiny prowadzą w dwóch innych kluczowych kategoriach: liczbie publikacji naukowych oraz liczbie patentów związanych z AI. Wygląda to tak, jakby Stany Zjednoczone stawiały na jednorazowe, drogie modele, podczas gdy Chiny grają w dłuższą grę, budując solidne fundamenty naukowe i prawne pod przyszłą dominację. Jest to fascynujący pojedynek strategii, którego wynik wcale nie jest przesądzony.
Początek ery taniego geniuszu
Gra o sztuczną inteligencję przestała być pojedynkiem na wielkość bicepsów. Kiedyś liczyło się to, kto zbuduje największy, najdroższy i najbardziej prądożerny model. Dziś to bez znaczenia.
Narzędzia stały się tanie, dostępne i powszechne. Prawdziwa wartość nie leży już w posiadaniu cyfrowego młota, ale w umiejętności zbudowania z jego pomocą czegoś niezwykłego. Największy wyścig nie toczy się między laboratoriami badawczymi Google’a i OpenAI, ale między ludźmi – o kreatywność, o pomysł, o odwagę do zastosowania AI w sposób, o jakim inni jeszcze nie pomyśleli.
Jest to ekscytująca i jednocześnie nieco przerażająca perspektywa. Ekscytująca, bo bariery wejścia praktycznie zniknęły. Przerażająca, bo skończyły się wymówki. Zatem pytanie nie brzmi już czy stać nas na AI, ale czy stać nas na to, by jej nie używać. W erze taniego geniuszu to nie moc obliczeniowa będzie w cenie, lecz ludzka wyobraźnia. A jej, na szczęście, żadna maszyna jeszcze nie potrafi skopiować. Na razie.
Źródła: Stanford HAI, OpenAI, Własne
