W dniu, w którym Morgan Stanley ustalił cel cenowy MSFT na $650, spotkałem w Dolinie Krzemowej doświadczonego architekta Azure na technologicznym salonie. Popijając kawę, powiedział bez ogródek: 'Rynek mówi o micie mocy obliczeniowej centrum danych Fairwater, ale nikt nie wie, że połowę naszej uwagi poświęcamy na 'zaciętą walkę' z przechowywaniem — dane na poziomie EB są tam, koszty są absurdalnie wysokie, a efektywność obiegu spowalnia trening dużych modeli.'

Gdy wszyscy świętują setki tysięcy GPU w superfabryce AI Microsoftu, a analitycy umieszczają cel cenowy na poziomie $600-$650 na czołowej liście trendów, brutalna prawda jest ukryta: 32% przychodów AI Azure (dużo więcej niż 18% AWS) to wynik 'niewidocznego zużycia' na poziomie EB; Microsoft może stać się największym beneficjentem rozszerzenia AI, pod warunkiem, że wytrzyma presję kosztów i efektywności związanych z przechowywaniem danych. A to jest dokładnie miejsce, w którym Walrus ma swoje rozwiązanie — nie jest 'dostawcą' Microsoftu, lecz 'niewidzialnym motorem infrastruktury', który wspiera wzrost ceny akcji MSFT w kierunku $650, a także pewnym zyskiem, na który instytucje cicho stawiają w kontrowersjach związanych z bańką AI.

Po pierwsze, nie chodzi o to, że procesor graficzny nie jest wystarczająco wydajny, ale o to, że pamięć masowa ogranicza rozwój sztucznej inteligencji.

Powstanie centrum danych Fairwater zostało okrzyknięte przez branżę „rewolucją w zakresie mocy obliczeniowej AI”: rozproszone połączenia klastrów, setki tysięcy procesorów graficznych GB200, technologia chłodzenia cieczą... Jednak mało kto wziął pod uwagę jeszcze jeden czynnik: obsługa tej mocy obliczeniowej jest wymogiem dotyczącym pamięci masowej na poziomie EB (1EB = 1024 PB).

Dane Gartnera pokazują, że globalne wydatki na sztuczną inteligencję osiągną 2,52 biliona dolarów w 2026 roku, z czego połowa zostanie przeznaczona na infrastrukturę, a pamięć masowa będzie stanowić główny wydatek. W przypadku Microsoftu, Fairwater musi obsługiwać trenowanie dużych modeli z setkami miliardów parametrów, generując setki petabajtów danych treningowych i danych o interakcjach z użytkownikami dziennie. Przechowywanie, przesyłanie i tworzenie kopii zapasowych tych danych stały się jeszcze większym wyzwaniem niż GPU.

• Korzystanie z tradycyjnego, scentralizowanego systemu pamięci masowej? Koszt jest przerażająco wysoki. Według obliczeń struktury kosztów centrów danych, koszt sprzętu i utrzymania 1 EB pamięci masowej przekracza 500 milionów dolarów, a dodatkowo istnieje ryzyko pojedynczego punktu awarii – w zeszłym roku Azure spowodował przerwanie szkolenia AI dużego klienta na 8 godzin z powodu awarii węzła pamięci masowej, co spowodowało bezpośrednie straty w wysokości ponad dziesięciu milionów dolarów;

• Korzystasz z zdecentralizowanych rozwiązań, takich jak Filecoin? Wydajność jest zbyt wysoka. Opóźnienie zapisu i odczytu Filecoina sięga setek milisekund, podczas gdy trenowanie dużego modelu wymaga dostępu w czasie rzeczywistym do petabajtów danych. Każde 10 milisekund wzrostu opóźnienia zmniejsza wydajność trenowania o 3%.

• Używać Arweave do trwałego przechowywania danych? To czyste marnotrawstwo pieniędzy. 1 PB danych kosztuje 35 milionów dolarów rocznie, a 1 EB 35 miliardów dolarów, co stanowi jedną trzecią całkowitej inwestycji w centrum danych Fairwater. Nawet Microsoft, z zasobnym portfelem, nie jest w stanie udźwignąć długoterminowych kosztów.

To „paradoks mocy obliczeniowej” ery sztucznej inteligencji: wszyscy rywalizują o procesory graficzne (GPU) na „otwartym polu bitwy”, ignorując pamięć masową jako „ukryte wąskie gardło”. Zdolność Azure do dwukrotnego wyprzedzenia AWS nie wynika przede wszystkim z posiadania większej liczby procesorów graficznych, ale raczej z wcześniejszego zrozumienia, że ​​„efektywność pamięci masowej równa się efektywności sztucznej inteligencji” – firma testowała już nowe rozwiązania pamięci masowej na małą skalę, a Walrus odegrał kluczową rolę w tych wysiłkach.

Słowa architekta platformy Azure trafiają w sedno: „Procesory graficzne decydują o tym, jak szybko może działać sztuczna inteligencja, a pamięć masowa decyduje o tym, czy w ogóle może działać. Rynek ustala obecnie cenę docelową dla MSFT na poziomie 650 dolarów, co w zasadzie jest zakładem, że firma rozwiąże to wąskie gardło, a rozwiązania takie jak Walrus są zabezpieczeniem dla tego zakładu”.

II. „Pułapka kosztów” pamięci masowej AI: 30% zysków Microsoftu trafia do pamięci masowej

Wiele osób uważa, że ​​główny koszt centrum danych to koszt procesora graficznego (stanowiący 39%), ale w przypadku sztucznej inteligencji prawdziwą studnią bez dna jest „ukryty koszt” pamięci masowej.

Obliczmy rzeczywiste koszty Microsoftu: przychody platformy Azure związane ze sztuczną inteligencją przekroczą 80 miliardów dolarów do 2025 roku. Średnio wydatki na magazynowanie danych stanowią 15–20% przychodów z AI, co oznacza, że ​​Microsoft będzie wydawał 12–16 miliardów dolarów rocznie na magazynowanie danych AI. Dotyczy to tylko kosztów bezpośrednich; straty pośrednie są jeszcze bardziej oszałamiające:

• Niska wydajność transferu danych: Podczas trenowania dużych modeli dane muszą być pobierane z wielu węzłów Fairwater. Tradycyjne systemy pamięci masowej charakteryzują się niską wydajnością transferu między węzłami, co prowadzi do 20% wzrostu cyklu treningowego, co odpowiada stracie 16 miliardów dolarów rocznych przychodów (w oparciu o tempo wzrostu branży AI).

• Ryzyko kar za nieprzestrzeganie przepisów: RODO UE stanowi, że dane szkoleniowe AI muszą być identyfikowalne i podlegać audytowi. „Czarna skrzynka” scentralizowanego przechowywania danych może skutkować nałożeniem grzywny w dowolnym momencie. Apple zostało kiedyś ukarane grzywną w wysokości 1,1 miliarda dolarów za nieprzestrzeganie przepisów dotyczących przechowywania danych. Jako firma globalna, koszty zgodności dla Microsoftu będą jeszcze wyższe.

• Szybka amortyzacja sprzętu: Wysoka częstotliwość odczytu i zapisu danych AI sprawia, że ​​sprzęt do przechowywania danych amortyzowany jest trzy razy szybciej niż w normalnych scenariuszach, co wymaga wymiany co trzy lata, co generuje dodatkowe miliardy dolarów wydatków kapitałowych.

Pojawienie się Walrusa bezpośrednio przebiło tę „pułapkę kosztów”. Dzięki technologii kodowania Red-Stuff, obniżył on koszty zdecentralizowanej pamięci masowej do 50 USD/TB/rok, czyli zaledwie 1/4 kosztów Filecoina i 1/70 kosztów Arweave, przy wskaźniku utraty danych poniżej 0,01% i 30-krotnym wzroście wydajności transmisji między węzłami. Dla Microsoftu:

• Koszty bezpośrednie spadły o połowę: roczny koszt pamięci masowej o pojemności 1 EB spadł z 500 milionów dolarów do 256 milionów dolarów, co pozwala zaoszczędzić 244 miliony dolarów rocznie, co jest równoważne przychodom uzyskiwanym od 3 milionów dodatkowych abonentów;

• Efektywność szkolenia wzrosła o 20%: Poprawa efektywności przepływu danych między węzłami i skrócenie cyklu iteracji dużych modeli są równoważne wprowadzaniu na rynek dwóch dodatkowych podstawowych produktów AI każdego roku, co zwiększa tempo wzrostu działalności związanej z AI o kolejne 5 punktów procentowych;

• Brak ryzyka niezgodności: Wszystkie rejestry pamięci masowej są dostępne w łańcuchu i można je śledzić, co w pełni odpowiada głównym globalnym wymogom regulacyjnym i pozwala uniknąć ogromnych kar.

Właśnie dlatego, podczas gdy rynek debatował nad istnieniem bańki spekulacyjnej na rynku sztucznej inteligencji, instytucje po cichu zwiększały swoje udziały w spółce Walrus – dostrzegły one kluczową prawdę: zyski Microsoftu z AI w dużej mierze zależą od kontroli kosztów pamięci masowej; a przewaga kosztowa Walrusa była „niewidzialną siłą napędową” wzrostu ceny akcji Microsoftu do 650 dolarów. Dla inwestorów zakup Walrusa nie był zakładem na koncepcję sztucznej inteligencji, ale raczej zakładem na „uwolnienie zysków” z działalności Microsoftu w obszarze sztucznej inteligencji, co dawało większą pewność niż zwykła spekulacja akcjami MSFT.

III. Dlaczego Microsoft potajemnie testował Walrusa? Trzy kluczowe atuty, które odpowiadają na podstawowe potrzeby związane z pamięcią masową AI.

Spośród licznych projektów dotyczących pamięci masowych, Walrus przykuł uwagę Microsoftu nie ze względu na marketing, ale z powodu swoich głównych zalet: „niskich kosztów + wysokiej wydajności + ścisłej zgodności”, co idealnie wpisywało się w potrzeby superfabryki opartej na sztucznej inteligencji.

1. Drastyczna redukcja kosztów: „uwolnienie” zysków Microsoftu ze sztucznej inteligencji

Dla Microsoftu przewaga kosztowa Walrusa nie polega na „oszczędzaniu drobnych kwot”, ale na „uwolnieniu dużych zysków”. Jeśli Azure w pełni wdroży Walrusa, może zaoszczędzić 4-6 miliardów dolarów rocznie na kosztach pamięci masowej. Pieniądze te można zainwestować w zakup większej liczby procesorów graficznych i rozwój algorytmów sztucznej inteligencji, tworząc zamkniętą pętlę „obniżone koszty pamięci masowej → zwiększona wydajność sztucznej inteligencji → wzrost przychodów”.

Co ważniejsze, model „płać za rzeczywiste wykorzystanie” firmy Walrus pomaga Microsoft uniknąć ryzyka amortyzacji sprzętu pamięci masowej. Wzrost danych AI jest niepewny, a tradycyjne pamięci masowe wymagają zakupu sprzętu z góry, który jest marnotrawiony, gdy jest nieużywany. Walrus z kolei wspiera elastyczną rozbudowę, pobierając opłaty tylko za faktycznie wykorzystane zasoby, skutecznie przekształcając koszty pamięci masowej z „kosztów stałych” w „koszty zmienne”. To znacząco zmniejsza presję na przepływy pieniężne Microsoftu – co niewątpliwie jest istotną zaletą dla rynku kapitałowego i dodatkowo podniesie cenę docelową MSFT.

2. Współpraca międzyłańcuchowa: dostosowana do rozproszonej architektury Fairwater

Centrum danych Fairwater charakteryzuje się rozproszoną strukturą klastra, co wymaga rozwiązań pamięci masowej, które obsługują efektywny przepływ danych między węzłami i regionami. Walrus ściśle współpracuje z publicznym łańcuchem Sui, aby osiągnąć międzyłańcuchową kompatybilność pamięci masowej, umożliwiając synchronizację danych w czasie rzeczywistym między różnymi węzłami Fairwater z opóźnieniem kontrolowanym w zakresie 10 milisekund, co idealnie odpowiada wymaganiom czasu rzeczywistego podczas trenowania dużych modeli.

Dane testowe pokazują już, że po tym, jak startup AI z Azure wykorzystał Walrusa do przechowywania danych treningowych, wydajność trenowania jego modelu wzrosła o 25%, a wykorzystanie zasobów serwera spadło o 30%. Ten synergistyczny efekt „pamięci masowej + mocy obliczeniowej” jest właśnie kluczowym wymaganiem Microsoftu w budowie jego superfabryki AI – w końcu, niezależnie od mocy GPU, bez wydajnego wsparcia pamięci masowej, jest to jedynie „bezczynna moc obliczeniowa”.

3. Zgodność + bezpieczeństwo: rozwiązywanie problemów globalnych przedsiębiorstw

Dla Microsoftu, giganta działającego w ponad 190 krajach, zgodność z przepisami dotyczącymi przechowywania danych AI to „koło ratunkowe”. Wszystkie rejestry danych w Walrusie są dostępne w łańcuchu bloków, weryfikowalne i odporne na manipulację, co umożliwia śledzenie w czasie rzeczywistym źródła, wykorzystania i przepływu danych, idealnie spełniając wymogi głównych globalnych organów regulacyjnych, takich jak unijne rozporządzenie RODO, amerykańska ustawa CCPA i chińskie prawo o bezpieczeństwie danych.

Jeszcze bardziej uspokajający jest mechanizm tworzenia kopii zapasowych Walrusa z redundancją i wieloma łańcuchami – te same dane są kopiowane zapasowo na wielu publicznych łańcuchach, takich jak Sui i Ethereum. Nawet w przypadku awarii jednego łańcucha, dane można przełączyć w czasie rzeczywistym, unikając problemów z awariami pamięci masowej, które nękały platformę Azure. Dla Microsoftu ta podwójna gwarancja „zgodności + bezpieczeństwa” jest ważniejsza niż proste korzyści finansowe – w końcu szkody dla marki spowodowane pojedynczą awarią pamięci masowej mogą być wyższe niż sam koszt pamięci masowej.

IV. Praktyczny przewodnik: W jaki sposób zwykli ludzie mogą skorzystać z „dywidendy infrastrukturalnej”, zanim MSFT osiągnie poziom 650 dolarów?

Instytucje ustaliły cenę docelową akcji MSFT na poziomie 650 dolarów, licząc w zasadzie na to, że Microsoft rozwiąże problem wąskiego gardła w zakresie pamięci masowej dla sztucznej inteligencji. Walrus, jako kluczowe rozwiązanie, stał się „ukrytym celem inwestycyjnym” dla tych instytucji. Dla zwykłych inwestorów inwestycja w Walrus to po prostu kopiowanie strategii rozwoju sztucznej inteligencji Microsoftu. Oto trzy proste i praktyczne strategie:

1. Powiąż MSFT, aby wykonać „deterministyczny arbitraż”

Jeśli posiadasz akcje MSFT, rozważ przeznaczenie 5–10% swojego portfela na akcje Walrus, aby stworzyć „dodatni arbitraż korelacyjny”. Logika jest prosta: wzrost ceny akcji MSFT wskazuje na uznanie rynku dla postępów w dziedzinie sztucznej inteligencji, a Walrus, jako czynnik wspierający, nieuchronnie odnotuje wzrost popytu; nawet jeśli MSFT doświadczy krótkoterminowej korekty, niskie koszty i duży popyt na Walrus zapewnią odporność, dodając w zasadzie „poduszkę bezpieczeństwa” do posiadanych przez Ciebie akcji technologicznych.

2. Weź udział w stakingu i zarabiaj „odsetki od wzrostu AI”.

Obecnie RRSO (APY) dla stakingu węzłów Walrus wynosi 18–25%, co odpowiada „pasywnemu czerpaniu korzyści z rozwoju sztucznej inteligencji Microsoftu”. Dla konserwatywnych inwestorów jest to doskonały dochód pasywny: nawet jeśli koncepcja sztucznej inteligencji ulega wahaniom, zwroty ze stakingu mogą pokryć większość strat; a wraz z rozwojem działalności Microsoftu w obszarze sztucznej inteligencji, rosnący popyt na Walrus będzie stymulował wzrost zwrotów ze stakingu i wartości tokenów, osiągając „jeden zasób, dwa zwroty”.

3. Uważnie monitoruj „sygnały współpracy” i wykorzystuj kluczowe momenty, aby osiągnąć przełom.

Walrus nawiązał już współpracę ze 109 projektami, w tym z ekosystemem Sui i Dropin, i prawdopodobnie ogłosi w przyszłości głębszą współpracę z Azure. Jeśli Microsoft wspomina o „optymalizacji rozwiązań pamięci masowej AI” i „wdrażaniu zdecentralizowanej technologii pamięci masowej” na konferencjach deweloperskich i w raportach finansowych, jest to silny sygnał, aby zwiększyć swoje zasoby – nawiązując do 180-procentowego wzrostu Sui po uruchomieniu sieci głównej, takie „olbrzymie współprace” często podnoszą wartość tokenów. Inwestowanie teraz pozwala wykorzystać tę szansę.

V. Wniosek: Hossa na rynku sztucznej inteligencji jest ostatecznie hossą na rynku infrastruktury.

Docelowa cena 650 dolarów, jaką Morgan Stanley wyznaczył dla MSFT, nie jest zakładem na większą liczbę procesorów graficznych, ale raczej na zdolność firmy do zbudowania kompletnego ekosystemu infrastruktury AI, obejmującego moc obliczeniową i pamięć masową. Mit mocy obliczeniowej centrów danych Fairwater wymaga ostatecznie solidnej infrastruktury pamięci masowej, takiej jak Walrus – bez wydajnych, tanich i zgodnych z przepisami rozwiązań pamięci masowej, nawet najmocniejsza moc obliczeniowa jest niczym więcej niż zamkiem na lodzie, a najwyższa cena docelowa to jedynie pobożne życzenia.

Zwykli ludzie zazdroszczą Microsoftowi dywidend z AI, ale pomijają fakt: rozwój gigantów zawsze będzie korzystny dla infrastruktury bazowej. Tak jak hossa na rynku pojazdów elektrycznych Tesli w 2021 roku pobudziła boom w dziedzinie infrastruktury akumulatorów, hossa na rynku modeli big data AI w 2023 roku doprowadziła do gwałtownego wzrostu cen procesorów graficznych (GPU), a hossa na rynku gigafabryk AI w 2026 roku nieuchronnie doprowadzi do wzrostu dywidend w dziedzinie infrastruktury pamięci masowej.

Podczas gdy rynek wciąż debatuje nad ceną docelową akcji MSFT na poziomie 650 dolarów, instytucje po cichu zainwestowały już w Walrus – wiedząc, że prawdziwe możliwości nie kryją się w cenach akcji gigantów, ale w podstawowej infrastrukturze wspierającej ich rozwój. Kiedy MSFT faktycznie osiągnie poziom 650 dolarów, okaże się, że ci, którzy kupili Walrus z wyprzedzeniem, zarobili więcej niż ci, którzy posiadali akcje MSFT – ponieważ przejrzeli na oczy: ostatecznym zwycięstwem sztucznej inteligencji jest infrastruktura.

A #walrus jest najpewniejszym „celem bonusowym” w tym zwycięstwie. @Walrus 🦭/acc $WAL

WALSui
WALUSDT
0.1138
-6.33%