𝐃𝐞𝐜𝐞𝐧𝐭𝐫𝐚𝐥𝐢𝐳𝐞𝐝 𝐀𝐈: 𝐒𝐢𝐱 𝐔𝐧𝐝𝐞𝐫 𝐓𝐡𝐞 𝐑𝐚𝐝𝐚𝐫 𝐎𝐩𝐞𝐫𝐚𝐭𝐨𝐫𝐬 𝐑𝐞𝐰𝐢𝐫𝐢𝐧𝐠 𝐂𝐨𝐦𝐩𝐮𝐭𝐞, 𝐏𝐫𝐢𝐯𝐚𝐜𝐲, 𝐀𝐧𝐝 𝐎𝐰𝐧𝐞𝐫𝐬𝐡𝐢𝐩 Web3 nie brakuje hałasu, ale praca, która ma znaczenie, odbywa się tam, gdzie zespoły rozwiązują uporczywe luki infrastrukturalne: • Weryfikowalny obliczenia, • Suwerenność danych, oraz • Zgodne zachęty. Poniżej znajduje się przewodnik po sześciu takich twórcach, których osiągnięcia już sugerują następny krok w rozwoju AI.👇 --- Numerai (@numerai): Inteligencja zbiorowa, zabezpieczona Numerai z San Francisco przekształca globalny turniej naukowy w działający fundusz hedgingowy. Uczestnicy przesyłają zaszyfrowane prognozy i stawiają $NMR. Protokół agreguje je w jeden model meta i automatycznie ustala pozycje w amerykańskich akcjach. Wypłaty śledzą rzeczywisty PnL, podczas gdy słabe modele tracą swoją stawkę, tworząc to, co założyciel @richardcraib nazywa „skin-in-the-math.” Numerai zebrał już około 32,8 miliona dolarów, z ponad 150 milionami dolarów w stawkach NMR, i przyznaje sześciocyfrowe kwoty tygodniowych nagród tysiącom pseudonimowych quantów. --- Gensyn (@gensynai): Dowód uczenia na poziomie chmury Rynki GPU są zniekształcone, ale Gensyn omija przeszkody, rekrutując wszelkie nieużywane urządzenia i weryfikując pracę za pomocą optymistycznych kontroli i zero-wiedzy „dowodu uczenia.” Programiści przesyłają zadania szkoleniowe, koledzy wykonują ciężką pracę, a poprawność jest ustalana na łańcuchu przed zatwierdzeniem płatności. Zespół z Londynu zebrał około 43 miliony dolarów od a16z crypto i innych, a ich celem jest dostosowanie LLM, gdzie obliczenia są zarówno rzadkie, jak i drogie. --- MyShell (@myshell_ai): Agenci należący do użytkowników jako dobra cyfrowe MyShell daje twórcom studio bez kodu do budowy asystentów głosowych, NPC w grach lub botów produktywności, a następnie pakuje je jako NFT i zarabia na tantiemach tokenów $SHELL, gdy inni je wdrażają lub przerabiają. Projekt przyciągnął ponad 1 milion użytkowników i 16,6 miliona dolarów finansowania, jako warstwa skierowana do konsumentów dla spersonalizowanej AI, która jest przenośna między aplikacjami. Żadnego klucza API, żadnego strażnika. --- (@flock_io): Uczenie federacyjne dla modeli zachowujących prywatność W sektorach, gdzie dane nigdy nie mogą opuścić urządzenia, takich jak szpitale czy czujniki w inteligentnych fabrykach, FLock organizuje szkolenie małych modeli językowych w tysiącach węzłów. Każda aktualizacja jest weryfikowana za pomocą ZK-dowodów, zanim zostanie wbudowana w globalny model, a uczestnicy zarabiają tokeny $FLO proporcjonalnie do udowodnionej użyteczności. Nowa runda 3 milionów dolarów prowadzona przez DCG podnosi całkowite finansowanie do 11 milionów dolarów i wspiera pilotażowe projekty w obrazowaniu medycznym i przemysłowym IoT. --- Ritual (@ritualnet): Suwerenna L1 dla obciążeń AI Ritual buduje warstwę 1, gdzie modele żyją jako inteligentne kontrakty, wersjonowane, zarządzane i aktualizowane za pomocą głosowania tokenów. Wykonawcy off-chain zajmują się ciężkimi obliczeniami, przekazują wyniki z powrotem na łańcuch i zbierają opłaty. Projekt obiecuje izolację błędów, jeśli model zawiedzie, aby zarządzanie mogło cofnąć go bez zatrzymywania sieci. Inwestorzy wsparli tę tezę kwotą 25 milionów dolarów w serii A. --- Sahara AI (@SaharaLabsAI): Agenci z dzieloną pamięcią Sahara wdraża autonomiczne agenty na substracie peer-to-peer i przechowuje ich ewoluujące grafy wiedzy na łańcuchu, aby każdy krok rozumowania był audytowalny. Uczestnicy, którzy przesyłają wysokiej jakości fakty, zarabiają nagrody w tokenach, poprawiając graf i agentów, którzy się na nim opierają. Firma zabezpieczyła około 49 milionów dolarów, w tym serię A prowadzoną przez Panterę, i prowadzi wczesne pilotaże analityki łańcucha dostaw, gdzie nieprzejrzyste dane dostawców wcześniej wstrzymywały przyjęcie AI. --- Sygnaly strategiczne • Nacisk na koszty ponad hype: Każdy projekt dostosowuje ekonomię jednostkową na swoją korzyść. @numerai przez externalizację R&D, @gensynai przez arbitraż nieużywanego krzemu, @flock_io przez eliminację kosztów migracji danych. • Weryfikowalność jako moat: Dowody zero-wiedzy, stawki lub audyty na łańcuchu przekształcają zaufanie w matematykę, zniechęcając do kopiowania bez podobnej głębokości badań. • Kompozycyjne krawędzie: NFT agentów @myshell_ai mogą bezpośrednio wpiąć się w warstwę wykonawczą Ritual lub korzystać z danych z grafów Sahary, w stosie, gdzie pochodzenie podróżuje z modelem. --- Rejestr ryzyka Standardy zachęt tokenowych, limity przepustowości dla dowodów i istniejąca chmura gotowa do dopasowania cen są dużymi zagrożeniami. Hedge: Wspieraj zespoły, których mapy drogowe stopniowo migrują z off-chain do on-chain i które mierzą sukces w rozwiązanych problemach biznesowych, a nie w wykresach tokenów. --- Wnioski Zdecentralizowana AI nie przyjdzie z jednego flagowego łańcucha. Wniknie poprzez praktyczne zwycięstwa, takie jak tańsze cykle szkoleniowe, zbiorowe sygnały alfa i wdrożenia zachowujące prywatność. Twórcy powyżej już sprzedają te zwycięstwa. Śledź ich metryki, a nie ich memy, a zobaczysz krzywą, zanim stanie się konsensusem. Dziękuję za przeczytanie!
AI Centralization vs Decentralization: What’s Worth Playing? Imagine two arenas: one is dominated by tech giants running massive data centers, training frontier models, and setting the rules. The other distributes compute, data, and decision-making across millions of miners, edge devices, and open communities. Where you choose to build or invest depends on which arena you believe will capture the next wave of value, or whether the true opportunity lies in bridging both. --- What Centralization and Decentralization Mean in AI Centralized AI is primarily found in hyperscale cloud platforms like AWS, Azure, and Google Cloud, which control the majority of GPU clusters and hold a 68% share of the global cloud market. These providers train large models, keep weights closed or under restrictive licenses (as seen with OpenAI and Anthropic), and use proprietary datasets and exclusive data partnerships. Governance is typically corporate, steered by boards, shareholders, and national regulators. On the other hand, Decentralized AI distributes computation through peer-to-peer GPU markets, such as @akashnet_ and @rendernetwork, as well as on-chain inference networks like @bittensor_. These networks aim to decentralize both training and inference. --- Why Centralization Still Dominates There are structural reasons why centralized AI continues to lead. Training a frontier model, say, a 2-trillion parameter multilingual model, requires over $500M in hardware, electricity, and human capital. Very few entities can fund and execute such undertakings. Additionally, regulatory obligations such as the US Executive Order on AI and the EU AI Act impose strict requirements around red-teaming, safety reports, and transparency. Meeting these demands creates a compliance moat that favors well-resourced incumbents. Centralization also allows for tighter safety monitoring and lifecycle management across training and deployment phases. --- Centralized Model Cracks Yet this dominance has vulnerabilities. There’s increasing concern over concentration risk. In Europe, executives from 44 major companies have warned regulators that the EU AI Act could unintentionally reinforce US cloud monopolies and constrain regional AI development. Export controls, particularly US-led GPU restrictions, limit who can access high-end compute, encouraging countries and developers to look toward decentralized or open alternatives. Additionally, API pricing for proprietary models has seen multiple increases since 2024. These monopoly rents are motivating developers to consider lower-cost, open-weight, or decentralized solutions. --- Decentralized AI We have on-chain compute markets such as Akash, Render, and @ionet that enable GPU owners to rent out unused capacity to AI workloads. These platforms are now expanding to support AMD GPUs and are working on workload-level proofs to guarantee performance. Bittensor incentivizes validators and model runners through $TAO token. Federated learning is gaining adoption, mostly in healthcare and finance, by enabling collaborative training without moving sensitive raw data. Proof-of-inference and zero-knowledge machine learning enable verifiable model outputs even when running on untrusted hardware. These are foundational steps for decentralized, trustless AI APIs. --- Where the Economic Opportunity Lies In the short term (today to 18 months), the focus is on application-layer infrastructure. Tools that allow enterprises to easily switch between OpenAI, Anthropic, Mistral, or local open-weight models will be valuable. Similarly, fine-tuned studios offering regulatory-compliant versions of open models under enterprise SLAs are gaining traction. In the medium term (18 months to 5 years), decentralized GPU networks would spiral in as their token prices reflect actual usage. Meanwhile, Bittensor-style subnetworks focused on specialized tasks, like risk scoring or protein folding, will scale efficiently through network effects. In the long term (5+ years), edge AI is likely to dominate. Phones, cars, and IoT devices will run local LLMs trained through federated learning, cutting latency and cloud dependence. Data-ownership protocols will also emerge, allowing users to earn micro-royalties as their devices contribute gradients to global model updates. --- How to Identify the Winners Projects likely to succeed will have a strong technical moat, solving problems around bandwidth, verification, or privacy in a way that delivers orders of magnitude improvements. Economic flywheels must be well-designed. Higher usage should fund better infrastructure and contributors, not just subsidize free riders. Governance is essential. Token voting alone is fragile, look instead for multi-stakeholder councils, progressive decentralization paths, or dual-class token models. Finally, ecosystem pull matters. Protocols that integrate early with developer toolchains will compound adoption faster. --- Strategic Plays For investors, it may be wise to hedge, holding exposure to both centralized APIs (for stable returns) and decentralized tokens (for asymmetric upside). For builders, abstraction layers that allow real-time switching between centralized and decentralized endpoints, based on latency, cost, or compliance, is a high-leverage opportunity. The most valuable opportunities may lie not at the poles but in the connective tissue: protocols, orchestration layers, and cryptographic proofs that allow workloads to route freely within both centralized and decentralized systems. Thanks for reading!
Pokaż oryginał
3,86 tys.
18
Treści na tej stronie są dostarczane przez strony trzecie. O ile nie zaznaczono inaczej, OKX nie jest autorem cytowanych artykułów i nie rości sobie żadnych praw autorskich do tych materiałów. Treść jest dostarczana wyłącznie w celach informacyjnych i nie reprezentuje poglądów OKX. Nie mają one na celu jakiejkolwiek rekomendacji i nie powinny być traktowane jako porada inwestycyjna lub zachęta do zakupu lub sprzedaży aktywów cyfrowych. Treści, w zakresie w jakim jest wykorzystywana generatywna sztuczna inteligencja do dostarczania podsumowań lub innych informacji, mogą być niedokładne lub niespójne. Przeczytaj podlinkowany artykuł, aby uzyskać więcej szczegółów i informacji. OKX nie ponosi odpowiedzialności za treści hostowane na stronach osób trzecich. Posiadanie aktywów cyfrowych, w tym stablecoinów i NFT, wiąże się z wysokim stopniem ryzyka i może podlegać znacznym wahaniom. Musisz dokładnie rozważyć, czy handel lub posiadanie aktywów cyfrowych jest dla Ciebie odpowiednie w świetle Twojej sytuacji finansowej.