Současný závod o budování stále výkonnějších systémů umělé inteligence je založen na předpokladu, že více dat, větší výpočetní výkon, a tedy větší algoritmy vždy povedou k významným zlepšením schopností AI. Rostoucí množství výzkumů a nové trendy však naznačují, že tento předpoklad může být chybný a posedlost škálováním může vést k neočekávaným problémům.

Mýtus o neustálém zlepšování

Rozšířené přesvědčení, že větší modely umělé inteligence budou trvale poskytovat lepší výkon, pramení z pozorovaného úspěchu škálování v minulosti. Rané pokroky v oblastech, jako je rozpoznávání obrazu a zpracování přirozeného jazyka, byly skutečně řízeny schopností trénovat obrovské modely na gigantických souborech dat. To vedlo k vyprávění – a obchodnímu modelu – zaměřenému na měřítko.

Nedávný výzkum však poukazuje na klesající výnosy a neočekávanou degradaci výkonu umělé inteligence, jak roste. Tento jev, někdy nazývaný “hnití mozku”, zdůrazňuje, že pouhé zvýšení velikosti AI nezaručuje zvýšené schopnosti. Krmení modelů nekvalitním obsahem zaměřeným na zapojení, jako se často vyskytuje na sociálních sítích, může ve skutečnosti snížit jejich kognitivní schopnosti.

Realita hniloby mozku a kvalita dat

Vliv kvality dat je důležitým a často přehlíženým faktorem ve vývoji AI. Rychlý vzestup modelů umělé inteligence, jako je ByteDance’s Doubao, ukazuje, že uživatelsky přívětivý design a přesvědčivé uživatelské zkušenosti mohou často trumfnout hrubý výpočetní výkon. V případě Doubao přispěla k jeho oblibě cenová dostupnost a snadné použití, které předčí i pokročilejší modely, jako je DeepSeek. To podtrhuje důležitost upřednostňování uživatelské zkušenosti a praktické aplikace spíše než jen sledováním výpočetního rozsahu.

Navíc tendence dodávat data modelů optimalizovaná pro zapojení – spíše než přesnost nebo hloubku – snižuje jejich schopnost uvažovat a řešit složité problémy. Je to podobné tomu, jak se lidé mohou stát méně inteligentními, když jsou neustále vystaveni povrchnímu a senzačnímu obsahu.

Alternativní přístupy k vývoji AI

Omezení jednoduchého škálování modelů umělé inteligence vedou k hledání alternativních přístupů.

  • Otevřená spolupráce: Startupy si uvědomují potenciální mezeru v modelech umělé inteligence ve Spojených státech a obhajují demokratizaci umělé inteligence tím, že umožní komukoli provozovat posilovací učení. To podporuje kolaborativní inovace a brání tomu, aby vývoj technologií řídilo několik dominantních hráčů.
  • Zaměření na architektonické inovace: Místo slepého sledování větších modelů výzkumníci zkoumají nové architektury, které mohou dosáhnout lepšího výkonu s menším počtem parametrů. Extropic například vyvíjí čipy navržené tak, aby efektivně zvládaly pravděpodobnost, což může potenciálně zpochybnit dominanci tradičních procesorů na bázi křemíku od společností jako Nvidia, AMD a Intel.
  • Přehodnocení role umělé inteligence: Jak ukazují benchmarky agentů umělé inteligence, současné systémy umělé inteligence jsou stále daleko od lidských schopností v automatizaci ekonomicky cenných úkolů. To vyžaduje realističtější posouzení potenciálu umělé inteligence a zaměření na oblasti, kde může lidskou inteligenci spíše doplňovat než nahrazovat.

Dlouhodobé následky a past „enshitifikace“.

Rostoucí náklady na školení a zavádění stále větších modelů umělé inteligence vyvolávají obavy o dlouhodobou udržitelnost a dostupnost. Navíc touha po zisku a moci může zavést platformy umělé inteligence do pasti „enshitifikace“, teorie, která naznačuje, že platformy, které jsou zpočátku pro uživatele přínosné, postupně snižují svou kvalitu, aby maximalizovaly zisk, což nakonec poškodí jak uživatele, tak samotnou platformu. Potřeba etických pokynů a pevných regulačních rámců je stále důležitější, aby se takovému scénáři zabránilo.

Závěrem lze říci, že i když škálování modelů umělé inteligence nepochybně vedlo k významnému pokroku, důkazy naznačují, že neutuchající honba za velikostí v tomto odvětví je sama o sobě neudržitelná a potenciálně kontraproduktivní. Zaměření na kvalitu dat, podpora spolupráce s otevřeným zdrojovým kódem a zkoumání architektonických inovací jsou zásadní pro odhalení skutečného potenciálu umělé inteligence a vyhnutí se hrozícím efektům bubliny. Je čas posunout konverzaci za hranice „čím větší, tím lepší“ k promyšlenějšímu a udržitelnějšímu přístupu k vývoji AI.