De huidige race om steeds krachtigere AI-systemen te bouwen wordt gedreven door de veronderstelling dat meer data, meer rekenkracht, en dus grotere algoritmen, steevast zullen leiden tot substantiële verbeteringen in de AI-mogelijkheden. Uit een groeiend aantal onderzoeken en opkomende trends blijkt echter dat deze veronderstelling onjuist is, en dat de obsessie van de industrie met schaalvergroting tot onverwachte uitdagingen kan leiden.
De mythe van voortdurende verbetering
De wijdverbreide overtuiging dat grotere AI-modellen consequent betere prestaties zullen leveren, komt voort uit het waargenomen succes van schaalvergroting in het verleden. Vroege ontwikkelingen op gebieden als beeldherkenning en natuurlijke taalverwerking werden inderdaad aangedreven door de mogelijkheid om enorme modellen te trainen op enorme datasets. Dit leidde tot een verhaal – en een bedrijfsmodel – waarin schaalvergroting centraal stond.
Recente bevindingen duiden echter op afnemende rendementen en onverwachte verslechtering van de AI-prestaties naarmate de modellen groeien. Dit fenomeen, ook wel ‘hersenrot’ genoemd, benadrukt dat het eenvoudigweg vergroten van de omvang van een AI geen garantie biedt voor verbeterde vaardigheden. Het voeden van modellen met inhoud van lage kwaliteit en hoge betrokkenheid, zoals vaak te vinden op sociale media, kan hun cognitieve vaardigheden feitelijk verminderen.
De realiteit van “hersenrot” en datakwaliteit
De impact van datakwaliteit is een cruciale, en vaak over het hoofd geziene, factor bij de ontwikkeling van AI. De snelle opkomst van AI-modellen zoals Doubao van ByteDance laat zien dat een gebruiksvriendelijk ontwerp en een boeiende ervaring vaak zwaarder kunnen wegen dan de brute rekenkracht. In het geval van Doubao droegen de toegankelijkheid en het gebruiksgemak bij aan de populariteit ervan, en overtroffen zelfs meer geavanceerde modellen zoals DeepSeek. Dit onderstreept het belang van het geven van prioriteit aan gebruikerservaring en praktische toepassing boven het uitsluitend nastreven van computationele schaal.
Bovendien leidt de trend om gegevens van modellen te voeden die zijn geoptimaliseerd voor betrokkenheid – in plaats van voor nauwkeurigheid of diepgang – tot een verslechtering van hun vermogen om te redeneren en complexe problemen op te lossen. Dit is analoog aan hoe mensen minder intelligent kunnen worden als ze voortdurend worden blootgesteld aan oppervlakkige, sensationele inhoud.
Alternatieve benaderingen voor AI-vooruitgang
De beperkingen van het simpelweg opschalen van AI-modellen leiden tot verkenning van alternatieve benaderingen.
- Open Source-samenwerking: Startups erkennen de potentiële vertraging van de VS op het gebied van open-source AI-modellen en pleiten voor democratisering van AI door iedereen toe te staan versterkend leren uit te voeren. Dit bevordert collaboratieve innovatie en verhindert dat enkele dominante spelers de ontwikkeling van de technologie controleren.
- Focus op architecturale innovatie: In plaats van blindelings grotere modellen na te streven, onderzoeken onderzoekers nieuwe architecturen die betere prestaties kunnen bereiken met minder parameters. Extropic ontwikkelt bijvoorbeeld chips die zijn ontworpen om kansen efficiënt te verwerken, waardoor de dominantie van traditionele op silicium gebaseerde processors van bedrijven als Nvidia, AMD en Intel mogelijk wordt uitgedaagd.
- Heroverweging van de rol van AI: Zoals blijkt uit benchmarks voor AI-agenten, schieten de huidige AI-systemen nog steeds ver tekort in de capaciteiten op menselijk niveau bij het automatiseren van economisch waardevolle taken. Dit vereist een meer realistische beoordeling van het potentieel van AI en een focus op gebieden waar het de menselijke intelligentie kan vergroten in plaats van vervangen.
De gevolgen op de lange termijn en de valkuil van ‘enshittificatie’
De stijgende kosten van training en de inzet van steeds grotere AI-modellen doen zorgen rijzen over de duurzaamheid en toegankelijkheid op de lange termijn. Bovendien zou het nastreven van winst en macht ertoe kunnen leiden dat AI-platforms in de ‘enshittificatie’-valkuil trappen – een theorie die suggereert dat platforms die aanvankelijk gunstig zijn voor gebruikers, geleidelijk hun kwaliteit verminderen om de winst te maximaliseren, wat uiteindelijk zowel de gebruikers als het platform zelf schaadt. De behoefte aan ethische richtlijnen en robuuste regelgevingskaders wordt steeds belangrijker om een dergelijk scenario te voorkomen.
Concluderend: hoewel het opschalen van AI-modellen ongetwijfeld tot aanzienlijke vooruitgang heeft geleid, suggereert het bewijsmateriaal dat het meedogenloze streven van de industrie naar omvang alleen onhoudbaar en potentieel contraproductief is. Het focussen op datakwaliteit, het bevorderen van open-source samenwerking en het verkennen van architecturale innovaties zijn cruciaal voor het ontsluiten van het ware potentieel van AI en het vermijden van de dreigende gevolgen van een opgeschaalde zeepbel. Het is tijd om het gesprek te verleggen van ‘groter is beter’ naar een meer doordachte, duurzame benadering van AI-ontwikkeling
