L’attuale corsa per costruire sistemi di intelligenza artificiale sempre più potenti è guidata dal presupposto che più dati, più potenza di calcolo e quindi algoritmi più grandi porteranno invariabilmente a miglioramenti sostanziali nelle capacità di intelligenza artificiale. Tuttavia, un numero crescente di ricerche e tendenze emergenti suggeriscono che questa ipotesi potrebbe essere errata, e l’ossessione del settore per la scalabilità potrebbe portare a sfide inaspettate.
Il mito del miglioramento perpetuo
La convinzione diffusa che modelli di intelligenza artificiale più grandi dimostreranno costantemente prestazioni migliori deriva dal successo osservato della scalabilità in passato. I primi progressi in aree come il riconoscimento delle immagini e l’elaborazione del linguaggio naturale sono stati infatti spinti dalla capacità di addestrare modelli massicci su enormi set di dati. Ciò ha portato a una narrazione – e a un modello di business – incentrato sulla scalabilità.
Tuttavia, risultati recenti indicano rendimenti decrescenti e un degrado inaspettato delle prestazioni dell’intelligenza artificiale man mano che i modelli crescono. Questo fenomeno, a volte definito “marciume cerebrale”, evidenzia che il semplice aumento delle dimensioni di un’intelligenza artificiale non garantisce abilità migliorate. Fornire ai modelli contenuti di bassa qualità e ad alto coinvolgimento, come quelli che si trovano frequentemente sui social media, può effettivamente ridurre le loro capacità cognitive.
La realtà del “cervello marcio” e della qualità dei dati
L’impatto della qualità dei dati è un fattore cruciale, e spesso trascurato, nello sviluppo dell’intelligenza artificiale. La rapida ascesa di modelli di intelligenza artificiale come Doubao di ByteDance dimostra che un design user-friendly e un’esperienza coinvolgente possono spesso superare la pura potenza computazionale. Nel caso di Doubao, la sua accessibilità e facilità d’uso hanno contribuito alla sua popolarità, superando anche modelli più avanzati come DeepSeek. Ciò sottolinea l’importanza di dare priorità all’esperienza dell’utente e all’applicazione pratica rispetto al solo perseguimento della scala computazionale.
Inoltre, la tendenza a fornire ai modelli dati ottimizzati per il coinvolgimento – piuttosto che per l’accuratezza o la profondità – porta a un degrado della loro capacità di ragionare e risolvere problemi complessi. Questo è analogo al modo in cui gli esseri umani possono diventare meno intelligenti se costantemente esposti a contenuti superficiali e sensazionalistici.
Approcci alternativi al progresso dell’IA
I limiti del semplice ridimensionamento dei modelli di intelligenza artificiale stanno spingendo all’esplorazione di approcci alternativi.
- Collaborazione open source: Riconoscendo il potenziale ritardo degli Stati Uniti nei modelli di intelligenza artificiale open source, le startup stanno sostenendo la democratizzazione dell’intelligenza artificiale consentendo a chiunque di eseguire l’apprendimento per rinforzo. Ciò favorisce l’innovazione collaborativa e impedisce ad alcuni attori dominanti di controllare lo sviluppo della tecnologia.
- Focus sull’innovazione architettonica: invece di perseguire ciecamente modelli più ampi, i ricercatori stanno esplorando nuove architetture in grado di ottenere prestazioni migliori con meno parametri. Extropic, ad esempio, sta sviluppando chip progettati per elaborare in modo efficiente le probabilità, sfidando potenzialmente il predominio dei tradizionali processori basati su silicio di aziende come Nvidia, AMD e Intel.
- Riconsiderare il ruolo dell’intelligenza artificiale: Come evidenziato dai benchmark degli agenti di intelligenza artificiale, gli attuali sistemi di intelligenza artificiale sono ancora molto al di sotto delle capacità di livello umano nell’automazione di compiti economicamente importanti. Ciò richiede una valutazione più realistica del potenziale dell’intelligenza artificiale e un focus sulle aree in cui può aumentare, anziché sostituire, l’intelligenza umana.
Le implicazioni a lungo termine e la trappola della “enshittificazione”.
I costi crescenti della formazione e dell’implementazione di modelli di intelligenza artificiale sempre più grandi sollevano preoccupazioni sulla sostenibilità e l’accessibilità a lungo termine. Inoltre, la ricerca del profitto e del potere potrebbe portare le piattaforme di intelligenza artificiale a cadere nella trappola della “enshittificazione” – una teoria che suggerisce che le piattaforme inizialmente vantaggiose per gli utenti degradano gradualmente la loro qualità per massimizzare i profitti, danneggiando infine sia gli utenti che la piattaforma stessa. La necessità di linee guida etiche e solidi quadri normativi sta diventando sempre più fondamentale per prevenire un simile scenario.
In conclusione, sebbene il ridimensionamento dei modelli di intelligenza artificiale abbia indubbiamente portato a progressi significativi, l’evidenza suggerisce che l’incessante ricerca della sola dimensione da parte del settore è insostenibile e potenzialmente controproducente. Concentrarsi sulla qualità dei dati, promuovere la collaborazione open source ed esplorare le innovazioni architetturali è fondamentale per sbloccare il vero potenziale dell’intelligenza artificiale ed evitare le conseguenze incombenti di una bolla su vasta scala. È tempo di spostare la conversazione oltre il “più grande è meglio” e verso un approccio più ponderato e sostenibile allo sviluppo dell’IA


















