В настоящее время гонка по созданию все более мощных систем искусственного интеллекта основывается на предположении, что больше данных, больше вычислительной мощности и, следовательно, большие алгоритмы неизменно приведут к существенному улучшению возможностей ИИ. Однако растущее количество исследований и новые тенденции свидетельствуют о том, что это предположение может быть ошибочным, а одержимость масштабированием может привести к неожиданным проблемам.
Миф о постоянном улучшении
Широко распространенное убеждение в том, что более крупные модели ИИ будут неизменно демонстрировать лучшую производительность, проистекает из наблюдаемого успеха масштабирования в прошлом. Ранние успехи в таких областях, как распознавание изображений и обработка естественного языка, действительно были обусловлены способностью обучать огромные модели на гигантских наборах данных. Это привело к появлению нарратива – и бизнес-модели – ориентированной на масштабирование.
Однако последние исследования указывают на уменьшение отдачи и неожиданную деградацию производительности ИИ по мере его роста. Это явление, иногда называемое «мозговым гниением», подчеркивает, что простое увеличение размера ИИ не гарантирует повышения способностей. Кормление моделей низкокачественным контентом, ориентированным на вовлечение, например, часто встречающимся в социальных сетях, может фактически снизить их когнитивные навыки.
Реальность «мозгового гниения» и качество данных
Влияние качества данных является важным и часто упускаемым из виду фактором в разработке ИИ. Стремительный рост моделей ИИ, таких как Doubao от ByteDance, демонстрирует, что удобный дизайн и привлекательный пользовательский опыт часто могут превосходить сырую вычислительную мощность. В случае с Doubao, его доступность и простота использования способствовали его популярности, превосходя даже более продвинутые модели, такие как DeepSeek. Это подчеркивает важность приоритезации пользовательского опыта и практического применения, а не только стремления к вычислительному масштабу.
Кроме того, тенденция к кормлению моделей данными, оптимизированными для вовлечения – а не для точности или глубины – приводит к деградации их способности к рассуждению и решению сложных проблем. Это аналогично тому, как люди могут становиться менее интеллектуальными при постоянном воздействии поверхностного и сенсационного контента.
Альтернативные подходы к развитию ИИ
Ограничения простого масштабирования моделей ИИ стимулируют изучение альтернативных подходов.
- Открытое сотрудничество: Признавая потенциальный отстаток США в моделях ИИ с открытым исходным кодом, стартапы выступают за демократизацию ИИ, позволяя любому запускать обучение с подкреплением. Это способствует совместным инновациям и предотвращает контроль над развитием технологии со стороны нескольких доминирующих игроков.
- Сосредоточение на архитектурных инновациях: Вместо слепого стремления к большим моделям, исследователи изучают новые архитектуры, которые могут достигать лучшей производительности с меньшим количеством параметров. Extropic, например, разрабатывает чипы, предназначенные для эффективной обработки вероятностей, потенциально бросая вызов доминированию традиционных процессоров на основе кремния от компаний, таких как Nvidia, AMD и Intel.
- Пересмотр роли ИИ: Как подчеркивают бенчмарки агентов ИИ, современные системы ИИ все еще далеки от человеческих возможностей в автоматизации экономически ценных задач. Это требует более реалистичной оценки потенциала ИИ и сосредоточения на областях, где он может дополнять, а не заменять человеческий интеллект.
Долгосрочные последствия и ловушка «enshittification»
Растущие затраты на обучение и развертывание все более крупных моделей ИИ вызывают опасения по поводу долгосрочной устойчивости и доступности. Кроме того, стремление к прибыли и власти может привести платформы ИИ в ловушку «enshittification» — теорию, предполагающую, что платформы, изначально полезные для пользователей, постепенно ухудшают свое качество для максимизации прибыли, в конечном итоге нанося ущерб как пользователям, так и самой платформе. Потребность в этических руководствах и надежных нормативных рамках становится все более критичной для предотвращения такого сценария.
В заключение, хотя масштабирование моделей ИИ, несомненно, привело к значительному прогрессу, данные свидетельствуют о том, что неустанное стремление индустрии к размеру само по себе неустойчиво и потенциально контрпродуктивно. Сосредоточение внимания на качестве данных, содействие сотрудничеству с открытым исходным кодом и изучение архитектурных инноваций имеют решающее значение для раскрытия истинного потенциала ИИ и предотвращения надвигающихся последствий раздутого пузыря. Пора перенести разговор за рамки «больше — лучше» и перейти к более продуманному и устойчивому подходу к развитию ИИ.



















