Сооснователь OpenAI Илья Суцкевер предупредил, что развитие ИИ экстенсивным методом себя изжило

0
2

Судя по активности участников рынка ИИ, они сейчас сосредоточены на том, чтобы наращивать вычислительные мощности, рассчитывая, что на определённом этапе количество перейдёт в качество. Один из основателей OpenAI Илья Суцкевер убеждён, что эпоха масштабирования заканчивается, и для качественного прогресса в развитии ИИ потребуются серьёзные и глубокие исследования.

48d240e60bb08df55fe81877962e736d
Обзор смартфона HUAWEI Pura 80: удобный флагман с «Алисой» d754a7b65f3c6d7c245812ece73b40bd
Hollow Knight: Silksong — песнь страданий и радостей. Рецензия e407b8dc34b526fd5ed7cd61ca31772f
Смартфон HUAWEI Mate 70 Pro как выбор фотографа 5133bb1a173d846c6265c1bf317866fb
Лучший процессор за 20 тысяч рублей — сравнение и тесты 5036c529bd050673f74632f0677f918f
Обзор смартфона HONOR X9c Smart: прочность со скидкой afeb3b2dce9abbc846b36d6a0fce28f1
Обзор планшета HONOR Pad V9: нейросети спешат на помощь f4a913315733e35e0cf0c8f3d290c4a0
Пять главных фишек камеры HONOR Magic 7 Pro 9a766012798eb6990eb0a04e3a77d7cf
Наушники HUAWEI FreeBuds 6, которые понимают жесты 23a13a942263c9fff25561b590f1cf78
Репортаж со стенда HONOR на выставке MWC 2025: передовые новинки и стратегические планы на будущее с ИИ 3ef4436996b2dd65688883aa242a9354

Источник изображения: University of Toronto Entrepreneurship

В OpenAI Илья как раз отвечал за исследования, и уйти из этого стартапа его заставил не только конфликт вокруг несостоявшейся отставки генерального директора Сэма Альтмана (Sam Altman), но и несогласие со стратегией развития компании. Как стало понятно из недавнего интервью Ильи Суцкевера, его настораживает сохраняющаяся ориентация отрасли ИИ на экстенсивный путь развития. Большие языковые модели до сих пор совершенствовались благодаря привлечению большего количества данных, вычислительных ресурсов или увеличению количества параметров внутри самой модели.

Для участников рынка такой подход был удобен, поскольку обеспечивал понятный результат при минимальных рисках и неопределённости. Большое количество квалифицированных и талантливых исследователей при этом не требовалось, поскольку прогресс достигался увеличением количества используемых ресурсов. По мнению Суцкевера, такой путь развития скоро себя исчерпает. Во многом это произойдёт из-за истощения запаса данных, которые пригодны для обучения языковых моделей. Вся информация, доступная в интернете, уже использована для обучения ИИ.

Как убеждён Суцкевер, даже дальнейшее увеличение масштаба имеющейся инфраструктуры в сто раз не обеспечит качественного прорыва в развитии ИИ. Да, в чём-то будут заметны изменения к лучшему, но так называемый «сильный искусственный интеллект» (AGI) таким способом создан не будет. По мнению основателя Safe Superintelligence, человечество будет вынуждено вернуться в эпоху исследований, получив мощные новые инструменты, помогающие учёным в работе. Его стартап как раз занимается подобными исследованиями, как становится ясно из интервью.

Попутно Суцкевер делает важное пояснение. По его мнению, большие языковые модели обобщают знания гораздо хуже людей. Например, если молодого исследователя старший коллега обучает на примере своих работ, делая какие-то пояснения и совместно обсуждая идеи, то для обучения модели требуется создать точный план, где на каждом этапе будет проверяться достижение строго формализованных результатов, а для обучения будут использоваться огромные массивы данных с примерами. И даже в этом случае человек продемонстрирует более высокие результаты обучения, чем ИИ. Как сократить эту разницу, научное сообщество пока не знает.

Источник: 3Dnews.ru