Аналитические материалы про экономику, макроэкономику, геополитику, глобальные рынки, экономический foresight - ООО «ФОРУМ»
Аналитические материалы про экономику, макроэкономику, геополитику, глобальные рынки, экономический foresight - ООО «ФОРУМ»

Объем данных — ключевой показатель для качества обучения ИИ, пока

ИИ

.

С достаточно большим набором данных модель-трансформер ИИ способна заменить, с некоторыми оговорками, специализированную шахматную программу. Ученые из Google DeepMind полагают, что это очередное подтверждение тому, что модель-трансформер является универсальной архитектурой, которую можно применять для решения любых задач. Недавние прорывные успехи в машинном обучении в основном объясняются масштабом: а именно большим числом параметров у моделей ИИ и наборами обучающих данных беспрецедентного объема и "неожиданными когнитивными способностями обучения". 

В статье, которую опубликовали исследователи из Google DeepMind, исследуется влияние масштабных моделей, обученных в игру в шахматы. В отличие от традиционных шахматных программ, которые полагаются на сложную эвристику, архитектурный поиск или комбинацию, исследователи обучили модель-трансформер с 270 млн параметров на наборе данных из 10 млн партий. Каждая партия в наборе данных была размечена символами действий, предоставленными традиционной шахматной программой Stockfish 16. Модель набрала 2895 баллов в рейтинге Эло против людей и оказалась способной решить серию сложных шахматных головоломок без каких-либо специфичных для предметной области настроек или явных алгоритмов поиска оптимального хода. Ученые провели систематическое исследование размера моделей и наборов данных, которое показывает, что высокие результаты в шахматах возникают только при достаточном масштабе как самой модели, так и обучающих данных. 

Эта работа дополняет быстро растущее число исследований,  показывающих, что сложные и изощренные алгоритмы могут быть преобразованы в модели-трансформеры. Таким образом, ученые в очередной раз показали, что модели-трансформеры и большим количеством параметров можно рассматривать не только как просто статистические распознаватели паттернов, но и как общий метод для создания мощных алгоритмов.

Однако, как отмечают авторы работы, даже очень масштабные модели-трансформеры, требующие гигантских вычислительных ресурсов, пока что показывают более слабые результаты, чем специализированные шахматные программы. 

Все проведенные эксперименты по масштабированию указывают на то, что в конечном итоге этот разрыв может быть устранен с помощью достаточно большой модели, обученной на достаточно огромном количестве данных. Однако текущие результаты не позволяют утверждать, что разрыв гарантированно получится преодолеть. 

Еще одно ограничение моделей-трансформеров, заключается в том, что они работают только с текущим состоянием игры, а не со всей историей сделанных ранее ходов. Это приводит к некоторым фундаментальным техническим ограничениям, которые невозможно преодолеть без специальных знаний, характерных для той или иной предметной области, на которую обучается модель.

Читать на сайте »