Framework улучшает непрерывное обучение искусственного интеллекта

«Люди способны к непрерывному обучению; мы постоянно изучаем новые задачи, не забывая о том, что уже знаем», – говорит Тианфу Ву, доцент кафедры электротехники и вычислительной техники в NC State и соавтор статьи о работе. «На сегодняшний день системы искусственного интеллекта, использующие глубокие нейронные сети, не очень хороши в этом."
«Глубокие нейросетевые системы искусственного интеллекта предназначены для изучения узких задач», – говорит Силай Ли, соавтор статьи и доктор наук.D. кандидат в NC State. "В результате при изучении новых задач может произойти одно из нескольких событий. Системы могут забывать старые задачи при изучении новых, что называется катастрофическим забыванием. Системы могут забыть кое-что из того, что они знали о старых задачах, но при этом не научиться выполнять новые. Или системы могут исправлять старые задачи на месте, добавляя новые задачи, что ограничивает улучшения и быстро приводит к тому, что система искусственного интеллекта слишком велика, чтобы работать эффективно.

Непрерывное обучение, также называемое непрерывным обучением или обучением для обучения, пытается решить эту проблему."
«Мы предложили новую структуру для непрерывного обучения, которая разделяет изучение структуры сети и изучение параметров модели», – говорит Инбо Чжоу, соавтор статьи и научный сотрудник Salesforce Research. "Мы называем это концепцией" Учись расти ". В ходе экспериментального тестирования мы обнаружили, что он превосходит предыдущие подходы к непрерывному обучению."
Чтобы понять структуру Learn to Grow, представьте глубокие нейронные сети как трубу, заполненную несколькими слоями.

Необработанные данные поступают в верхнюю часть конвейера, а выходные данные задачи выходят снизу. Каждый «слой» в конвейере – это вычисление, которое манипулирует данными, чтобы помочь сети выполнить свою задачу, такую ​​как идентификация объектов на цифровом изображении. Существует несколько способов размещения слоев в трубе, которые соответствуют разным «архитектурам» сети.

Когда вы просите глубокую нейронную сеть изучить новую задачу, структура Learn to Grow начинает с выполнения того, что называется явной оптимизацией нейронной архитектуры с помощью поиска. Это означает, что по мере того, как сеть подходит к каждому уровню в своей системе, она может решить сделать одно из четырех: пропустить уровень; используйте слой так же, как и в предыдущих задачах; прикрепить к слою легкий переходник, который его немного видоизменяет; или создайте совершенно новый слой.

Эта оптимизация архитектуры эффективно определяет лучшую топологию или серию слоев, необходимых для выполнения новой задачи.

Как только это будет выполнено, сеть использует новую топологию, чтобы обучиться тому, как выполнять задачу, как и любая другая система искусственного интеллекта с глубоким обучением.
«Мы провели эксперименты с использованием нескольких наборов данных и обнаружили, что чем больше похожа новая задача на предыдущие, тем больше перекрывается с точки зрения существующих слоев, которые сохраняются для выполнения новой задачи», Ли говорит. «Что более интересно, с оптимизированной – или« изученной »топологией – сеть, обученная выполнять новые задачи, очень мало забывает о том, что ей требовалось для выполнения старых задач, даже если старые задачи не были похожи."
Исследователи также провели эксперименты, сравнивая способность структуры Learn to Grow изучать новые задачи с несколькими другими методами непрерывного обучения, и обнаружили, что структура Learn to Grow имеет более высокую точность при выполнении новых задач.

Чтобы проверить, насколько каждая сеть могла забыть при изучении новой задачи, исследователи затем проверили точность каждой системы при выполнении более старых задач – и структура Learn to Grow снова превзошла другие сети.
«В некоторых случаях структура Learn to Grow действительно лучше справляется со старыми задачами», – говорит Каймин Сюн, директор по исследованиям Salesforce Research и соавтор работы. "Это называется обратным переносом и происходит, когда вы обнаруживаете, что изучение новой задачи помогает вам лучше справляться со старой задачей. Мы все время видим это в людях; не так много с ИИ."

Документ «Учитесь расти: структура обучения с постоянной структурой для преодоления катастрофического забвения» будет представлен на 36-й Международной конференции по машинному обучению, которая состоится 9-15 июня в Лонг-Бич, Калифорния. Соавторами статьи являются Силай Ли, доктор философии.D. студент NC State и Инбо Чжоу из Salesforce Research.

Соавторами статьи являются Ричард Сохер и Кайминг Сюн из Salesforce Research.
Работа выполнена при поддержке U.S.

Управление армейских исследований по грантам W911NF1810295 и W911NF1810209; и от Национального научного фонда в рамках гранта 1822477. Часть работы была сделана, когда Ли проходил летнюю стажировку в Salesforce AI Research.

Пластиковые машины