Расследования
Репортажи
Аналитика
  • USD78.23
  • EUR90.82
  • OIL63.11
Поддержите нас English
  • 445
Новости

Люди и нейросети демонстрируют общий принцип обучения и забывания информации — исследование

Ученые из Оксфордского университета обнаружили неожиданное сходство между тем, как учатся люди и искусственные нейросети. Оказалось, что при последовательном освоении задач и те, и другие сталкиваются с одной и той же проблемой: новые знания заменяют старые. Это явление давно известно в машинном обучении как «катастрофическое забывание», но теперь выяснилось, что люди подвержены ему в той же степени. Работа опубликована в журнале Nature Human Behaviour.

В эксперименте участники учились размещать изображения вымышленных растений на круговой шкале — как на циферблате часов. Для каждого растения нужно было запомнить два положения: летнее и зимнее. Между ними действовало скрытое правило: например, зимнее положение всегда находилось на 120 градусов по часовой стрелке от летнего. Затем людям показывали новый набор растений, где это правило менялось, а после возвращали к первому набору. Параллельно точно такой же процесс проходили искусственные нейросети, обучавшиеся на тех же последовательностях данных.

Результаты показали высокую степень совпадения между обучением людей и нейросетей. Когда правила между задачами были похожи, и те, и другие быстрее осваивали новую задачу, используя предыдущий опыт. Но при этом они сильнее «забывали» первую задачу — начинали применять к ней новое правило вместо старого. Когда же правила кардинально различались, новая задача давалась труднее, зато старые знания сохранялись лучше.

Анализ нейросетей объяснил механизм этого явления. При схожих задачах сети повторно используют уже сформированные внутренние представления данных, что ускоряет обучение, но одновременно перезаписывает старую информацию. При заметно различающихся задачах сеть формирует отдельные, непересекающиеся представления — учится медленнее, зато не теряет прежние знания.

В то же время среди участников-людей нашлись два типа: «объединители» и «разделители». Первые активно использовали общие закономерности между задачами, быстрее учились и лучше обобщали, но больше забывали. Вторые избегали интерференции ценой худшего переноса знаний. Эти стратегии удалось смоделировать в нейросетях с разными режимами обучения.

Ранее исследователи НИУ ВШЭ подсчитали, что за период с 2025 по 2030 год авторы и правообладатели могут лишиться в общей сложности 1 трлн рублей из-за распространения генеративного искусственного интеллекта.

Подпишитесь на нашу рассылку

К сожалению, браузер, которым вы пользуйтесь, устарел и не позволяет корректно отображать сайт. Пожалуйста, установите любой из современных браузеров, например:

Google Chrome Firefox Safari