ИИ, который не понимает, где он находится, — это не умный ИИ
«Авторы предлагают новую таксономию и три ключевых направления исследований для развития контекстуального обучения с подкреплением, чтобы агенты могли лучше обобщать знания и адаптироваться к реальному миру.»
Стоп, что?
Контекст — это не просто фон, это операционная система реальности.
Представьте, что вы научились водить машину в идеальном симуляторе Аризоны. А потом вас высадили за руль в Москве в час пик в гололёд. Ваши навыки рухнут, потому что вы не понимаете контекста: погоды, правил, агрессии других водителей. Именно так сегодня «умнеют» нейросети.
Исследователи показали, что даже самые продвинутые алгоритмы Reinforcement Learning (обучения с подкреплением), побеждающие в играх, не умеют обобщать знания за пределами своей тренировочной «песочницы». Они не понимают контекста.
Новая работа предлагает революционный подход: Contextual Intelligence. Вместо того чтобы считать контекст статичной картинкой, его нужно разделить на слои:
- Аллогенный (Allogenic): То, что мир навязывает агенту (законы физики, правила дорожного движения, погода). Меняется медленно.
- Аутогенный (Autogenic): То, что зависит от самого агента (его роль, стратегия, внутренние цели). Может меняться быстро.
Чтобы стать по-настоящему умным, ИИ должен научиться рассуждать о том, кто он, в каком мире находится, и как они влияют друг на друга.
Что это значит для вас
Так какой ИИ нам нужен: гений в лаборатории или ассистент, который поймёт, что «срочная задача» в пятницу вечером — это не то же самое, что «срочная задача» в понедельник утром?