ИИ-агенты теперь могут думать, но не действовать. И это делает их в 100 раз безопаснее.
«Предложена системная абстракция, разделяющая планирование и исполнение для агентов на основе LLM, что повышает безопасность и производительность.»
Стоп, что?
Проблема не в том, что ИИ глупый. Проблема в том, что он слишком импульсивный.
Это как дать подростку кредитку и список поручений. Старый подход (ReAct) — это стоять у него над душой и говорить: «Сначала купи молоко, потом... стоп, а зачем тебе динамит?». Новый подход — дать ему чёткий план и встроенную систему одобрения ДО того, как он что-то купит.
Система KAIJU — это как операционная система для ИИ-агентов. Она разделяет планирование и исполнение.
Как это работает:
- Мозг (LLM) один раз составляет подробный план действий: «Собери данные A, B, C, проанализируй, выведи результат».
- «Исполнительное ядро» берёт этот план и делает всю грязную работу: запускает задачи параллельно, следит, чтобы результат A был готов перед анализом B, ловит сбои.
- Система безопасности (IGX) проверяет КАЖДОЕ действие по четырём параметрам: цель, масштаб, последствия и нужно ли внешнее одобрение. Хочет ИИ отправить письмо? Система сверяется с планом: «А в плане было “отправить письмо CEO”? Нет? Отмена».
Что показали тесты:
- На простых задачах KAIJU немного медленнее из-за времени на планирование.
- На задачах средней сложности скорости сравниваются.
- На сложных задачах, где нужно собирать кучу данных параллельно (например, исследовать рынок), KAIJU выигрывает по скорости благодаря умному планированию.
- Главный выигрыш — безопасность и надёжность. Такой уровень контроля нельзя достичь просто «хорошим промптом» в ChatGPT.
Что это значит для вас
Так что важнее для вашего будущего ИИ-помощника: чтобы он отвечал на 0.3 секунды быстрее или чтобы он гарантированно не потратил все ваши деньги на NFT, пока вы отошли на кофе?