Квантовый ИИ можно гонять на видеокарте. И это не шутка.
«Предложен метод слияния квантовых вентилей для ускорения классического моделирования и снижения потребления памяти при обучении крупномасштабных моделей квантового машинного обучения.»
Стоп, что?
Иногда, чтобы заглянуть в будущее, нужно лучше оптимизировать настоящее.
Представьте, что вы пытаетесь смоделировать погоду на всей планете на ноутбуке. Данных — море, вычисления — адские. Примерно так же выглядела симуляция квантовых нейросетей на классических компьютерах. Пока не появился этот трюк.
Исследователи нашли способ «склеивать» квантовые операции в симуляции, как если бы вы объединили десятки мелких задач в одну большую.
Что это дало?
- Скорость: Симуляция ускорилась в 20-30 раз на потребительской видеокарте.
- Память: Стало возможным обучать огромную модель с 20 кубитами и 1000 слоёв (60 тыс. параметров) на 1000 данных за ~20 минут за эпоху.
- Масштаб: Это открывает путь к обучению на больших наборах данных, вроде MNIST или CIFAR-10, за реалистичное время (например, 20 часов за эпоху).
Суть: Они не изобрели новый алгоритм, а сделали старый — невыносимо медленный — невероятно эффективным, минимизировав «пробки» при обращении к памяти.
Что это значит для вас
Значит ли это, что гонка за квантовым превосходством в машинном обучении только что переехала с дорогих лабораторий на наши с вами рабочие столы?