Учёные научились читать мысли по мозговым волнам, но это не работает так, как вы думаете
«Исследователи представили модель CIPHER для декодирования фонем из ЭЭГ, сравнив два типа признаков и показав ограниченную точность для сложных задач.»
Стоп, что?
Это не чтение мыслей. Это попытка услышать шепот мозга сквозь шум.
Это как пытаться разобрать слова в песне, играющей на соседней улице — сигнал есть, но он слабый, искаженный и полон помех. Именно так выглядит речь в данных электроэнцефалограммы (ЭЭГ) с поверхности головы.
Ученые создали модель CIPHER, которая пытается угадать фонемы (звуки речи) по двум типам сигналов мозга:
- ERP — быстрая реакция мозга на конкретное событие (например, на звук).
- DDA — более медленные, «широкополосные» колебания активности.
Что получилось на практике? ✅ Простое — почти идеально: Отличить, артикулирует ли человек звук «па» или «та»? Модель справляется почти безупречно. ⚠️ Но это ловушка: Эта точность оказалась уязвима к конфаундам — посторонним факторам вроде точного момента начала звука или вмешательства в работу мозга (в исследовании использовали ТМС). ❌ Сложное — пока плохо: Когда нужно распознать 11 разных фонем в реальных словах, точность падает. Модель ошибается в ~68% случаев. Это показывает, что мелкие различия между звуками мозг «рисует» на ЭЭГ очень нечетко.
Главный вывод авторов: Это не система «ЭЭГ-в-текст». Это бенчмарк — точка отсчета и способ сравнить, какие сигналы мозга (ERP или DDA) чуть лучше «слышат» речь. Все заявления о расшифровке строго ограничены контролируемыми условиями.
Что это значит для вас
Так что же, нейроинтерфейсы для речи — миф? Или мы просто ищем не на той «частоте» и нужен принципиально новый способ слушать, как думает наш мозг?