Можно ли передавать данные напрямую в мозг?
Все наши чувства формируются в головном мозге. Вне зависимости от вида поступающей информации, будь то звуки музыки, какие-то запахи или визуальные образы, все они по своей сути — это всего лишь сигналы, передающиеся и расшифровывающиеся специализированными клетками. При этом, если не принимать во внимание эти сигналы, то мозг никак напрямую не контактирует с внешней средой. И если так, то вполне вероятно, что у нас есть возможность сформировать новые пути взаимодействия мозга с окружающим миром и передавать данные напрямую.
Давайте вернемся на пару предложений назад. Если вся информация — это лишь поступающие импульсы, то почему зрение так отличается от запаха или вкуса? Почему вы никогда не перепутаете визуальную красоту распускающейся сосны со вкусом сыра фета? Или трение наждачной бумаги на кончиках пальцев с запахом свежего эспрессо? Можно предположить, что это как-то связано со структурой мозга: участки, участвующие в слухе, отличаются от тех, что обрабатывают данные о визуальных образах и так далее. Но почему в таком случае люди, потерявшие, например, зрение, согласно многочисленным исследованиям, получают «переориентацию» зрительной зоны на усиление других чувств?
Таким образом возникла гипотеза: внутренний субъективный опыт определяется структурой самих данных. Другими словами, сама информация, поступающая, допустим, от сетчатки, имеет иную структуру, чем данные, исходящие от барабанной перепонки или рецепторов с кончиков пальцев. В результате и получаются разные чувства. Получается, что в теории мы можем сформировать новые пути для передачи информации. Это не будет похоже на зрение, слух, вкус, прикосновение или запах. Это будет что-то совершенно новое.
Есть два способа сделать это. Первый — путем вживления электродов непосредственно в мозг. Второй — получением сигналов мозгом неинвазивно. К примеру, с помощью носимых устройств. Представьте, что вы носите браслет с несколькими вибрационными двигателями, которые стимулируют различные места вокруг запястья, чтобы сформировать поток данных. Когда мы устанавливаем четкую взаимосвязь между информацией и видом прикосновения, люди смогут легко начать ее распознавать. Чем то подобным в данный момент занимается компания NeoSensory, создавая вибрационные нейроинтерфейсы. Один из таких разработчики планируют представить уже в следующем 2019 году.
«Подумайте о том, как младенцы “учатся” пользоваться ушами, хлопая в ладоши или бормоча что–нибудь и улавливая звуки. Такое обучение также можно наблюдать у людей, родившихся глухими и оснащенных кохлеарными имплантами во взрослом возрасте. Во-первых, опыт кохлеарного имплантата совсем не похож на звук. Моя подруга описала это как безболезненные удары электрическим током. Она не чувствовала, что это как-то связано со звуком. Но примерно через месяц все начало «звучать», пусть и паршиво. Возможно, тот же самый процесс произошел с каждым из нас, когда мы учились пользоваться ушами. Мы просто не помним этого.» — заявил один из авторов работы по созданию нейроинтерфейсов Дэвид Иглман.
Основано на заметке профессора кафедры психиатрии и поведенческих наук Стэнфордского университета, автора книги The Brain: The Story Of You, а также одного из основателей NeoSensory Дэвида Иглмана. Опубликовано в издании Wired.
Верите ли вы в развитие нейроинтерфейсов? Можете рассказать об этом в нашем чате в Телеграм.
27 декабря, 2018 в 09:17