Вы наверняка слышали о том, что работа человеческого мозга идет по тем же принципам, что и компьютерные процессы, при этом мозг — всего лишь набор алгоритмов. «Теории и практики» подготовили изложение статьи Роберта Эпштейна, ведущего научного психолога Американского института поведенческих исследований и технологий (Калифорния), который призывает как можно скорее забыть эту теорию.

Сколько бы усилий ни прикладывали нейрофизиологи и когнитивные психологи, они никогда не найдут образцов Пятой симфонии Бетховена или копий слов, изображений, грамматических правил или любых других внешних раздражителей в мозгу. Конечно, человеческий мозг пуст не в буквальном смысле. Но он не хранит большинство вещей, которые, как считают люди, он хранить должен; в нем не содержится даже такого простого объекта, как воспоминания.

Наше ложное представление о том, как устроен мозг, имеет глубокие исторические корни, при этом создание компьютера в 1940-х годах только усложнило ситуацию. Уже на протяжении полувека психологи, лингвисты, нейрофизиологи и другие исследователи человеческого поведения утверждают, что мозг человека работает схожим с компьютером образом.

Чтобы понять, насколько поверхностна эта идея, рассмотрим мозг младенца. Благодаря эволюции новорожденные, как и детеныши млекопитающих, появляются на свет максимально подготовленными к эффективному взаимодействию с миром. Зрение ребенка расплывчато, но он обращает особое внимание на лица и может быстро узнать лицо матери среди лиц других людей. Всем звукам младенец предпочитает человеческий голос и способен отличить один голос от другого. Человек, без сомнения, появляется на свет явно предрасположенным к социальному взаимодействию.

У здорового младенца с рождения есть десяток рефлексов, реакций на определенные раздражители, которые нужны для выживания. Он поворачивает голову в сторону того, что касается его щеки, и начинает сосать все, что попадает ему в рот. Он автоматически задерживает дыхание, если его погрузить в воду. Он хватается за вещи, если вложить их ему в руку, — так крепко, что почти может удержаться на весу. Но, пожалуй, самый важный навык, который есть у новорожденных, — это способность обучаться, которая помогает им развиваться и успешно взаимодействовать с окружающим миром, даже если этот мир уже совсем не тот, что был у наших предков.

Разве у нас нет загруженного в мозговой регистр памяти представления о том, как выглядит долларовая банкнота?

Если задуматься, чувства, рефлексы и умение обучаться — это уже немало. Если бы мы не обладали хотя бы одним из этих навыков при рождении, нам было бы значительно труднее выжить. А вот перечень того, что при рождении у нас отсутствует: информация, данные, правила, программное обеспечение, знания, словарный запас, представления, алгоритмы, модели, воспоминания, образы, шифры, символы и буферы обмена,— все то, что позволяет цифровым компьютерам быть похожими на разумных существ. Более того, у нас не только с рождения нет этих вещей — мы даже не можем создать их внутри себя.

С рождения мы не содержим в себе слова или правила, которые объясняют нам, как их использовать. Внутри нас не хранятся картинки, которые затем можно перекинуть на флешку. Мы не извлекаем информацию или образы и слова из реестров памяти. Это делают компьютеры, но не живые организмы.

Компьютеры обрабатывают информацию: числа, буквы, слова, формулы, изображения. Чтобы компьютер распознал информацию, она должна поступить к нему в закодированном виде — в виде единиц и нулей (битов), которые, в свою очередь, собраны в маленькие блоки (байты). На моем компьютере каждый байт содержит 8 бит. Некоторые из них обозначают букву «D», другие — «O», третьи — «G». Таким образом, все эти байты образуют слово «DOG». Каждое изображение — скажем, фотография моего кота Генри на рабочем столе ― представлено особенным рисунком миллиона таких байтов (1 мегабайт), окруженных специальными символами, которые помогают компьютеру отличить картинку от слова.

Компьютеры в буквальном смысле слова перемещают эти паттерны с одного места на другое в разных отделах запоминающего устройства на электронных компонентах платы. Иногда система копирует паттерны, а иногда изменяет их самыми разнообразными способами — это похоже на ситуацию, когда мы исправляем ошибку в документе или ретушируем фотографию. Правила, по которым компьютер перемещает, копирует или проводит другие операции с этими наборами данных, также хранятся внутри компьютера. Набор этих правил называется программой или алгоритмом. Собранные вместе алгоритмы, помогающие нам в чем-то (например, при покупке акций или поиске данных онлайн), называются приложениями.

Прошу прощения за это введение в информатику, но я хочу четко донести одну мысль: компьютеры работают с символическими репрезентациями мира. Они буквально хранят, извлекают, обрабатывают информацию и обладают физическими воспоминаниями. Они следуют алгоритмам во всем, что делают, — без исключений. Люди, в свою очередь, так не делают, никогда не делали и делать не будут. Учитывая это, хочется спросить: почему же многие ученые рассуждают о нашей психике так, как будто мы компьютеры?

«In Our Own Image»
«In Our Own Image»

В книге «In Our Own Image» (2015 год) эксперт в области искусственного интеллекта Джордж Заркадакис описывает шесть различных метафор, которые люди использовали в течение двух последних тысячелетий, пытаясь описать природу человеческого разума.

Согласно первой метафоре, библейской, люди были созданы из глины и грязи, которую затем разумный Бог наделил своей душой.

Изобретение гидравлической техники в III веке до н. э. привело к распространению гидравлической модели человеческого интеллекта. Суть ее состояла в том, что различные жидкости нашего тела (телесные жидкости, гуморы) считались причастными и к физическому, и к психическому функционированию. Отметим, что это представление сохранялось более 1 600 лет, препятствуя развитию медицинской практики.

К XVI веку были придуманы автоматические механизмы из пружин и шестеренок. Они подтолкнули ведущих мыслителей того времени (в частности, Рене Декарта) к мысли о том, что люди похожи на сложные машины. В XVII веке английский философ Томас Гоббс выдвинул теорию, что мышление возникло из-за микроскопических механических движений в мозге. К началу XVIII века открытия в области электричества и химии привели к новым предположениям, касающимся человеческого интеллекта, — и снова глубоко метафорическим по своей природе. В середине того же столетия немецкий физик Герман фон Гельмгольц, вдохновленный достижениями в области связи, сравнил мозг с телеграфом.

Каждая идея о природе мозга отражала самые передовые мысли эпохи, которая их и породила. Поэтому нет ничего удивительного в том, что в эру зарождения компьютерных технологий в 40-х годах прошлого века все стали сравнивать работу мозга с компьютерными процессами: мозг — хранилище информации, а мысли — программное обеспечение. Публикация книги психолога Джорджа Миллера «Язык и общение» (1951 год) положила начало когнитивистике. Миллер предположил, что ментальный мир можно изучать при помощи понятий, заимствованных из теории информации, машинного вычисления и лингвистики.

«The Computer and the Brain»
«The Computer and the Brain»

Эта теория была полностью описана в 1958 году в книге «Компьютер и мозг». В ней математик Джон фон Нейман прямо заявляет, что деятельность нервной системы человека, на первый взгляд, имеет цифровую природу. Несмотря на то что сам Нейман признавал, что роль, которую играет мозг в человеческом мышлении и памяти, слабо изучена, он продолжал проводить параллель за параллелью между компонентами вычислительных машин того времени и элементами человеческого мозга.

Стремление ученых, вдохновляемых достижениями в области компьютерных технологий и исследований мозга, познать природу человеческого интеллекта привело к тому, что идея о схожести человека и компьютера прочно засела в умах людей. Сегодня этой теме посвящены тысячи научных работ и популярных статей, а в исследовательские проекты вложены миллиарды долларов. В книге Рэя Курцвейла «Как создать разум» (2013 год) отражена все та же идея о компьютере и мозге, о том, как разум «обрабатывает данные», и даже описано внешнее его сходство с интегральными схемами и их структурами.

Идея о том, что человеческий мозг обрабатывает информацию как компьютер, в наши дни доминирует в умах как обывателей, так и ученых. По факту не существует дискуссии о разумном человеческом поведении, которая бы проходила без упоминания этой метафоры, так же как в определенные эпохи и внутри определенной культуры не обходилось без отсылок к духам и божествам. Справедливость метафоры об обработке информации в современном мире, как правило, воспринимается как само собой разумеющееся.

Однако данная метафора — всего лишь метафора, история, которую мы рассказываем, чтобы уловить смысл чего-то, чего мы сами не понимаем. И, как и все предшествующие метафоры, эта, безусловно, в какой-то момент уйдет в прошлое и будет заменена или очередной метафорой, или истинным знанием.

Чуть больше года назад во время посещения одного из самых престижных исследовательских институтов я бросил вызов ученым: объяснить разумное человеческое поведение без отсылок к любому из аспектов компьютерно-информационной метафоры. Они просто не смогли этого сделать. Когда я снова вежливо поднял вопрос об этом в электронной переписке месяцы спустя, они так ничего и не смогли предложить. Они понимали, в чем проблема, не открещивались от задачи. Но все равно не могли предложить альтернативу. Другими словами, эта метафора прижилась. Она обременяет наше мышление словами и идеями настолько серьезными, что у нас возникают проблемы при попытке их понять.

Ложная логика идеи достаточно проста в формулировке. Она основывается на ложном аргументе с двумя разумными предположениями и единственным ложным выводом. Предположение №1: все компьютеры способны вести себя разумно. Предположение №2: все компьютеры есть информационные процессоры. Ложный вывод: все объекты, способные на разумную деятельность, являются информационными процессорами.

Если отбросить формальную терминологию, идея того, что люди являются информационными процессорами лишь потому, что компьютеры ими являются, звучит глупо, и когда в один прекрасный день эта метафора себя изживет, она наверняка будет рассматриваться историками именно так, как мы сейчас смотрим на высказывания о гидравлической или механической природе человеческого разума.

Если это звучит так глупо, почему же эта идея так успешна? Что удерживает нас от того, чтобы отбросить ее в сторону как ненужную, так же как мы отбрасываем ветку, которая преграждает нам путь? Существует ли способ понять человеческий интеллект, не опираясь на выдуманные костыли? И сколько мы должны будем заплатить за столь долгое использование этой опоры? В конце концов, на протяжении десятилетий эта метафора вдохновляла писателей и мыслителей на огромное количество исследований в самых разных областях науки — но какой ценой?

Во время занятия, которое я проводил за эти годы уже множество раз, я начинаю с выбора добровольца, которого прошу нарисовать на доске купюру в один доллар. «Побольше деталей», — говорю я. Когда он заканчивает рисовать, я закрываю рисунок листом бумаги, достаю купюру из кошелька, прикрепляю ее к доске и прошу студента повторить задание. Когда он или она заканчивает, я убираю лист бумаги с первого рисунка — и тогда класс комментирует различия.

Поскольку есть вероятность, что вы никогда не видели подобной демонстрации, — или, быть может, вам трудно представить себе результат, я попросил Джинни Хен, одного из интернов в институте, где я провожу свои исследования, сделать два рисунка. Вот рисунок по памяти:

А вот срисованный с купюры рисунок:

Джинни была удивлена результатом не меньше остальных, но в этом нет ничего необычного. Как вы можете видеть, рисунок, выполненный без взгляда на купюру, довольно примитивен по сравнению с тем, что был срисован с образца, — несмотря на то, что Джинни видела долларовую купюру тысячи раз.

В чем причина? Разве у нас нет загруженного в мозговой регистр памяти представления о том, как выглядит долларовая банкнота? Неужели мы не можем просто-напросто извлечь его оттуда и использовать при создании нашего рисунка? Очевидно, нет, и никакие тысячи лет исследований в области неврологии не помогут найти представление о виде долларовой банкноты, которое хранится в человеческом мозге, потому что его там попросту нет.

Результаты множества исследований человеческого мозга показывают, что в действительности многочисленные и иногда обширные участки мозга часто вовлечены в, казалось бы, самые рутинные задачи по запоминанию информации. Когда человек испытывает сильные эмоции, миллионы нейронов в мозгу могут стать более активными. В 2016 году нейрофизиолог из Университета Торонто Брайан Левин с коллегами провел исследование, в котором приняли участие люди, выжившие в авиакатастрофе. Исследование показало, что при воспоминании об аварии у выживших пассажиров возрастала нейронная активность в «миндалевидном теле, медиальной височной доле, передней и задней срединной линии, а также в зрительной коре» головного мозга.

Выдвинутая рядом ученых идея о том, что специфические воспоминания каким-то образом сохраняются в отдельных нейронах, нелепа; если уж на то пошло, это предположение лишь поднимает вопрос памяти на еще более сложный уровень: как и где в конечном счете память хранится в клетке?

Что же происходит, когда Джинни рисует долларовую банкноту, не глядя на образец? Если бы Джинни вообще никогда прежде не видела купюру, ее первый рисунок, вероятно, вообще не был бы похож на второй. Тот факт, что она видела долларовые банкноты прежде, каким-то образом на нее повлиял. В частности, ее мозг изменился таким образом, чтобы она смогла наглядно представить себе банкноту, что эквивалентно — по крайней мере, отчасти — тому, чтобы заново пережить ощущение зрительного контакта с купюрой.

Разница же между двумя рисунками говорит нам о том, что визуализация чего-либо (то есть представление чего-то, что мы не видим) намного менее точна, чем непосредственно возможность видеть что-либо. Именно поэтому мы лучше распознаем что-либо, чем вспоминаем это. Когда мы воспроизводим что-то в памяти (англ. re-member от латинского re, «снова», и memorari, «помнить»), мы должны попробовать снова пережить этот опыт. Но вот когда мы пытаемся распознать что-то, мы просто должны осознать тот факт, что ранее уже сталкивались с опытом переживания этого объекта или явления.

Возможно, вы возразите — Джинни видела долларовые банкноты и раньше, однако она не делала осознанных попыток запомнить детали. Вы также можете сказать, что если бы она постаралась запомнить, то результат был бы иной. Но и в этом случае никакое изображение банкноты не «хранилось» бы у нее в мозгу. Она просто подготовилась бы к тому, чтобы нарисовать детали, так же как пианист готовится к исполнению фортепианного концерта, не загружая в себя копию нот. Этот простой эксперимент дает нам возможность выстраивать новую основу теории интеллектуального поведения человека, согласно которой мозг, может, и не полностью пуст, но, по крайней мере, свободен от информационно-компьютерных метафор.

В течение жизни мы подвержены воздействию внешних раздражителей. Перечислим основные из них: 1) мы наблюдаем за тем, что происходит вокруг (как ведут себя другие люди, звуки музыки, слова на страницах, изображения на экранах); 2) мы выстраиваем связи между незначительными раздражителями (например, звук сирен) с более важными стимулами (появление полицейских машин); 3) мы бываем наказаны или вознаграждены за то, что ведем себя определенным образом.

Мы более эффективно развиваемся, если используем этот опыт, чтобы изменить себя: наблюдения дают нам навык прочитать стихотворение или спеть песню, а также следовать инструкциям; причинно-следственные связи позволяют реагировать на менее важные раздражители так же, как на важные раздражители (которые мы знаем, скоро последуют — прим. ред); мы воздерживаемся от поведения, за которым следует наказание, и чаще всего ведем себя так, чтобы получить награду.

К счастью, у нас нет необходимости беспокоиться о том, что разум человека сойдет с ума в киберпространстве или что мы получим бессмертие, загрузив свое сознание на внешний носитель.

Несмотря на вводящие в заблуждение заголовки популярных статей, ни у кого нет ни малейшего представления о том, как именно меняется мозг после того, как мы научились петь песню или выучили стихотворение. Однако мы точно знаем, что ни песни, ни стихотворения не «загружаются» в мозг. Наш мозг просто меняется таким образом, что теперь мы можем спеть песню или рассказать стихотворение при определенных условиях. В момент выступления ни песня, ни стихотворение не «извлекаются» из какого-то места в мозге — точно так же, как не «извлекаются» движения моих пальцев, когда я барабаню по столу. Мы просто поем или рассказываем — никакого «извлечения» для этого нам не нужно.

Несколько лет назад я спросил Эрика Кандела (нейробиолога из Колумбийского университета, получившего Нобелевскую премию за то, что он идентифицировал некоторые из химических изменений, происходящих в нейтронных синапсах морской улитки после того, как она учится чему-то), сколько времени, по его мнению, понадобится для того, чтобы мы поняли природу человеческой памяти. Он быстро ответил: «Сто лет». Правда, я не додумался спросить его, считает ли он, что доминирующая сейчас в науке теория замедляет прогресс в области нейрологии, однако некоторые нейроученые в самом деле начинают подозревать немыслимое — что компьютерная метафора не так уж и незаменима.

Некоторые ученые-когнитивисты, в частности Энтони Чемеро из Университета Цинциннати, автор книги «Radical Embodied Cognitive Science» (2009 год), уже сейчас полностью отрицают представление о том, что деятельность человеческого мозга схожа с работой компьютера. Распространенное мнение гласит, что мы, как и компьютеры, познаем мир, обрабатывая мысленно воссозданные образы предметов и явлений. Однако Чемеро и другие ученые по-другому описывают понимание интеллектуальной деятельности человека, предлагая смотреть на мыслительный процесс как на процессы прямого взаимодействия между организмами и окружающим их миром.

Мой любимый пример, иллюстрирующий огромную разницу между компьютерной метафорой и «антирепрезентативным» взглядом на функционирование мозга, включает в себя два способа объяснения того, как бейсболист пытается поймать высоко отбитый мяч. Этот пример был прекрасно описан Майклом МакБитом из Университета Аризоны и его коллегами в журнале Science в 1995 году. В логике компьютерной метафоры игрок должен сформулировать приблизительную оценку условий полета мяча (силу воздействия, угол траектории и так далее), потом создать и проанализировать внутреннюю модель траектории, по которой пролетит мяч, а уже потом применить модель, чтобы непрерывно направлять и вовремя корректировать движения, направленные на перехват мяча.

Все было бы так, если бы мы функционировали как компьютеры. Но МакБит и его коллеги объясняют процесс ловли мяча проще: чтобы поймать мяч, игроку нужно всего лишь продолжать двигаться так, чтобы постоянно сохранять с ним визуальную связь с учетом расположения основной базы и общей расстановки на поле (то есть придерживаться линейно-оптической траектории). Звучит сложно, но на самом деле это предельно просто и не подразумевает никаких вычислений, представлений и алгоритмов.

Два целеустремленных профессора психологии из Leeds Beckett University — Эндрю Уилсон и Сабрина Голонка — приводят пример с бейсболистом в ряду множества других, позволяющих просто и доходчиво избежать компьютерных сравнений. В течение многих лет они писали о том, что сами называют «более гармоничным и естественным подходом к научному изучению человеческого поведения… по сравнению с преобладающим когнитивистско-нейрологическим подходом». Это, конечно, еще не движение; большинство когнитивистов по-прежнему бездумно барахтаются в парадигме компьютерной метафоры, а некоторые авторитетные мыслители уже сделали грандиозные предсказания о будущем человечества исходя из неоспоримости этой метафоры.

Согласно одному из таких предсказаний — сделанного, среди прочих, футуристом Курцвейлом, физиком Стивеном Хокингом и нейрологом Рэндалом Коэном, — вскоре человеческое сознание (которое, по общему предположению, работает по принципу программного обеспечения) можно будет загрузить в компьютерную сеть, которая нереально усилит наши интеллектуальные способности и, возможно, даже сделает нас бессмертными. Эта теория легла в основу фильма-антиутопии «Превосходство», в котором Джонни Депп играет главную роль — ученого типа Курцвейла, мозг которого был загружен в интернет (что привело к ужасающим последствиям для всего человечества).

К счастью, у нас нет необходимости беспокоиться о том, что разум человека сойдет с ума в киберпространстве или что мы получим бессмертие, загрузив свое сознание на внешний носитель: компьютерная аналогия работы мозга даже близко не соответствует реальности. Но неверно оно не только потому, что в мозгу нет программного обеспечения в виде сознания, — проблема еще глубже. Назовем эту проблему проблемой уникальности — одновременно вдохновляющей и огорчающей.

Так как в мозгу нет ни «банков памяти», ни «репрезентаций» внешних стимулов, а все, что нужно мозгу для того, чтобы исправно функционировать, это меняться в результате приобретенного опыта, у нас нет оснований верить в то, что один и тот же опыт может изменять каждого из нас одним и тем же образом. Если бы мы с вами посетили один и тот же концерт, то изменения, которые бы произошли у меня в мозгу при звуках Пятой симфонии Бетховена, были бы наверняка не похожи на ваши. Какими бы они ни были, они создаются на основе уникальной нейронной структуры, которая к тому моменту уже существовала и развивалась на протяжении всей жизни под воздействием уникального набора переживаний.

Именно поэтому, как писал в своей книге «Вспоминая» (1932 год) сэр Фредерик Бартлетт, два человека не повторяют услышанную ими историю одинаково, а со временем их рассказы будут все больше и больше отличаться друг от друга. Не создается никакой «копии» истории; скорее, каждый индивид, услышав историю, меняется — в степени, достаточной для того, чтобы позже (в некоторых случаях спустя дни, месяцы или даже годы) суметь вновь пережить те минуты, когда он слушал историю, и воспроизвести ее, хотя и не очень точно (см. пример с банкнотой).

Я полагаю, что, с одной стороны, это вдохновляет, так как это значит, что каждый из нас по-настоящему уникален: не только по своему генетическому коду, но даже и по тем изменениям, которые происходят с нашим мозгом. Но, с другой стороны, это и печально, потому что ставит перед нейроучеными обескураживающую задачу. При изменениях, происходящих после переживания опыта, задействуются миллионы нейронов или даже весь мозг, и процесс изменений различен для каждого отдельного мозга.

Чтобы понять хотя бы основы того, как мозг обеспечивает питанием интеллект человека, нам может потребоваться проанализировать состояние всех 86 миллиардов нейронов и 100 триллионов их связей.

Что еще хуже, даже если мы вдруг сможем сделать моментальный снимок всех 86 миллиардов нейронов мозга, а затем смоделировать состояние этих нейронов на компьютере, этот полученный шаблон не будет иметь вообще никакой ценности — вне физического тела мозга, который его произвел. Возможно, непонимание этой идеи и есть самое страшное последствие распространенности идеи о компьютерном строении человеческого разума. В то время как компьютеры и в самом деле сохраняют точные копии информации, которые могут оставаться неизменными в течение долгого времени, даже если сам компьютер был выключен, наш мозг сохраняет интеллект только до тех пор, пока мы живы. У нас нет кнопок «включить» — «выключить». Либо мозг работает, либо нас нет. К тому же, как отметил невролог Стивен Роуз в своей книге «Будущее мозга» (2005 год), моментальный снимок состояния живого мозга также может оказаться бессмысленным, если мы не учтем полную историю жизни владельца — вплоть до знаний об окружении, в котором он вырос.

Просто задумайтесь, насколько сложна эта проблема. Чтобы понять хотя бы основы того, как мозг обеспечивает питанием интеллект человека, нам может потребоваться проанализировать не только состояние всех 86 миллиардов нейронов и 100 триллионов их связей, но и то, как ежесекундная деятельность мозга влияет на целостность этой системы. Добавьте к этому уникальность каждого мозга, вызванную уникальностью жизненного контекста каждого человека, и предсказание Кандела (100 лет на понимание проблемы мозга. — Прим. ред.) начинает казаться чересчур оптимистичным. В вышедшей недавно колонке редактора The New York Times нейробиолог Кеннет Миллер предположил, что задача выяснить природу хотя бы базовых нейронных связей займет века.

Тем временем огромные суммы денег тратятся на исследования мозговой деятельности, основанные зачастую на ошибочных идеях и невыполнимых обещаниях. Наиболее вопиющий случай того, как нейробилогическое исследование пошло не так, задокументировано в отчете Scientific American и относится к проекту Евросоюза «Человеческий мозг», на который в 2013 году было выделено около 1,3 миллиарда долларов. Комиссия поверила харизматичному Генри Маркраму, который утверждал, что сможет воссоздать копию человеческого мозга на суперкомпьютере к 2023 году и совершить прорыв в лечении болезни Альцгеймера. Власти ЕС профинансировали проект без каких-либо ограничений. Меньше чем через два года проект превратился в «заворот мозгов», и Маркрама попросили уйти.

Мы живые организмы, а не компьютеры. Пора смириться с этим. Давайте и дальше пытаться понимать себя, отбросив в сторону ненужный интеллектуальный багаж. Компьютерное сравнение просуществовало полвека и принесло нам не слишком много открытий (если вообще хоть какие-то). Настало время нажать на кнопку «delete».