Модели разума. Как физика, инженерия и математика сформировали наше понимание мозга [Lindsay Grace] (fb2) читать онлайн

- Модели разума. Как физика, инженерия и математика сформировали наше понимание мозга 5 Мб, 320с. скачать: (fb2) - (исправленную)  читать: (полностью) - (постранично) - Lindsay Grace

 [Настройки текста]  [Cбросить фильтры]


@importknig

 

 

Перевод этой книги подготовлен сообществом "Книжный импорт".

 

Каждые несколько дней в нём выходят любительские переводы новых зарубежных книг в жанре non-fiction, которые скорее всего никогда не будут официально изданы в России.

 

Все переводы распространяются бесплатно и в ознакомительных целях среди подписчиков сообщества.

 

Подпишитесь на нас в Telegram: https://t.me/importknig

 

 

Грейс Линдсей

«Модели разума. Как физика, инженерия и математика сформировали наше понимание мозга»

 

Оглавление

Глава 1. Сферические коровы

Глава 2. Как нейроны получают спайки

Глава 3. Учимся вычислять перцептрон и искусственные нейронные сети

Глава 4. Создание и сохранение воспоминаний

Глава 5. Возбуждение и торможение. Сбалансированная сеть и колебания

Глава 6. Этапы развития зрения. Неокогнитрон и конволюционные нейронные сети

Глава 7. Взлом нейронного кода. Теория информации и эффективное кодирование

Глава 8. Движение в низких измерениях. Кинетика, кинематика и снижение размерности

Глава 9. От структуры к функции. Теория графов и сетевая нейронаука

Глава 10. Принятие рациональных решений. Вероятность и правило Байеса

Глава 11. Как вознаграждение руководит действиями. Временные различия и обучение под креплением

Глава 12. Великие единые теории мозга. Принцип свободной энергии, теория тысячи мозгов и интегральная теория информации

Математическое приложение


 

Глава 1. Сферические коровы

 

Что может предложить математика

Паук, плетущий паутину, Cyclosa octotuberculata обитает в нескольких местах в Японии и ее окрестностях. Размером с ноготь и покрытый маскировочными пятнами черного, белого и коричневого цветов, этот арахнид - хитроумный хищник. Сидя в центре своей искусно построенной паутины, он ждет, когда почувствует колебания нитей паутины, вызванные сопротивляющейся добычей. Как только паук чувствует движение, он устремляется в направлении сигнала, готовый сожрать свою добычу.

Иногда добыча чаще встречается в одном месте сети, чем в других. Умные хищники умеют отслеживать такие закономерности и использовать их в своих целях. Некоторые птицы, например, запоминают, где в последнее время было много пищи, и возвращаются в эти места в более позднее время. Cyclosa octotuberculata делает нечто похожее, но не идентичное. Вместо того чтобы запоминать удачные места - то есть не хранить их в памяти и не позволять им влиять на дальнейшее внимание - паук буквально вплетает эту информацию в свою паутину. В частности, он использует свои ноги, чтобы перетягивать шелковые нити, на которых недавно была обнаружена добыча, делая их более тугими. Натянутые нити более чувствительны к вибрациям, поэтому на них легче обнаружить будущую добычу.


Внося такие изменения в свою паутину, Cyclosa octotuberculata перекладывает часть бремени познания на окружающую среду. Он переносит свои текущие знания и память в компактную, но осмысленную физическую форму, оставляя в мире след, которым может руководствоваться в своих будущих действиях. Взаимодействующая система паука и его паутины умнее, чем паук мог бы надеяться быть сам по себе. Такая передача интеллекта окружающей среде известна как "расширенное познание".

 

Математика - это форма расширенного познания.

Когда ученый, математик или инженер записывает уравнение, он расширяет свои умственные способности. Они переносят свои знания о сложных отношениях на символы на странице. Записывая эти символы, они оставляют след своих размышлений для других и для себя в будущем. Ученые-когнитивисты предполагают, что пауки и другие мелкие животные полагаются на расширенное познание, потому что их мозг слишком ограничен для выполнения всех сложных умственных задач, необходимых для процветания в их среде. Мы ничем не отличаемся от них. Без таких инструментов, как математика, наша способность эффективно мыслить и действовать в этом мире сильно ограничена.

Математика делает нас лучше теми же способами, что и письменный язык. Но математика выходит за рамки повседневного языка, потому что это язык, который может выполнять реальную работу. Механика математики - правила перестановки, замены и расширения символов - не произвольна. Это систематический способ перенести процесс мышления на бумагу или в машину. Альфред Уайтхед, почитаемый математик XX века, с работами которого мы познакомимся в главе 3, перефразировал следующие слова: "Конечнаяцель математики - устранить всякую необходимость в разумном мышлении

Учитывая эту полезную особенность математики, в некоторых научных дисциплинах, в том числе в физике, сложилась этика, основанная на строгом количественном мышлении. Ученые в этих областях использовали возможности математики на протяжении веков. Они знают, что математика - единственный язык, достаточно точный и эффективный для описания мира природы. Они знают, что специализированная нотация уравнений умело сжимает информацию, делая уравнение похожим на картину: оно может стоить тысячи слов. Они также знают, что математика помогает ученым быть честными. При общении с помощью математического формализма предположения обнажаются, а двусмысленностям негде спрятаться. Таким образом, уравнения заставляют мыслить ясно и связно. Как писал Бертран Рассел (коллега Уайтхеда, с которым мы также познакомимся в главе 3): "Все расплывчато до такой степени, что вы не осознаете этого, пока не попытаетесь сделать его точным".

Последний урок, который усвоили ученые-количественники, заключается в том, что красота математики заключается в ее способности быть одновременно конкретной и универсальной. Уравнение может точно описать, как будет качаться маятник барометрических часов, установленных на лестнице для министров в Букингемском дворце; то же самое уравнение описывает электрические цепи, отвечающие за вещание радиостанций по всему миру. Когда между механизмами, лежащими в их основе, существует аналогия, уравнения служат воплощением этой аналогии. Как невидимая нить, связывающая воедино разрозненные темы, математика служит средством, с помощью которого достижения в одной области могут оказывать удивительное и непропорциональное влияние на другие, далеко отстоящие друг от друга области.


Биология - в том числе изучение мозга - не так быстро приняла математику, как некоторые другие области. Определенная часть биологов, по причинам, как хорошим, так и плохим, исторически смотрела на математику с некоторым скептицизмом. По их мнению, математика одновременно и слишком сложна, и слишком проста, чтобы быть полезной.

Некоторые биологи считают математику слишком сложной, потому что, будучи обученными практической работе по проведению лабораторных экспериментов, а не абстрактным деталям математических понятий, они воспринимают длинные уравнения как бессмысленные каракули на странице. Не видя в символах функции, они предпочитают обходиться без них. Как писал биолог Юрий Лазебник в 2002 году, призывая больше математики в своей области: "В биологии мы используем несколько аргументов, чтобы убедить себя, что проблемы, требующие вычислений, можно решить с помощью арифметики, если хорошенько постараться и провести еще одну серию экспериментов".

Тем не менее, математика также считается слишком простой, чтобы отразить все богатство биологических явлений. Старая шутка среди физиков подчеркивает порой абсурдный уровень упрощения, которого могут требовать математические подходы. Анекдот начинается с того, что фермер борется с проблемой производства молока. Перепробовав все возможные способы, чтобы заставить своих любимых коров давать больше, он решает обратиться за помощью к физику из местного университета. Физик внимательно выслушивает проблему и возвращается в свой кабинет, чтобы подумать. Поразмыслив, он возвращается к фермеру и говорит: "Я нашел решение. Во-первых, мы должны представить сферическую корову в вакууме...

Упрощение проблемы - это то, что открывает ее для математического анализа, поэтому припереводе из реального мира в уравнениянеизбежно теряются некоторые биологические детали. В результате тех, кто использует математику, часто порицают за то, что они слишком мало интересуются этими деталями. В своей книгеСоветы молодому исследователю", вышедшей в 1897 годуСантьяго Рамон-и-Кахал (отец современной нейронауки, чьи работы рассматриваются в главе 9) писал о таких теоретиках, избегающих реальности, в главе под названием "Болезни воли". Он определил их симптомы как "способность к изложению, творческое и беспокойное воображение, отвращение к лаборатории и неукротимая неприязнь к конкретной науке и кажущимся несущественными данным". Кахаль также сетовал на то, что теоретики предпочитают красоту фактам. Биологи изучают живые существа, которые изобилуют специфическими чертами и нюансами, являющимися исключениями из любого правила. Математики, движимые простотой, элегантностью и необходимостью сделать вещи управляемыми, подавляют это изобилие, когда сводят его к уравнениям.

Чрезмерное упрощение и одержимость эстетикой - это законные ловушки, которых следует избегать при применении математики в реальном мире. Но в то же время богатство и сложность биологии - это именно то, почему ей нужна математика.

Рассмотрим простой биологический вопрос. В лесу есть два вида животных: кролики и лисы. Лисы едят кроликов, а кролики - траву. Если вначале в лесу будет определенное количество лис и определенное количество кроликов, что произойдет с этими двумя популяциями?

Возможно, лисы свирепо загрызут кроликов, доведя их до полного исчезновения. Но тогда лисы, исчерпав свой источник пищи, сами начнут голодать и вымрут. В результате мы получим довольно пустой лес.другой стороны, может быть, популяция лис не такая ужпрожорливая. Возможно, они сокращают популяцию кроликов почти до нуля, но не совсем. Популяция лис все равно падает, поскольку каждая особь пытается найти оставшихся кроликов. Но затем, когда большая часть лис исчезла, популяция кроликов может восстановиться. Конечно, теперь пища для лис снова в изобилии, и, если их популяция останется в достаточном количестве, они тоже могут возродиться.

Когда нужно знать, что в итоге получится в лесу, полагаться на интуицию не стоит. Попытка "додумать" этот сценарий, как бы он ни был прост, с помощью одних лишь слов и историй недостаточна. Чтобы добиться прогресса, мы должны точно определить наши термины и точно указать их взаимосвязь - а это значит, что мы занимаемся математикой.

На самом деле математическая модель взаимодействия хищника и жертвы, которая может нам помочь, известна как модель Лотки-Вольтерры и была разработана в 1920-х годах. Модель Лотки-Вольтерры состоит из двух уравнений: одно описывает рост популяции жертвы в терминах численности жертвы и хищников, а другое - рост популяции хищников в терминах численности хищников и жертвы. Используя теорию динамических систем - набор математических инструментов, изначально созданных для описания взаимодействия небесных тел, - эти уравнения могут сказать нам, вымрут ли в конце концов лисы или кролики, или же они будут продолжать танцевать вместе вечно. Таким образом, использование математики помогает нам лучше понять биологию. Без нее мы, к сожалению, ограничены нашими врожденными когнитивными талантами. Как писал Лазебник: "Понимание [сложной] системы без формальных аналитических инструментов требует гениев, которые так редки даже за пределами биологии".


Чтобы взглянуть на кусочек биологии и понять, как его можно свести к переменным и уравнениям, требуется творческий подход, опыт и проницательность. Ученый должен проследить за беспорядочными деталями реального мира и найти его "голую" структуру, которая лежит в его основе. Каждый компонент модели должен быть определен соответствующим образом и точно. Однако как только структура найдена и уравнение написано, плоды этой дисциплины становятся очевидными. Математические модели - это способ описать теорию работы биологической системы достаточно точно, чтобы донести ее до других. Если эта теория хороша, модель можно использовать для предсказания результатов будущих экспериментов и обобщения результатов прошлых. А если запустить эти уравнения на компьютере, то модели станут "виртуальной лабораторией", позволяющей быстро и легко подставлять различные значения, чтобы увидеть, как могут развиваться различные сценарии, и даже проводить "эксперименты", которые еще не осуществимы в физическом мире. Прорабатывая таким образом сценарии и гипотезы в цифровом формате, модели помогают ученым определить, какие части системы важны для ее функционирования и, что важно, какие нет.

Такая интегральная работа вряд ли может быть выполнена с помощью простых историй, не сопровождаемых математикой. Как объяснил в своей статье 2008 года Ларри Эбботт, выдающийся теоретический нейробиолог и соавтор одного из самых распространенных учебников по этому предмету:

Уравнения заставляют модель быть точной, полной и самосогласованной, они позволяют проработать все ее следствия.Нетрудно обнаружить в разделах выводов старыхстатей по нейронауке словесные модели, которые звучат разумно, но, будучи выраженными в виде математических моделей, оказываются непоследовательными и невыполнимыми. Математическая формулировка модели заставляет ее быть самосогласованной, и, хотя самосогласованность не обязательно является истиной, самонесогласованность, безусловно, ложь.

Мозг, состоящий (в случае с человеком) из 100 миллиардов нейронов, каждый из которых является собственной кипящей фабрикой химических веществ и электричества, взаимодействующей в беспорядке со своими соседями как вблизи, так и на расстоянии, является ярким примером биологического объекта, слишком сложного, чтобы его можно было понять без математики. Мозг - это центр познания и сознания. Он отвечает за то, что мы чувствуем, как мы думаем, как мы двигаемся, кто мы есть. Здесь планируются дни, хранятся воспоминания, переживаются страсти, делается выбор, читаются слова. Это вдохновение для искусственного интеллекта и источник психических заболеваний. Чтобы понять, как все это может быть реализовано единым комплексом клеток, взаимодействующих с телом и миром, требуется математическое моделирование на нескольких уровнях.

Несмотря на нерешительность некоторых биологов, математические модели можно найти во всех уголках истории нейронауки. И если раньше это было уделом физиков-авантюристов или бродячих математиков, то сегодня "теоретическая" или "вычислительная" нейронаука - это вполне развитое подразделение нейронауки с отдельными журналами, конференциями, учебниками и источниками финансирования. Математический менталитет оказывает влияние на все изучение мозга. Как писал Эбботт: "Раньше биология была прибежищем для студентов, бегущих от математики, но теперь многиестуденты, изучающие науки о жизни по адресу, обладают солидными знаниями в области базовой математики и компьютерного программирования, а те, кто не знает, по крайней мере, чувствуют себя виноватыми в этом".

И все же не стоит полностью сбрасывать со счетов опасения биологов по поводу математических моделей. "Все модели ошибочны", - так начинается популярная фраза статистиков Джорджа Бокса. Действительно, все модели ошибочны, потому что все модели игнорируют некоторые детали. Все модели ошибочны еще и потому, что они отражают лишь предвзятое представление о процессах, которые они пытаются отразить. И все модели ошибочны, потому что отдают предпочтение простоте перед абсолютной точностью. Все модели ошибаются так же, как ошибаются все стихи; они отражают суть, если не совершенную буквальную истину. Все модели ошибочны, но некоторые из них полезны", - говорит Бокс. Если бы фермер в старом анекдоте напомнил физику, что коровы на самом деле не шарообразные, физик ответил бы: "Кого это волнует?", или, точнее, "А нужно ли нам это?". Деталь ради детали не является достоинством. Карта размером с город не имеет смысла. Искусство математического моделирования заключается в том, чтобы решить, какие детали имеют значение, и упорно игнорировать те, которые не имеют.

Эта книга рассказывает о влиянии математического мышления - заимствованного из физики, инженерии, статистики и информатики - на изучение мозга. В каждой главе по отдельным темам нейронауки рассказывается о биологии, математике и взаимодействии между ними.читателяне требуется никаких специальных знаний в области математики; идеи, лежащие в основе уравнений, будут объяснены. Не предлагается единой теории мозга; различные модели решают разные проблемы и предлагают взаимодополняющие подходы к пониманию.

Главы расположены в порядке от низкого к высокому уровню: от физики отдельных клеток до математики поведения. В этих главах рассказывается о трудностях, возникавших при объединении математики и биологии, и об ученых, которые вели эту борьбу. Они показывают, что иногда эксперименты служат основой для моделей, а иногда модели служат основой для экспериментов. Они также показывают, что моделью может быть что угодно - от нескольких уравнений на странице до бесчисленных строк кода, выполняемого на суперкомпьютерах. Таким образом, книга представляет собой гобелен из множества форм, которые могут принимать математические модели мозга. Несмотря на разнообразие тем и моделей, общие темы встречаются на всех страницах.

Конечно, все, что написано в этой книге, может быть неверным. Это может быть неправильно, потому что это наука, а наше понимание мира постоянно развивается. Это может быть неправильно, потому что это история, а в истории всегда есть больше одного способа рассказать историю. И, самое главное, она неверна, потому что это математика. Математические модели разума не являются идеальными копиями мозга, и мы не должны стремиться к этому. Однако при изучении самого сложного объекта в известной нам Вселенной математические модели не просто полезны, а абсолютно необходимы. Мозг не понять одними словами.

 

Глава 2. Как нейроны получают спайки

Негерметичные нейроны с интеграцией и возгоранием и нейроны Ходжкина-Хаксли

Законы действия нервного принципа совершенно не похожи на законы действия электричества", - заключает Иоганн Мюллер на 600 страницах своего учебника Handbuch der Physiologie des Menschen в 1840 году. Поэтому говорить об электрическом токе в нервах - значит использовать столь же символическое выражение, как если бы мы сравнивали действие нервного принципа со светом или магнетизмом".

Книга Мюллера - обширный экскурс в новую и неопределенную область физиологии - была широко прочитана. Ее публикация (особенно ее почти немедленный перевод на английский язык под названием "Элементы физиологии") закрепила за Мюллером репутацию авторитетного преподавателя и ученого.

Мюллер был профессором Берлинского университета имени Гумбольдта с 1833 года и до своей смерти 25 лет спустя. Он проявлял широкий интерес к биологии и имел сильные интеллектуальные взгляды. Он был приверженцем витализма - идеи о том, что жизнь зависит от Lebenskraft, или жизненной организующей силы, которая выходит за рамки простых химических и физических взаимодействий. Эта философия прослеживается в его физиологии. В своей книге он не только утверждает, что деятельность нервов не является электрической по своей природе, но и что в конечном итоге она может быть "непостижимой", а вопрос о ее сущности "не может быть решен с помощью физиологических фактов".


Мюллер, однако, ошибался. В течение следующего столетия оказалось, что дух, одушевляющий нервы, полностью сводится к простому движению заряженных частиц. Электричество - это действительно чернила, которыми написан нейронный код. В конце концов, нервный принцип оказался вполне объяснимым.

Идентификация "биоэлектричества" в нервной системе открыла новые возможности не только для того, чтобы опровергнуть витализм Мюллера. Проложив путь между двумя быстро развивающимися науками - электричеством и физиологией, - оно позволило применить инструменты первой к проблемам второй. В частности, уравнения, составленные в результате бесчисленных экспериментов для описания основных характеристик проводов, батарей и цепей, теперь стали языком, на котором можно было описать нервную систему. Эти две области будут иметь общие символы, но их связь была намного больше, чем просто символическая, как утверждал Мюллер. Правильное изучение нервной системы зависело от сотрудничества с изучением электричества. Семена этого сотрудничества, посаженные в XIX веке, прорастут в XX и расцветут в XXI.

* * *

Зайдите в дом образованного представителя высшего общества в Европе конца XVIII века, и вы можете обнаружить среди полок с другими научными инструментами и диковинками лейденскую банку. Лейденские банки, названные так в честь голландского города, в котором жил один из их изобретателей, - это такие же стеклянные банки, как и большинство других. Однако вместо варенья или маринованных овощей в лейденских банках хранится заряд.Разработанные в середине восемнадцатого века, эти устройства стали поворотным пунктом в изучении электричества. Являясь в буквальном смысле молнией в бутылке, они впервые позволили ученым и неученым управлять электричеством и передавать его - иногда достаточно сильные удары, чтобы вызвать кровотечение из носа или потерю сознания.

Несмотря на большую мощность, конструкция Лейденской банки проста (см. рис. 1). Нижняя часть внутренней части банки покрыта металлической фольгой, как и та же область снаружи. Таким образом, между двумя слоями металла образуется сэндвич из стекла. Через цепочку или стержень, вставленный в верхнюю часть банки, внутренняя фольга накачивается заряженными частицами. Частицы с противоположным зарядом притягиваются друг к другу, поэтому, если, например, частицы, попадающие в банку, заряжены положительно, то снаружи начнут накапливаться отрицательно заряженные. Однако частицы никогда не смогут достичь друг друга, потому что стекло банки удерживает их на расстоянии. Как две соседские собаки, разделенные забором, они могут выстроиться по обе стороны стекла, отчаянно желая быть ближе.


Сейчас мы называем устройство, накапливающее заряд, как лейденская банка, "конденсатором". Разность зарядов по обе стороны стекла создает разницу в потенциальной энергии, называемую напряжением. Со временем, когда в банку добавляется все больше и больше заряда, это напряжение увеличивается. Если бы стеклянный барьер исчез - или появился другой путь, по которому частицы могли бы добраться друг до друга, - потенциальная энергия превратилась бы в кинетическую, когда частицы двинулись бы навстречу своим собратьям. Чем выше напряжение на конденсаторе, тем сильнее будет это движение заряда, или ток. Именно так многие ученые и любители мастерить в итоге сами себя шокировали. Создавая рукой связь между внутренней и внешней частями банки, они открывали путь для потока заряженных частиц прямо через свое тело.

Рисунок 1

Луиджи Гальвани был итальянским ученым, родившимся в 1737 году. Будучи очень религиозным человеком, он всю жизнь думал о том, чтобы присоединиться к церкви, но в итоге стал изучать медицину в Болонском университете. Там он получил образование не только в области хирургии и анатомии, но и по модной теме электричества. В лаборатории, которую он держал у себя дома - там он тесно сотрудничал со своей женой Лючией, дочерью одного из профессоров - были приборы для изучения биологического и электрического: скальпели и микроскопы, электростатические машины и, конечно же, лейденские банки. Для своих медицинских экспериментов Гальвани - как и студенты-биологи за много веков до и после него - сосредоточился на лягушках. Мышцы лягушачьих лапок могут продолжать работать после смерти, что очень важно при попытке одновременно понять работу животного и препарировать его.


Именно благодаря разнообразию и потенциальной неорганизованности его лаборатории Гальвани попал на страницы учебников по естественным наукам. Как гласит история, кто-то в лаборатории (возможно, Лючия) прикоснулся металлическим скальпелем к нерву ноги мертвой лягушки в тот самый момент, когда случайная искра от электрического прибора вызвала заряд на скальпеле. Мышцы ноги лягушки немедленно сократились, и Гальвани решил с энтузиазмом продолжить это наблюдение. В своей книге 1791 года он описывает множество различных приготовлений к последующим экспериментам по изучению "животного электричества", в том числе сравнение эффективности различных видов металла для вызывания сокращений и то, как он подключил провод к нерву лягушки во время грозы. Он наблюдал, как лапки лягушки сокращаются при каждой вспышке молнии.

Всегда существовали некоторые намеки на то, что жизнь использует электричество. Ибн Рушд, мусульманский философ двенадцатого века, предвосхитил несколько научных открытий, когда отметил, что способность электрической рыбы оцепенять рыбаков в ее водах может быть обусловлена той же силой, которая притягивает железо к камню. А за несколько лет до открытия Гальвани врачи уже исследовали применение электрических токов в качестве лекарства от глухоты и паралича. Но разнообразные эксперименты Гальвани вывели изучение биоэлектричества за рамки догадок и предположений. Он собрал доказательства того, что движение животных следует из движения электричества в них самих. Таким образом, он пришел к выводу, что электричество - это сила, присущая животным, своего рода жидкость, которая течет по их телу так же часто, как кровь.

с духом любительской науки того времени, узнав о работе Гальвани, многие люди отправились, чтобы воспроизвести ее. Помещая свои личные лейденские банки в контакт с любой лягушкой, которую они могли поймать, любопытные обыватели наблюдали те же сокращения и конвульсии, что и у Гальвани. Влияние работы Гальвани, а вместе с ней и идеи электрической анимации, было столь велико, что она попала в сознание английской писательницы Мэри Шелли, став частью вдохновения для ее романаФранкенштейн".

Однако здоровая доля научного скептицизма означала, что не все коллеги Гальвани с таким энтузиазмом восприняли его утверждения. Алессандро Вольта - итальянский физик, в честь которого было названо напряжение, - признал, что электричество действительно может вызывать мышечные сокращения у животных. Но он отрицал, что это означает, что животные обычно используют электричество для движения. Вольта не видел в экспериментах Гальвани никаких доказательств того, что животные вырабатывают собственное электричество. На самом деле он обнаружил, что контакт между двумя различными металлами может создавать множество, почти незаметных, электрических сил, и поэтому любые испытания электричества на животных с использованием металлов, находящихся в контакте, могут быть загрязнены электричеством, генерируемым извне. Как писал Вольта в публикации 1800 года: "Я оказался вынужден бороться с притворным животным электричеством Гальвани и объявить его внешним электричеством, возникающим при взаимном контакте металлов разных видов".

К несчастью для Гальвани, Вольта был моложе, охотнее вступал в публичные дискуссии и шел по карьерной лестнице. Он был грозным научным противником. Сила личности Вольты привела к тому, что идеи Гальвани, хотя и правильные во многих отношениях, были затмлены на десятилетия.


Учебник Мюллера появился почти через 10 лет после смерти Вольты, но его возражения против электричества животных были схожи. Он просто не верил, что электричество является субстанцией нервной передачи, и весомые доказательства того времени не могли его переубедить. Помимо его виталистских наклонностей, это упрямство, возможно, объяснялось тем, что Мюллер предпочитал наблюдать, а не вмешиваться. Сколько бы примеров реагирования животных на внешнее электричество ни накопилось за годы работы, они никогда не сравнятся с непосредственным наблюдением за животным, вырабатывающим собственное электричество. Наблюдение - это простота, неутомимость, трудолюбие, честность, отсутствие предвзятого мнения", - сказал Мюллер в своей инаугурационной лекции в Боннском университете. Эксперимент - искусственный, нетерпеливый, занятой, отвлеченный, страстный, ненадежный". В то время, однако, наблюдение было невозможно. Ни один прибор не был достаточно мощным, чтобы уловить слабые электрические сигналы, передаваемые нервами в их естественном состоянии.

Все изменилось в 1847 году, когда Эмиль дю Буа-Реймон - один из учеников Мюллера - создал очень чувствительный гальвонометр, прибор, измеряющий ток посредством его взаимодействия с магнитным полем. Его эксперименты были попыткой повторить в нервах то, что итальянский физик Карло Маттеуччи недавно наблюдал в мышцах. Используя гальванометр, Маттеуччи обнаружил небольшое изменение тока в мышцах после того, как заставил их сокращаться. Однако для поиска этого сигнала в нерве требовалось более сильное магнитное поле, чтобы уловить слабый ток.дополнение к разработке надлежащей изоляции, чтобы предотвратить любые помехи от внешнего электричества,дю Буа-Реймону пришлось вручную намотать более мили проволоки (более чем в восемь раз больше, чем Маттеуччи), чтобы получить достаточно сильное магнитное поле для своих целей. Его ручной труд окупился. Измеряя реакцию гальванометра, дю Буа-Реймон стимулировал нерв различными способами - электрическим или с помощью химических веществ, например стрихнина, - и следил за тем, как нерв реагирует на показания гальванометра. Каждый раз он видел, как игла гальванометра поднималась вверх. Было замечено, что электричество работает в нервной системе.

Дю Буа-Реймон был шоуменом не меньше, чем ученым, и сетовал на сухой стиль выступлений своих коллег-ученых. Чтобы распространить плоды своего труда, он создал несколько готовых для публики демонстраций биоэлектричества, включая установку, в которой он мог заставить двигаться иглу, сжав руку в банке с соленой водой. Все это способствовало тому, что его открытия были замечены, и дю Буа-Реймон стал любим умами своего времени. Как он сказал: "Популяризаторы науки остаются в общественном сознании как памятники человеческого прогресса еще долго после того, как волны забвения нахлынули на создателей самых надежных исследований".

К счастью, его исследования также были основательными. В частности, последующая работа, которую дю Буа-Реймон провел вместе со своим студентом Джулиусом Бернштейном, решила судьбу теории нервного электричества. В первоначальном эксперименте Дю Буа-Реймону удалось продемонстрировать изменение тока в активированном нерве. Но Бернштейн, благодаря продуманному и тщательному экспериментальному дизайну, смог как усилить силу сигнала, так и записать его в более тонком временном масштабе, создав первое настоящее наблюдение неуловимого нервного сигнала.


В экспериментах Бернштейна сначала выделялся нерв и помещался в прибор. Затем нерв электрически стимулировался с одной стороны, а Бернштейн искал наличие электрической активности на некотором расстоянии от него. Ведя запись с точностью до одной трети одной тысячной секунды, он видел, как характерно изменяется ток в нерве с течением времени после каждой стимуляции. В зависимости от того, как далеко находилось место записи от места стимуляции, могла возникнуть короткая пауза, пока электрический импульс проходил по нерву и достигал гальванометра. Однако как только ток достигал места записи, он всегда видел, как он быстро уменьшался, а затем более медленно восстанавливался до своего нормального значения.

Результат Бернштейна, опубликованный в первом номере European Journal of Physiology в 1868 году, стал первой известной записью того, что сейчас называют "потенциалом действия". Потенциал действия определяется как характерный паттерн изменений электрических свойств клетки. Нейроны обладают потенциалами действия. Они есть и у некоторых других возбудимых клеток, например, в мышцах или сердце.

Это электрическое возмущение распространяется по мембране клетки подобно волне. Таким образом, потенциалы действия помогают клетке провести сигнал от одного конца себя к другому. Например, в сердце пульсация потенциала действия помогает координировать сокращение клетки. Потенциалы действия - это еще и способ клетки что-то сказать другим клеткам. В нейроне, когда потенциал действия достигает бугристого конца отростка, называемого аксоном, он выталкивает нейротрансмиттеры. Эти химические вещества могут достигать других клеток и вызывать в них потенциалы действия. В случае со знакомым лягушачьим нервом потенциалы действия, проходящие по ноге, приводят квыбросу нейротрансмиттеров в мышцу ноги. Потенциалы действия в мышце вызывают ее подергивание.

Работа Бернштейна стала первым словом в длинной истории о потенциале действия. Теперь потенциал действия признан основной единицей коммуникации в нервной системе и составляет основу современной нейронауки. Этот быстрый всплеск электрической активности соединяет мозг с телом, тело с мозгом и связывает все нейроны мозга между собой.

Увидев изменения тока в нерве, дю Буа-Реймон писал: "Если я не сильно обманываю себя, то мне удалось осуществить [...] столетнюю мечту физиков и физиологов, а именно - идентифицировать нервный принцип с электричеством". Нервный принцип действительно был идентифицирован в потенциале действия. Однако дю Буа-Реймон придерживался "математико-физического метода" объяснения биологии, и, хотя он установил физический принцип, он не вполне решил математический. Поскольку среди ученых росло понимание того, что правильная наука предполагает количественное измерение, работа по описанию физических свойств нервного принципа была еще далека от завершения. Действительно, потребовалось бы еще около ста лет, чтобы отразить суть нервного принципа в уравнениях.

* * *

В отличие от опыта Иоганнеса Мюллера, когда Георг Ом опубликовал книгу о своих научных открытиях, он потерял работу.

Ом родился в 1789 году, сын слесаря.Он недолго учился в университете своегородного города , Эрлангена в Германии, а затем несколько лет преподавал математику и физику в разных городах. В конце концов, поставив перед собой цель стать академиком, он начал проводить собственные небольшие эксперименты, в частности, на тему электричества. Для одного из опытов он нарезал провода разной длины из разных металлов. Затем он подал напряжение на два конца проволоки и измерил силу тока, протекающего между ними. Благодаря этому он смог вывести математическую зависимость между длиной провода и силой тока: чем длиннее провод, тем меньше сила тока.

К 1827 году Ом собрал эти и другие уравнения электричества в своей книге "Гальваническая цепь, исследованная математически" (The Galvanic Circuit Investigated Mathematically). В отличие от современной формы, изучение электричества во времена Ома не было очень математической дисциплиной, и коллегам Ома не понравились его попытки сделать ее таковой. Один из рецензентов дошел до того, что сказал: "Тот, кто смотрит на мир с благоговением, должен отвернуться от этой книги как от результата неизлечимого заблуждения, единственное усилие которого - умалить достоинство природы". Взяв отпуск для написания книги в надежде, что она принесет ему повышение, Ом, провалив книгу, в итоге ушел в отставку.

Однако Ом был прав. Замеченное им ключевое соотношение - ток, проходящий по проводу, равен напряжению на нем, деленному на сопротивление провода, - является краеугольным камнем современной электротехники, которую преподают студентам первого курса физического факультета во всем мире. Сейчас этот закон известен как закон Ома, а стандартной единицей измерения сопротивления является "ом". В жизни Ом не знал о полном влиянии своей работы, ноконце концов получил некоторое признание. В возрасте 63 лет его наконец-то назначили профессором экспериментальной физики в Мюнхенском университете, за два года до его смерти.

Сопротивление, как следует из названия, является мерой противодействия. Это описание того, насколько сильно материал препятствует прохождению тока. Большинство материалов обладают определенным сопротивлением, но, как отметил Ом, физические свойства материала определяют, насколько он устойчив. Более длинные провода имеют большее сопротивление, более толстые - меньшее. Подобно тому, как сужение песочных часов замедляет движение песка, провода с большим сопротивлением препятствуют движению заряженных частиц.

Луи Лапик знал о законе Ома. Лапик родился во Франции в 1866 году, вскоре после первой регистрации потенциала действия, и защитил докторскую диссертацию в Парижской медицинской школе. Он написал диссертацию о работе печени и метаболизме железа. Хотя его исследования носили научный характер, его интересы были более широкими - от истории до политики и парусного спорта; иногда он даже отправлялся на своей лодке на конференции через Ла-Манш.

В начале двадцатого века Лапик начал изучать нервный импульс. Это стало началом проекта, длившегося несколько десятилетий, в котором он вместе со своей студенткой, ставшей женой и коллегой Марсель де Эредиа, сосредоточился на концепции времени в нервах. Одним из первых вопросов, который они задали, был следующий: сколько времени требуется для активации нерва? К тому времени было хорошо известно, что подача напряжения на нерв вызывает ответную реакцию - измеряемую либо как потенциал действия, наблюдаемый непосредственно внерве, либо как мышечное подергивание, являющееся его результатом. Также было ясно, что величина напряжения имеет значение: выше напряжение - нерв реагирует быстрее, ниже - медленнее. Но какова точнаяматематическая зависимость между величиной стимуляции и временем, необходимым для получения ответа?

Это может показаться незначительным исследовательским вопросом, любопытством, не имеющим особого значения, но именно подход Лапика к нему имел значение. Поскольку настоящий физиолог должен был быть еще и инженером - проектировать и создавать всевозможные электрические устройства для стимуляции и регистрации нервных волокон, - Лапик знал правила электричества. Он знал о конденсаторах, сопротивлении, напряжении и законе Ома. И именно на основе этих знаний он составил математическую концепцию нерва, которая могла бы ответить на его вопрос - и на многие другие, которые еще предстояло задать.

За десятилетия, предшествовавшие работе Лапика, понимание мембран, окружающих клетки, расширилось. Становилось ясно, что эти пучки биологических молекул работают как кирпичная стена: они мало что пропускают. Среди частиц, которые они способны удерживать, были ионы - атомы различных элементов, таких как хлорид, натрий или калий, которые несут положительный или отрицательный заряд. Таким образом, как заряженные частицы могли накапливаться по обе стороны стекла лейденской банки, так же они могли накапливаться внутри и снаружи клетки. Как писал Лапик в своей работе 1907 года: "Эти идеи приводят, при самом простом подходе, к уже установленным уравнениям для поляризации металлических электродов".

Таким образом, он пришел к описанию нерва в терминах "эквивалентной схемы".(см. рис. 2) То есть он предположил,что различные части нерва действуют подобно различным компонентам электрической цепи. Первая эквивалентность была установлена между клеточной мембраной и конденсатором, поскольку мембрана могла накапливать заряд точно таким же образом. Но было ясно, что эти мембраны не действуют как идеальные конденсаторы: они не могут удерживать весь заряд. Вместо этого между внутренней и внешней частью клетки протекал ток, который позволял ей немного разряжаться. Эту роль могла бы сыграть проволока с некоторым сопротивлением. Поэтому Лапик добавил в модель нерва резистор параллельно конденсатору. Таким образом, когда в цепь подается ток, часть заряда попадает на конденсатор, а часть проходит через резистор. Поэтому пытаться создать разность зарядов в клетке - все равно что наливать воду в неидеальное ведро: большая часть ее останется в ведре, а часть вытечет.

Рисунок 2

Эта аналогия между клеткой и электрической цепью позволила Лапику записать уравнение.Уравнение описывало, какдолжно менятьсянапряжение намембранеклеткис течением времени, в зависимости от того, какое напряжение к ней прикладывается и как долго. С помощью этой формализации он мог рассчитать, когда нерв отреагирует.

Чтобы проверить свое уравнение на данных, Лапик обратился к стандартному эксперименту с лягушачьей лапкой: он подавал на нерв лягушки напряжение разной величины и фиксировал время, необходимое для появления реакции. Лапик предположил, что когда нерв лягушки реагирует, это происходит потому, что напряжение на его мембране достигло определенного порога. Поэтому он рассчитал, сколько времени потребуется его модели для достижения этого порога при каждом разном напряжении. Сравнив предсказания своей модели с результатами экспериментов, Лапик обнаружил хорошее совпадение. Он мог предсказать, как долго нужно подавать определенное напряжение, чтобы нерв отреагировал.

Лапик был не первым, кто записал такое уравнение. Предыдущий ученый, Жорж Вейс, предложил свою догадку о том, как описать эту зависимость между напряжением и временем. И это была относительно хорошая догадка: она лишь немного отклонялась от предсказаний Лапика, например, в случае напряжения, приложенного в течениедлительного времени. Но подобно тому, как малейшая улика на месте преступления может изменить картину всего события, это небольшое расхождение между предсказаниями уравнения Лапика и тем, что было до него, на самом деле означало глубокое расхождение в понимании.

В отличие от уравнения Лапика, уравнение Вайса не было вдохновлено механикой клетки и не предназначалось для интерпретации в качестве эквивалентной схемы. Это было скорее описание данных, чем их модель. Если описательное уравнение - это, как мультипликационная анимация события - фиксирует его внешний вид, но без глубины, то модель - это повторное воспроизведение. Таким образом, математическая модель нервного импульса должна иметь те же подвижные части, что и сам нерв. Каждая переменная должна быть сопоставима с реальным физическим объектом, а их взаимодействие должно отражать реальный мир. Именно это и обеспечила эквивалентная схема Лапика: уравнение, в котором термины можно интерпретировать.

Еще до Лапика другие исследователи заметили сходство между электрическими инструментами, используемыми для изучения нерва, и самим нервом. Лапик в значительной степени опирался на работы Вальтера Нернста, который заметил, что способность мембраны разделять ионы может лежать в основе потенциала действия. Другой ученик дю Буа-Реймона, Людимар Герман, говорил о нерве в терминах конденсаторов и резисторов. И даже сам Гальвани представлял себе нерв, работающий аналогично его лейденской банке. Но Лапик с его явной эквивалентной схемой и количественным соответствием данным сделал еще один шаг вперед в аргументации в пользу нерва как точного электрического устройства. Как он писал: "Физическая интерпретация, к которой я пришел сегодня, придает точный смысл нескольким важным ранее известным фактам о возбудимости... Мне кажется, это повод считать ее шагом в направлении реализма".

Из-за ограниченного оборудования большинство нейробиологов того времени записывали данные с целых нервов. Нервы представляют собой пучки аксонов - волокон, по которым отдельные нейроны передают сигналы другим клеткам. Записывая сразу множество аксонов, легче уловить изменения тока, которые они производят, но сложнее увидеть детальную форму этих изменений. Однако, вставляя электрод в один нейрон, можнонапрямую регистрировать напряжение на его мембране. Как только в начале XX века появилась технология наблюдения за отдельными нейронами, потенциал действия стал гораздо более понятным.

Одна из определяющих особенностей потенциала действия, замеченная английским физиологом Эдгаром Адрианом в 1920-х годах, - принцип "все или ничего". Принцип "все или ничего" гласит, что нейрон либо испускает потенциал действия, либо нет - ничего промежуточного. Другими словами, каждый раз, когда нейрон получает достаточно входного сигнала, напряжение на его мембране меняется - и меняется абсолютно одинаково. Поэтому, как гол в хоккее считается одинаково, независимо от того, с какой силой шайба забита в сетку, так и сильная стимуляция нейрона не делает его потенциал действия больше или лучше. Все, что может сделать сильная стимуляция, - это заставить нейрон излучать больше точно таких же потенциалов действия. Таким образом, нервная система больше заботится о количестве, чем о качестве.

Природа нейрона "все или ничего" согласуется с интуицией Лапика о пороге. Он знал, что напряжение на мембране должно достичь определенного значения, чтобы нерв отреагировал. Но как только оно достигало этого значения, ответ был ответом.

К 1960-м годам принцип "все или ничего" был объединен с уравнением Лапика в математическую модель, известную как "нейрон с утечкой и огнем" (leaky integrate-and-fire neuron):"утечка" - потому что наличие резистора означает утечку части тока; "интеграция" - потому что конденсатор интегрирует оставшуюся часть тока и сохраняет ее в виде заряда; и "огонь" - потому что, когда напряжение на конденсаторе достигает порога, нейрон "выстреливает", или излучает потенциал действия. После каждого "выстрела" напряжение возвращается к исходному уровню, чтобы снова достичь порога, если на нейрон подается больше входного сигнала.

Несмотря на простоту модели, она может воспроизводить особенности работы реальных нейронов: например, при сильном и постоянном входном сигнале нейрон модели будет многократно запускать потенциалы действия с небольшой задержкой между каждым из них; если же входной сигнал достаточно слабый, он может оставаться включенным бесконечно долго, не вызывая ни одного потенциала действия.

Эти модельные нейроны можно также заставить образовывать связи - соединяться друг с другом таким образом, чтобы возбуждение одного из них генерировало входной сигнал для другого. Это дает моделистам более широкие возможности: воспроизводить, изучать и понимать поведение не только отдельных нейронов, но и целых сетей.

С момента своего появления такие модели использовались для изучения множества аспектов работы мозга, включая болезни. Болезнь Паркинсона - это заболевание, при котором нарушается работа нейронов в базальных ганглиях. Расположенные глубоко в мозге, базальные ганглии состоят из множества областей с замысловатыми латинскими названиями. Когда при болезни Паркинсона нарушается питание одной из областей - стриатума, это выводит из равновесия остальные базальные ганглии. В результате изменений в стриатуме субталамическое ядро (еще одна область базальных ганглиев) начинает активнее работать, что вызывает возбуждение нейронов во внешнем глобусе паллидуса (еще одна область базальных ганглиев). Но эти нейроны посылают связи обратно в субталамическое ядро, котороене дает этим нейронам разгореться еще больше, что, в свою очередь, отключает и сам внешний паллидус глобуса. Результатом этой сложной сети связей являются осцилляции: нейроны в этой сети стреляют больше, потом меньше, потом снова больше. Эти ритмы, по-видимому, связаны с двигательными проблемами пациентов с болезнью Паркинсона - тремором, замедленными движениями и ригидностью.

В 2011 году исследователи из Фрайбургского университета построили компьютерную модель этих областей мозга, состоящую из 3 000 негерметичных интегративных и огневых нейронов. В модели нарушение работы клеток, представляющих стриатум, вызывало те же проблемные волны активности, которые наблюдаются в субталамических ядрах у пациентов с болезнью Паркинсона. Модель, демонстрирующая признаки заболевания, может быть использована для изучения способов его лечения. Например, введение импульсов входного сигнала в субталамическое ядро модели разрушало эти волны и восстанавливало нормальную активность. Но импульсы должны были быть в правильном темпе - слишком медленные колебания ухудшались, а не улучшались. Глубокая стимуляция мозга - процедура, при которой импульсы электрической активности вводятся в субталамическое ядро пациентов с болезнью Паркинсона, - как известно, помогает облегчить тремор. Врачи, использующие этот метод лечения, также знают, что частота импульсов должна быть высокой - около 100 раз в секунду. Эта модель дает подсказку, почему высокая частота стимуляции работает лучше, чем низкая. Таким образом, моделирование мозга как серии взаимосвязанных цепей позволяет понять, как применение электричества может регулировать его работу.

Изначально Лапика интересовало время возникновения нейронных импульсов. Собрав воедино нужные компоненты электрической цепи, он правильно уловил время возникновения потенциалов действия, но создание этой схемы, заменяющей нейрон, сделало нечто большее. Он создалпрочный фундамент, на котором можно было построить огромные сети из тысяч взаимосвязанных клеток. Теперь компьютеры по всему миру перебирают уравнения этих искусственных нейронов, моделируя, как настоящие нейроны интегрируются и работают в условиях здоровья и болезни.

* * *

Летом 1939 года Алан Ходжкин отправился на маленькой рыбацкой лодке к южному побережью Англии. Его целью было поймать немного кальмаров, но в основном его мучила морская болезнь.

В то время Ходжкин, научный сотрудник Кембриджского университета, только прибыл в Морскую биологическую ассоциацию в Плимуте, чтобы приступить к новому проекту по изучению электрических свойств гигантского аксона кальмара. В частности, он хотел узнать, как потенциал действия приобретает характерную форму "вверх-вниз" (часто называемую "спайком"). Через несколько недель к нему присоединился такой же "зеленый" студент Эндрю Хаксли. К счастью, в конце концов они выяснили, когда и где в море можно найти объект их исследований.

Хотя Хаксли был студентом Ходжкина, между ними было всего четыре года разницы в возрасте. Ходжкин выглядел как подобает английскому джентльмену: длинное лицо, острые глаза, волосы аккуратно разделены на пробор и уложены набок. Хаксли был немного более мальчишеским, с круглыми щеками и густыми бровями. Оба мужчины обладали знаниями в области биологии и физики, хотя каждый из них пришел к этой паре с противоположной стороны.

Ходжкин в основном изучал биологию, но в последний семестр профессор зоологии посоветовал ему изучитькак можно больше математики и физики. Ходжкин согласился, часами просиживая над учебниками по дифференциальным уравнениям. Хаксли давно интересовался механикой и инженерией, но переключился на биологию после того, как друг сказал ему, что на уроках физиологии преподаются более живые и спорные темы. Возможно, Хаксли также привлекло к этим предметам влияние его деда. Биолог Томас Генри Хаксли, известный как "бульдог Дарвина" за свою яростную защиту дарвиновской теории эволюции, описывал физиологию как "механическую инженерию живых машин".

Модель Лапика предсказывала, когда клетка выстрелит, но она все еще не объясняла, что именно представляет собой потенциал действия. Во время путешествия Ходжкина на лодке все еще существовала теория того, что происходит, когда нейрон испускает потенциал действия, выдвинутая самим наблюдателем потенциала действия Джулиусом Бернштейном. Она гласила, что во время этого электрического события клеточная мембрана временно разрушается. Поэтому она пропускает через себя ионы разных видов, стирает разницу зарядов, которая обычно существует между ними, и создает небольшой ток, который Бернштейн наблюдал с помощью своего гальванометра.

Но некоторые из предыдущих экспериментов Ходжкина с крабами подсказали ему, что это может быть не совсем верно. Он решил продолжить эту работу на кальмаре, поскольку большой размер аксона, проходящего вдоль его мантии, облегчал точные измерения.6Воткнув электрод в этот аксон, Ходжкин и Хаксли записали изменения напряжения, которые происходили во время потенциала действия (см. рис. 3). Они увидели явный "перебор". То есть напряжение не просто падало до нуля, как в случае с разряженным конденсатором, апротивоположное. В то время как нейрон обычно имеет больше положительного заряда на внешней стороне клетки, чем на внутренней, во время пика потенциала действия эта картина меняется на противоположную, и внутренняя сторона становится более положительно заряженной, чем внешняя. Простое пропускание большего количества ионов через мембрану не привело бы к такому разделению. Здесь действует нечто более избирательное.

Спустя некоторое время после того, как Ходжкин и Хаксли сделали это открытие, их работа, к сожалению, была прервана. Гитлер вторгся в Польшу. Мужчинам пришлось оставить лабораторию и присоединиться к военным действиям. Разгадка тайны потенциала действия должна была подождать.

 

Рисунок 3

Когда восемь лет спустя Ходжкин и Хаксли вернулись в Плимут, лабораторию пришлось собирать заново: здание разбомбили во время воздушных налетов, а оборудование перешло к другим ученым.Но мужчины, каждый из которых приобрел дополнительные количественные навыки в результате работы в военное время - Хаксли занимался анализом данных дляартиллерийского дивизиона Королевского флота, а Ходжкин разрабатывал радарные системы для ВВС, - с нетерпением ждали возможности вернуться к работе над физическими механизмами нервного импульса.

В течение многих последующих лет Ходжкин и Хаксли (им помогал коллега-физиолог Бернард Кац) играли с ионами. Удалив из среды нейрона определенный тип ионов, они смогли определить, какие части потенциала действия зависят от тех или иных видов заряженных частиц. Нейрон, содержащийся в ванне с меньшим количеством натрия, меньше проскакивал. Если в ванну добавляли калий, то у нейрона исчезало проскакивание - эффект, возникающий в самом конце потенциала действия, когда внутренняя поверхность клетки становится более отрицательной, чем обычно. Пара также экспериментировала с техникой, которая позволяла им напрямую контролировать напряжение на клеточной мембране. Изменение баланса зарядов приводило к значительным изменениям в потоке ионов в клетку и из нее. Уберите разницу в зарядах через мембрану, и запасы натрия вне клетки внезапно хлынут внутрь; подержите клетку в таком состоянии еще немного, и ионы калия изнутри клетки устремятся наружу.

Результатом всех этих манипуляций стала модель. В частности, Ходжкин и Хаксли сгустили свои с таким трудом добытые знания о нюансах работы нейронных мембран в виде эквивалентной схемы, а вместе с ней и соответствующего набора уравнений. Однако эта эквивалентная схема была сложнее, чем схема Лапика. В ней было больше подвижных частей, поскольку она была нацелена на объяснение не только момента возникновения потенциала действия, но и всей формы самого события. Но главное отличие сводилось к сопротивлению.


В дополнение к резистору, который Лапик поставил параллельно мембранному конденсатору, Ходжкин и Хаксли добавили еще два - один специально контролировал поток ионов натрия, а другой - поток ионов калия. Такое разделение резисторов предполагало, что разные каналы в клеточной мембране избирательно пропускают разные типы ионов. Более того, сила этих резисторов - то есть степень, в которой они блокируют поток соответствующих ионов, - не является фиксированным параметром в модели. Вместо этого они зависят от состояния напряжения на конденсаторе. Для этого клетка открывает или закрывает свои ионные каналы при изменении напряжения на ее мембране. Таким образом, мембрана клетки действует как вышибала в клубе: она оценивает популяцию частиц по обе стороны от себя и использует это для определения того, какие ионы могут войти в клетку и выйти из нее.

Определив уравнения этой схемы, Ходжкин и Хаксли хотели прогнать цифры, чтобы проверить, действительно ли напряжение на конденсаторе модели будет имитировать характерные "хлюп" и "ух" потенциала действия. Однако возникла проблема. В Кембридже находился один из самых ранних цифровых компьютеров, который мог бы значительно ускорить вычисления Ходжкина и Хаксли, но он был нерабочим. Поэтому Хаксли обратился к Brunsviga - большому металлическому калькулятору, приводимому в действие ручным кривошипом. Сидя днями за вычислением значения напряжения в один момент времени, чтобы вычислить, каким оно будет в следующую одну десятитысячную долю секунды, Хаксли на самом деле находил эту работу несколько напряженной. Как он сказал в своей Нобелевской лекции: "Это было довольно часто захватывающе... Будет липотенциалмембранывыливаться в спайк или погибнет в подпороговом колебании? Очень часто мои ожидания оказывались неверными, и важным уроком, который я извлек из этих ручных вычислений, была полная неадекватность интуиции при попытке справиться с системой такой степени сложности".

Закончив расчеты, Ходжкин и Хаксли получили набор искусственных потенциалов действия, поведение которых практически идеально повторяло спайк настоящего нейрона.

При подаче тока клетка модели Ходжкина-Хаксли демонстрирует сложный танец изменения напряжения и сопротивления. Сначала входной ток борется с естественным состоянием клетки: он добавляет некоторый положительный заряд к в основном отрицательному внутри клетки. Если это первоначальное нарушение напряжения мембраны достаточно велико - то есть если достигнут порог, - натриевые каналы начинают открываться, и в клетку устремляется поток положительно заряженных ионов натрия. Это создает петлю положительной обратной связи: приток ионов натрия повышает положительный заряд внутри клетки, а возникающее при этом изменение напряжения еще больше снижает натриевое сопротивление. Вскоре разница в заряде через мембрану исчезает. Внутренняя часть клетки на короткое время становится такой же положительной, как и внешняя, а затем еще больше - "проскакивает". В это время открываются калиевые каналы, позволяя положительно заряженным ионам калия выйти из клетки. Натриевые и калиевые каналы работают как двери салона: один впускает ионы, другой выпускает, но теперь ионы калия движутся быстрее. Работа ионов калия изменяет тенденцию изменения напряжения. Поскольку этот отток калия снова делает внутреннюю поверхность клетки более отрицательной, натриевые каналы закрываются. Происходит восстановление разделения зарядов через мембрану . По мере того как напряжение приближается к исходному значению, положительный заряд продолжает вытекать из все еще открытых калиевых каналов - "недозаряд". В конце концов они закрываются, напряжение восстанавливается, и клетка возвращается в нормальное состояние, готовая к новому выстрелу. Все это занимает менее половины одной сотой секунды.

По словам Ходжкина, пара построила эту математическую модель, потому что "сначала можно было подумать, что реакция нерва на различные электрические стимулы слишком сложна и разнообразна, чтобы объяснить ее с помощью этих относительно простых выводов". Но они объяснили ее. Подобно жонглеру, нейрон сочетает простые части простыми способами, чтобы создать великолепный замысловатый спектакль. Модель Ходжкина-Хаксли позволяет понять, что потенциал действия - это тонко контролируемый взрыв, происходящий в вашем мозге миллиард раз в секунду.

Пара опубликовала свои работы - как экспериментальные, так и расчетные - в 1952 году в журнале Journal of Physiology. Одиннадцать лет спустя они были удостоены двух третей Нобелевской премии за "открытия, касающиеся ионных механизмов, участвующих в возбуждении и торможении в периферической и центральной частях мембраны нервной клетки". Если у кого-то из биологов и оставались сомнения в том, что нервный импульс можно объяснить с точки зрения ионов и электричества, то работа Ходжкина и Хаксли положила им конец.

* * *

"Тело и дендриты нервной клетки специализируются на приеме и интеграции информации, которая передается в виде импульсов, исходящих от других нервных клеток по их аксонам" (выделено автором). Этим скромным предложением Джон Экклз, австралийский нейрофизиолог и третий лауреат премии наряду с Ходжкином и Хаксли, начал свою Нобелевскую лекцию. Далее в лекции описываются тонкости ионных потоков, которые возникают, когда одна клетка посылает информацию другой.

О чем в лекции не говорится, так это о дендритах. Дендриты - это пушистые усики, которые растут из клеточного тела нейрона. Эти отростки, подобно корням деревьев, ветвятся, тянутся и снова ветвятся, покрывая обширную область вокруг клетки. Клетка распускает свою дендритную сеть среди соседних клеток, чтобы получить от них информацию.

У Экклза были сложные отношения с дендритами. Изучаемый им тип нейронов, найденный в спинном мозге кошек, имел сложные дендритные отростки. Их длина во всех направлениях примерно в 20 раз превышала размер тела клетки. Однако Экклз не считал, что эта клеточная корневая система имеет большое значение. Он признал, что части дендритов, расположенные ближе к телу клетки, могут иметь определенную пользу: аксоны от других нейронов приземляются на эти участки, и их входные сигналы сразу же попадают в тело клетки, где они могут способствовать возникновению потенциала действия. Но, по его мнению, те, что находятся дальше, просто слишком удалены, чтобы сделать много: их сигнал не переживет путешествие к телу клетки. Вместо этого он предположил, что клетка использует эти руки для поглощения и изгнания заряженных частиц, чтобы поддерживать общий химический баланс в норме. Таким образом, в глазах Экклза дендриты были, как максимум, фитилем, доносящим пламя до тела клетки, и, как минимум, соломинкой, всасывающей ионы.

Позиция Экклза в отношении дендритов поставила его в противоречие с его студентом, Уилфридом Раллом.Ралл получил степень по физикев Йельском университете в 1943 году, но после работы в Манхэттенском проекте заинтересовался биологией. В 1949 году он переехал в Новую Зеландию, чтобы вместе с Экклзом изучать эффекты стимуляции нервов.

Учитывая его опыт, Ралл быстро обратился к математическому анализу и моделированию, чтобы понять такую сложную систему, как биологическая клетка. Его вдохновили и вдохновили работы Ходжкина и Хаксли, о которых он узнал, когда Ходжкин посетил Чикагский университет, где Ралл получал степень магистра. Имея в голове эту математическую модель, Ралл подозревал, что дендриты способны на большее, чем им приписывал Экклз. После работы в Новой Зеландии Ралл посвятил значительную часть своей карьеры доказательству возможностей дендритов - и, в свою очередь, доказательству возможностей математических моделей предвосхищать открытия в биологии.

Опираясь на аналогию клетки с электрической цепью, Ралл смоделировал тонкие нити дендритов так, как они и выглядели: как кабели. В рамках "кабельной теории" каждый участок дендрита рассматривается как очень узкий провод, ширина которого, как и обнаружил Ом, определяет его сопротивление. Соединяя эти участки вместе, Ралл исследовал, как электрическая активность на дальнем конце дендрита может дойти до тела клетки или наоборот.

Однако добавление новых деталей к этой математической модели означало, что нужно пересчитать больше цифр. В Национальном институте здоровья (NIH) в Бетесде, штат Мэриленд, где работал Ралл, не было цифрового компьютера, подходящего для некоторых из его больших симуляций.Когда Ралл хотел прогнатьуравнения модели с обширными дендритами, Марджори Вайс, программист из NIH, везла коробку с перфокартами с инструкциями в Вашингтон, чтобы запустить их на тамошнем компьютере. Ралл смог увидеть результаты работы своей модели только после ее возвращения на следующий день.

С помощью своих сложных математических вычислений Ралл ясно показал - вопреки убеждениям Экклза, - что клеточное тело с дендритами может иметь совсем другие электрические свойства, чем тело без дендритов. Краткое описание расчетов Ралла, опубликованное в 1957 году, положило начало многолетней дискуссии между двумя мужчинами в виде целого ряда публикаций и презентаций.8 Каждый указывал на экспериментальные данные и собственные расчеты в поддержку своей стороны. Но постепенно, с течением времени, позиция Экклза менялась. К 1966 году он публично признал дендриты в качестве важного винтика в нейронном механизме. Ралл был прав.

Кабельная теория не просто разоблачила ошибку Экклза. Она также дала Раллу возможность изучить в уравнениях множество волшебных вещей, которые могут делать дендриты, пока не появились экспериментальные методы. Одной из важных способностей, выявленных Раллом, было обнаружение порядка. В своих симуляциях Ралл увидел, что порядок, в котором дендрит получает входные сигналы, имеет важные последствия для реакции клетки. Если входной сигнал поступает сначала на дальний конец дендрита, а затем все больше и больше входов ближе и ближе к телу клетки, клетка может выстрелить. Однако, если схема изменится на противоположную, этого не произойдет. Это происходит потому, что входные сигналы, поступающие далеко от тела клетки, добираются до него дольше. Таким образом, запуск входов с дальнего конца означает, что все они достигают тела клетки в одно и то же время. Это вызывает сильное изменение напряжения на мембране и, возможно, всплеск. В противоположном случае входные сигналы поступают в разное время, что приводит лишь к среднему изменению напряжения. В забеге, где бегуны стартуют в разное время и в разных местах, единственный способ заставить их пересечь финишную черту вместе - это дать старт более дальним.

Ралл сделал это предсказание в 1964 году. В 2010 году было доказано, что оно верно на реальных нейронах. Чтобы проверить гипотезу Ралла, исследователи из Университетского колледжа Лондона взяли образец нейронов из мозга крысы. Поместив эти нейроны в блюдо, они смогли тщательно контролировать выделение нейротрансмиттеров на определенных участках дендрита - участках, отстоящих друг от друга всего на пять микрон (или на ширину эритроцита). Когда сигнал поступал от конца дендрита к его корню, клетка реагировала на него в 80 процентах случаев. В другом направлении она реагировала лишь в два раза реже.

Эта работа показывает, что даже самая маленькая частичка биологии имеет свое предназначение. То, что участки дендрита могут работать как клавиши фортепиано, где одни и те же ноты можно играть по-разному, добиваясь разного эффекта, дает нейронам новые трюки. В частности, она наделяет нейроны способностью распознавать последовательности. Существует множество случаев, когда входные сигналы, проходящие по дендриту в одном направлении, должны обрабатываться иначе, чем входные сигналы, проходящие в другом направлении. Например, нейроны в сетчатке глаза обладают подобной "селективностью направления". Это позволяет им сигнализировать о том, в какую сторону движутся объекты в поле зрения.


На многих уроках естествознания ученикам дают небольшие наборы электрических схем, с которыми они могут поиграть. Они могут использовать провода с разным сопротивлением для соединения конденсаторов и батарей, чтобы заставить лампочку загореться или вентилятор вращаться. Примерно таким же образом неврологи строят модели нейронов. Имея список основных деталей электрической цепи, можно имитировать практически любое наблюдаемое свойство активности нейрона. Ралл помог добавить в этот набор новые детали.

* * *

Если стандартная модель нейрона - это небольшой дом, построенный из кирпичиков электротехники, то модель, созданная в рамках проекта Blue Brain Project в 2015 году, - это целый мегаполис. Восемьдесят два ученых из 12 институтов работали вместе в рамках этого беспрецедентного сотрудничества. Их целью было воспроизвести часть мозга крысы размером с крупную песчинку. Они изучили результаты предыдущих исследований и потратили годы на собственные эксперименты, чтобы собрать все возможные данные о нейронах в этой области. Они определили, какие ионные каналы они используют, какова длина их аксонов, форма дендритов, как тесно они расположены друг к другу и как часто они соединяются. Благодаря этому они определили 55 стандартных форм, которые могут принимать нейроны, 11 различных профилей электрического ответа и множество различных способов взаимодействия.

Они использовали эти данные для создания симуляции - симуляции, включающей более 30 000 высокодетализированных моделей нейронов, образующих 36 миллионов связей. Для создания полной модели потребовался специально построенный суперкомпьютер, чтобы прогнать миллиарды уравнений, которые ее определяли. Однако вся этасложность все равно основывалась на тех же базовых принципах Лапика, Ходжкина, Хаксли и Ралла. Ведущий исследователь проекта, Идан Сегев, резюмировал подход: "Используйте Ходжкина-Хаксли в расширенном виде и постройте симуляцию того, как эти клетки активны, чтобы получить музыку - электрическую активность - этой сети нейронов, которая должна имитировать реальную биологическую сеть, которую вы пытаетесь понять".

Как показала команда в своей публикации, документирующей работу, модель смогла воспроизвести несколько особенностей реальной биологической сети. Симуляция показала схожие последовательности импульсов с течением времени, разнообразие ответов разных типов клеток и осцилляции. Эта реальная модель не только воспроизводит результаты прошлых экспериментов, но и позволяет быстро и легко проводить новые эксперименты. Воссоздание биологии в компьютере делает виртуальные исследования этой области мозга такими же простыми, как написание нескольких строк кода - подход, известный как нейронаука "in silico".

Проведение таких симуляций может дать хорошие прогнозы только в том случае, если модель, лежащая в их основе, является разумным подобием биологии. Благодаря Лапику мы знаем, что использование уравнений электрической цепи в качестве аналога нейрона - это надежный фундамент для построения моделей мозга. Именно его аналогия положила начало изучению нерва как электрического устройства. А развитие его аналогии бесчисленным количеством других ученых - многие из которых обучались как физике, так и физиологии - еще больше расширило ее объяснительную силу. Нервная система - вопреки интуиции Мюллера - оживает благодаря потоку электричества, и ее изучение, несомненно, оживилось благодаря изучению электричества.

 

Глава 3. Учимся вычислять

перцептрон и искусственные нейронные сети

Математик Кембриджского университета Бертран Рассел в начале XX века потратил 10 лет на достижение монументальной цели: определить философские корни, из которых проистекает вся математика. В сотрудничестве со своим бывшим учителем Альфредом Уайтхедом этот амбициозный проект вылился в книгу "Principia Mathematica", которая была сдана в издательство с опозданием и превышением бюджета. Авторам пришлось самим участвовать в издательских расходах, чтобы довести дело до конца, и в течение 40 лет они не получали никаких гонораров.

Но финансовое препятствие было, пожалуй, самым незначительным в завершении работы над этим опусом. Расселу пришлось бороться с собственным волнением по поводу научного материала. Согласно его автобиографии, он проводил дни, уставившись в чистый лист бумаги, а вечера размышлял о том, чтобы прыгнуть под поезд. Работа над книгой также совпала с расторжением брака Рассела и напряжением его отношений с Уайтхедом - который, по словам Рассела, в то время вел свои собственные душевные и супружеские битвы. Работа над книгой требовала даже физических усилий: Рассел проводил по 12 часов в день за письменным столом, выписывая сложную символику, необходимуюдля передачи его сложных математических идей, а когда пришло время нести рукопись в издательство, она оказалась слишком большой для него. Несмотря на все это, Рассел и Уайтхед в конце концов закончили и опубликовали текст, который, как они надеялись, укротит кажущееся диким состояние математики.

Концепция Principia заключалась в том, что вся математика может быть сведена к логике. Другими словами, Рассел и Уайтхед считали, что горстка основных утверждений, известных как "выражения", может быть объединена правильным образом для создания всех формализмов, утверждений и выводов математиков. Эти выражения не были основаны на каких-либо наблюдениях за реальным миром. Скорее, они должны были быть универсальными. Например, выражение: если X истинно, то утверждение "X истинно или Y истинно" также истинно. Такие выражения состоят из пропозиций - фундаментальных логических единиц, которые могут быть либо истинными, либо ложными и записываются в виде букв X или Y. Эти пропозиции объединяются с булевыми операторами, такими как "и", "или" и "не".

В первом томе "Principia" Рассел и Уайтхед привели менее двух десятков таких абстрактных выражений. Из этих скромных семян они построили математику. Они даже смогли триумфально заключить - после десятков заполненных символами страниц - что 1+1=2.

Демонстрация Расселом и Уайтхедом того, что все величие математики можно передать с помощью простых правил логики, имела огромное философское значение, поскольку она стала доказательством силы логики. Более того, это означало, что последующее открытие, сделанное другой парой мужчин примерно 30 лет спустя, будет иметь огромные последствия само по себе. Это открытие говорило о том, что нейроны, просто в силу особенностей своей анатомии и физиологии, выполняют правила логики. Оно произвело революцию в изучении мозга и самого интеллекта.

* * *

Когда уроженцу Детройта Уолтеру Питтсу было всего 12 лет, он получил приглашение Рассела поступить к нему в аспирантуру Кембриджского университета. Как рассказывают, мальчик наткнулся на экземпляр "Принципиума", забежав в библиотеку, чтобы избежать нападок хулиганов. Читая, Питтс обнаружил, по его мнению, ошибки в работе. Поэтому он отправил свои заметки на эту тему Расселу, который, предположительно не зная о возрасте мальчика, предложил ему должность. Питтс не согласился. Но несколько лет спустя, когда Рассел гостил в Чикагском университете, Питтс пришел на его лекции. Убежав из жестокой семьи в Чикаго, Питтс решил не возвращаться. Он остался в городе бездомным.

К счастью, в Чикагском университете был еще один всемирно известный логик, которого Питтс мог критиковать, - Рудольф Карнап. Питтс снова написал заметки - на этот раз с указанием проблем в недавней книге Карнапа "Логический синтаксис языка" - и доставил их в офис Карнапа в Чикагском университете. Питтс пробыл там недолго, чтобы услышатьреакцию , но Карнап, впечатленный, в конце концов разыскал Питтса, которого он называл "новобранцем, понимающим логику". В этом случае философ, которого он критиковал, действительно заставил Питтса работать с ним. Хотя он никогда не был официально зачислен в университет, Питтс эффективно функционировал как аспирант Карнапа и общался с группой ученых, которые интересовались математикой биологии.

Интерес Уоррена Маккалоха к философии принял более традиционную форму. Он родился в Нью-Джерси, изучал этот предмет (наряду с психологией) в Йельском университете и читал многих великих. Больше всего он был увлечен Иммануилом Кантом и Готфридом Лейбницем (чьи идеи оказали большое влияние на Рассела), а Principia он прочитал в возрасте 25 лет. Но, несмотря на бороду на длинном лице, Маккаллох не был философом - он был физиологом. Он учился в медицинской школе на Манхэттене, а затем наблюдал за множеством способов, которыми мозг может сломаться, будучи интерном по неврологии в больнице Бельвью и в психиатрической больнице штата Рокланд. В 1941 году он поступил на работу в Иллинойский университет в Чикаго в качестве директора лаборатории фундаментальных исследований на кафедре психиатрии.

Как и во всех других замечательных историях происхождения, существуют противоречивые сведения о том, как Маккаллох и Питтс познакомились. Одна из них утверждает, что это произошло, когда Маккаллох выступал перед исследовательской группой, в которую входил Питтс. По другой версии, их познакомил Карнап. И наконец, современник этих двух людей, Джером Леттвин, утверждает, что это он их познакомил и что все трое сблизились из-за взаимной любви к Лейбницу.бы то ни было, к 1942 году 43-летний Маккаллох и его жена взяли 18-летнего Питтса к себе домой,, и двое мужчин проводили вечера, попивая виски и обсуждая логику

В начале двадцатого века среди ученых существовала прочная стена между "разумом" и "телом". Разум считался внутренним и нематериальным, а тело, включая мозг, - физическим. Исследователи по обе стороны этой стены старательно, но раздельно работали над своими проблемами. Биологи, как мы видели в предыдущей главе, усердно работали над раскрытием физических механизмов нейронов: с помощью пипеток, электродов и химических веществ выясняли, что и как вызывает спайк. Психиатры, с другой стороны, пытались раскрыть механизмы разума с помощью длительных сеансов фрейдистского психоанализа. Мало кто из представителей обеих сторон пытался взглянуть через стену на другую. Они говорили на разных языках и стремились к разным целям. Для большинства практиков вопрос о том, как нейронные блоки могут создать структуру разума, оставался не просто без ответа, он был незаданным.

Но Маккалох еще во время учебы в медицинском колледже погрузился в среду ученых, которых волновал этот вопрос, и дал им возможность поразмышлять над ним. В конце концов, благодаря своим физиологическим наблюдениям, он пришел к догадке. Он увидел в зарождающихся концепциях нейронауки возможность соотнести их с понятиями логики и вычислений, которые он так любил в философии. Если рассматривать мозг как вычислительное устройство, подчиняющееся правилам логики, а не просто мешок белков и химикатов, то это открывало бы путь к пониманию мышления в терминах нейронной активности.


Аналитические способности, однако, были не тем, в чем преуспел Маккалох. Некоторые, кто знал его, говорят, что он был слишком большим романтиком, чтобы его могли удержать подобные детали. Поэтому, несмотря на то, что он годами вынашивал эти идеи в уме и в разговорах (даже будучи стажером в Бельвью, его обвиняли в том, что он "пытается написать уравнение работы мозга"), Маккаллох не мог решить несколько технических вопросов, как воплотить их в жизнь. Питтс, однако, был сравнительно невозмутим в аналитическом плане. Как только он заговорил с ним об этом, Питтс понял, какие подходы необходимы для формальной реализации интуиции Маккаллоха. Вскоре после их встречи была написана одна из самых влиятельных работ по вычислениям.

Работа "Логическое исчисление идей, имманентных нервной деятельности" была опубликована в 1943 году. Статья занимает 17 страниц, содержит множество уравнений, всего три ссылки (одна из которых - на Principia) и один рисунок, состоящий из маленьких нейронных цепей, нарисованных дочерью Маккалоха.

Статья начинается с обзора биологии нейронов, которая была известна в то время: нейроны имеют тела клеток и аксоны; два нейрона соединяются, когда аксон первого встречается с телом второго; через это соединение один нейрон обеспечивает вход для другого; определенное количество входа необходимо для того, чтобы нейрон выстрелил; клетка либо выпускает спайк, либо нет - никаких полуспайков или промежуточных спайков; и вход от некоторых нейронов - тормозных нейронов - имеет способность предотвращать спайк клетки.


Далее Маккалох и Питтс объясняют, как эти биологические детали согласуются с булевой логикой. Суть их утверждения заключается в том, что состояние активности каждого нейрона - либо стреляет, либо нет - подобно истинностному значению предложения - истинно или ложно. По их собственным словам, они "представляют себе реакцию любого нейрона как фактический эквивалент предложения, которое предложило его адекватный стимул".

Под "адекватным стимулом" они подразумевают нечто, относящееся к миру. Представьте себе нейрон в зрительной коре, активность которого представляет собой утверждение "текущий визуальный стимул похож на утку". Если нейрон работает, это утверждение истинно; если нейрон не работает, оно ложно. Теперь представьте другой нейрон в слуховой коре, который представляет утверждение "текущий слуховой стимул крякает, как утка". Опять же, если этот нейрон работает, то утверждение истинно, в противном случае оно ложно.

Теперь мы можем использовать связи между нейронами для выполнения булевых операций. Например, подав на вход третьего нейрона сигналы от обоих этих нейронов, мы можем реализовать правило "если он выглядит как утка и крякает как утка, то это утка". Все, что нам нужно сделать, - это построить третий нейрон таким образом, чтобы он срабатывал только в том случае, если оба его входных нейрона срабатывают. Таким образом, и "выглядит как утка", и "крякает как утка" должны быть истинными, чтобы вывод, представленный третьим нейроном ("это утка"), был истинным.

Здесь описана простая схема, необходимая для реализации булевой операции "и". Маккалох и Питтс в своей статье показывают, как реализовать многие другие. Реализация операции "или" очень похожа, однако сила связей от каждого нейрона должна быть настолько сильной, чтобы одного входа было достаточно, чтобы выходной нейрон сработал. В данном случае нейрон "это утка" сработает, еслисработает нейрон "выглядит как утка"или нейрон "крякает как утка" (или оба). Авторы даже показывают, как объединить несколько булевых операций. Например, чтобы реализовать утверждение типа "X, а не Y", нейрон, представляющий X, подключается к выходному нейрону с силой, достаточной для того, чтобы он сработал. Но нейрон, представляющий Y, ингибирует выходной нейрон, то есть не дает ему сработать. Таким образом, выходной нейрон будет работать только в том случае, если нейрон, представляющий X, работает, а нейрон, представляющий Y, - нет (см. рис. 4).

Эти схемы, призванные представить то, что могут делать сети настоящих нейронов, стали называться искусственными нейронными сетями.

Рисунок 4

Способность разглядеть логику во взаимодействии нейронов пришла к Маккаллоху благодаря его проницательному глазу. Будучи физиологом, он знал, что нейроны устроены сложнее, чем можно было предположить по простым рисункам и уравнениям.У них есть мембраны, ионные каналы и развивающиеся пути. Но для теории не нужна была вся их сложность. Поэтому, подобно художнику-импрессионисту, использующему только необходимые мазки, он намеренно выделил только те элементы нейронной активности, которые требовались для истории, которую он хотел рассказать. Тем самым он продемонстрировал артистизм, присущий построению моделей: решение о том, какие факты должны быть на первом плане, - субъективный и творческий процесс.

Радикальная история, которую Маккалох и Питтс рассказали с помощью своей модели - о том, что нейроны выполняют логическое исчисление, - была первой попыткой использовать принципы вычислений, чтобы превратить проблему "разум-тело" в проблему "разум-тело". Сети нейронов теперь были наделены всей мощью формальной логической системы. Подобно цепочке падающих домино, как только определенные истинностные значения попадали в нейронную популяцию (скажем, через органы чувств), каскад взаимодействий мог вывести истинностные значения новыхи других утверждений. Это означало, что популяция нейронов могла выполнять бесконечные вычисления: интерпретировать сенсорные данные, делать выводы, формировать планы, рассуждать в спорах, производить вычисления и так далее.

Этим шагом Маккалох и Питтс продвинули изучение человеческой мысли и одновременно сбросили ее с трона. Разум" утратил свой статус таинственного и бесплотного, как только его опустили на твердую землю - то есть свели его грандиозные способности к стрельбе нейронов. Если воспользоваться цитатой из Леттвина, мозг теперь можно считать "машиной, мясистой и чудесной, но все же машиной". Еще более смело ученик Маккаллоха Майкл Арбиб позже заметил, что эта работа "убила дуализм".


Рассел, как известно, сетовал на то, что, несмотря на 20 лет, потраченных на ее написание, и на то влияние, которое она оказала на логиков и философов, Principia мало повлияла на практикующих математиков. Ее новый взгляд на основания математики просто не имел большого значения для тех, кто занимался математикой; он не изменил их повседневную работу. То же самое можно сказать об открытии Маккаллоха и Питтса для нейробиотиков того времени. Биологи, физиологи, анатомы - ученые, которые занимались физическим изучением нейронов в поисках деталей их работы, - мало что почерпнули из теории. Отчасти это объяснялось тем, что было неочевидно, какие эксперименты должны следовать из нее. Но, возможно, это также связано с очень техническими обозначениями в статье и ее не слишком привлекательным стилем изложения. В обзоре по нервной проводимости, написанном три года спустя, автор называет работу Маккалоха-Питтса "не для неспециалиста" и замечает, что для того, чтобы работа в таком стиле была полезной, "физиологам необходимо ознакомиться с математической технологией или математикам хотя бы излагать свои выводы на менее грозном языке". Возможно, стена между разумом и телом и рухнула, но стена между биологом и математиком устояла.

Была отдельная группа людей - группа, обладавшая необходимыми техническими знаниями, - которая проявляла интерес к логическому исчислению нейронов. В послевоенное время серия встреч, организованных филантропическим фондом Мейси, собрала биологов и технологов, многие из которых хотели использовать биологические открытия для создания мозгоподобных машин.Маккаллох был одним из организаторов этих встреч, а среди его коллегбыли "отец кибернетики" Норберт Винер и Джон фон Нейман, изобретатель современной компьютерной архитектуры, на создание которой его непосредственно вдохновили нейроны Маккаллоха-Питтса. Как описал это Леттвин 40 лет спустя: "Вся область неврологии и нейробиологии проигнорировала структуру, смысл и форму теории Маккаллоха и Питтса. Вместо этого те, кого она вдохновила, стали теми, кому суждено было стать поклонниками нового предприятия, которое теперь называется искусственным интеллектом".

* * *

На прошлой неделе Военно-морской флот продемонстрировал зародыш электронного компьютера под названием Perceptron, который, как ожидается, станет первым неживым механизмом, способным "воспринимать, распознавать и идентифицировать окружающую среду без обучения и контроля со стороны человека". [...]

"Д-р Фрэнк Розенблатт, психолог-исследователь из Корнельской аэронавтической лаборатории, Буффало, штат Нью-Йорк, разработчик перцептрона, провел демонстрацию. По его словам, машина станет первым электронным устройством, которое будет думать как человеческий мозг. Как и люди, Perceptron сначала будет совершать ошибки, "но по мере накопления опыта он будет становиться мудрее", - сказал он.

Это краткое изложение из статьи под названием "Электронный "мозг" учит себя сам" появилось в номере New York Times от 13 июля 1958 года напротив письма редактору о продолжающихся дебатах о том, вызывает ли курение рак. Фрэнк Розенблатт, 30-летний архитектор проекта, выходил за рамки своей подготовки в области экспериментальной психологии, чтобы создать компьютер, способный соперничать с самыми передовыми технологиями того времени.


Компьютер, о котором идет речь, был выше инженеров, которые им управляли, и примерно в два раза длиннее. С обеих сторон он был закрыт различными панелями управления и механизмами считывания информации. Для его создания Розенблатт попросил привлечь трех "профессионалов" и связанный с ними технический персонал на 18 месяцев, а сметная стоимость составляла 100 000 долларов (около 870 000 долларов сегодня). Слово "перцептрон", по определению Розенблатта, является общим термином для определенного класса устройств, которые могут "распознавать сходство или идентичность между паттернами оптической, электрической или тональной информации". Перцептрон - компьютер, построенный в 1958 году, - технически относился к подклассу, известному как "фотоперцептрон", поскольку на вход ему подавался сигнал с камеры, установленной на штативе в одном конце машины.

Перцептрон, как и модели, представленные в работе Маккаллоха-Питтса, представлял собой искусственную нейронную сеть. Это была упрощенная копия того, что делают настоящие нейроны и как они соединяются друг с другом. Но вместо того, чтобы оставаться математической конструкцией, существующей только в виде чернил уравнений на странице, перцептрон был физически реализован. Камера обеспечила 400 входов для этой сети в виде сетки датчиков света размером 20x20. Затем провода случайным образом соединили выходы этих датчиков с 1 000 "ассоциативных единиц" - небольшими электрическими цепями, которые суммировали свои входы и в результате переключались на "вкл" или "выкл", как нейрон. Выход этих ассоциативных блоков становился входом для "ответных блоков", которые сами могли быть "включены" или "выключены". Количество единиц ответа было равно количеству взаимоисключающих категорий, к которым могло относиться изображение. Так, если бы ВМС хотели использовать перцептрон, скажемопределения наличия или отсутствия реактивного самолета на изображении, было бы два блока ответа: один для реактивного самолета и один для отсутствия реактивного самолета. На конце машины, напротив камеры, находился набор лампочек, которые позволяли инженеру узнать, какой из блоков реагирования активен, то есть к какой категории относится входной сигнал.

Реализованная таким образом искусственная нейронная сеть была большой и громоздкой, полной переключателей, штепсельных плат и газовых трубок. Такая же сеть, состоящая из настоящих нейронов, была бы меньше крупинки морской соли. Но достижение такой физической реализации было важно. Это означало, что теории о том, как вычисляются нейроны, можно будет проверить в реальном мире на реальных данных. Если работа Маккаллоха-Питтса была направлена на теоретическое доказательство, то перцептрон воплотил ее на практике.

Еще одно важное различие между перцептроном и сетью Маккаллоха-Питтса заключается в том, что, как рассказал Розенблатт в интервью New York Times, перцептрон обучается. В работе Маккаллоха и Питтса авторы не упоминают о том, как возникает связь между нейронами. Она просто определяется в зависимости от того, какую логическую функцию должна выполнять сеть, и остается неизменной. Однако для того, чтобы перцептрон обучался, он должен изменять свои связи.4 Фактически, перцептрон получает всю свою функциональность от изменения силы связи до тех пор, пока она не станет оптимальной.

Тип обучения, в котором участвует перцептрон, известен как "контролируемое" обучение. В пары входов и выходов - например, серию картинок и определяя, есть ликаждой из них реактивный самолет или нет, - перцептрон учится принимать это решение самостоятельно. Для этого он изменяет силу связей - их еще называют "весами" - между ассоциативными блоками и считывающими устройствами.

В частности, когда в сеть поступает изображение, она активирует блоки сначала во входном слое, затем в ассоциативном слое и, наконец, в слое считывания, указывая на решение сети. Если сеть ошибается в классификации, веса изменяются в соответствии с этими правилами:

1. Если блок считывания "выключен", когда он должен быть "включен", соединения от "включенных" ассоциативных блоков к этому блоку считывания усиливаются.

2. Если блок считывания "включен", когда он должен быть "выключен", ослабляются связи от "включенных" ассоциативных блоков к этому блоку считывания.

Следуя этим правилам, сеть начнет правильно ассоциировать изображения с категориями, к которым они относятся. Если сеть научится делать это хорошо, она перестанет совершать ошибки, и веса перестанут меняться.

Эта процедура обучения во многих отношениях была самой замечательной частью перцептрона. Это был концептуальный ключ, который мог открыть все двери. Вместо того чтобы объяснять компьютеру, как именно нужно решать ту или иную задачу, достаточно показать ему несколько примеров решения этой задачи. Это могло произвести революцию в вычислительной технике, и Розенблатт не стеснялся говорить об этом. Он рассказал New York Times, что перцептроны "смогут узнавать людей и называть их имена", "слышать речь на одном языке и мгновенно переводить ее вречь или письмо на другом языке". Он также добавил, что "можно будет создать перцептроны, которые смогут воспроизводить себя на конвейере и которые будут "осознавать" свое существование". Это было, мягко говоря, смелое заявление, и не все были довольны публичной бравадой Розенблатта. Но дух заявления - что компьютер, способный обучаться, ускорит решение практически любой проблемы, - был верен.

Однако за силу обучения пришлось заплатить. Позволяя системе самой определять свою связность, мы фактически отделили эти связи от концепции булевых операторов. Сеть могла научиться связям, которые Маккалох и Питтс определили как необходимые для "и", "или" и т. д. Но не было ни требования, чтобы она это сделала, ни необходимости понимать систему в этом свете. Более того, хотя ассоциативные единицы в перцептроне были спроектированы так, чтобы быть только "включенными" или "выключенными", правило обучения на самом деле не требует, чтобы они были такими. Фактически, уровень активности этих искусственных нейронов может быть любым положительным числом, и правило все равно будет работать.5 Это делает систему более гибкой, но без бинарной реакции "включено"-"выключено" становится сложнее сопоставить активность этих единиц с бинарными истинностными значениями предложений. По сравнению с четкой и ясной логикой сетей Маккаллоха-Питтса, перцептрон представлял собой не поддающийся интерпретации беспорядок. Но он работал. Интерпретируемость была принесена в жертву способностям.


Машина "Перцептрон" и связанная с ней процедура обучения стали популярным объектом изучения в развивающейся области искусственного интеллекта. При переходе от конкретного физического объекта (перцептрона) к абстрактной математической концепции (алгоритму перцептрона) были упразднены отдельные входной и ассоциативный слои. Вместо этого входные блоки, представляющие входящие данные, подключались непосредственно к блокам считывания, и в процессе обучения эти связи менялись, чтобы сеть лучше справлялась со своей задачей. Как и чему может научиться перцептрон в такой упрощенной форме, изучалось со всех сторон. Исследователи изучали его работу математически, используя перо и бумагу, или физически, строя собственные перцептроны, или - когда цифровые компьютеры наконец стали доступны - электронно, моделируя его.

Перцептрон породил надежду на то, что люди смогут создать машины, которые будут обучаться так же, как и мы; таким образом, он сделал перспективу искусственного интеллекта досягаемой. Одновременно он дал новый способ понимания нашего собственного интеллекта. Он показал, что искусственные нейронные сети могут вычислять, не подчиняясь строгим правилам логики. Если перцептрон может воспринимать информацию без использования предложений или операторов, то, следовательно, каждый нейрон и связь в мозге не должны иметь четкой роли с точки зрения булевой логики. Вместо этого мозг может работать в более небрежном режиме, когда, подобно перцептрону, функция сети распределяется между нейронами и возникает из связей между ними. Этот новый подход к изучению мозга стал известен как "коннекционизм".


Работа Маккалоха и Питтса стала важной ступенькой. Будучи первой демонстрацией того, как сети нейронов могут мыслить, она стала причиной того, что нейронаука отошла от берегов чистой биологии и вошла в море вычислений. Именно этот факт, а не правдивость его утверждений, обеспечивает ему место в истории. Можно сказать, что интеллектуального предка работы Маккаллоха и Питтса, Principia Mathematica, постигла похожая участь. В 1931 году немецкий математик Курт Гёдель опубликовал работу "О формально неразрешимых предложениях Principia Mathematica и связанных с ней систем". В этой работе Principia Mathematica была взята за отправную точку, чтобы показать, почему сама ее цель - объяснить всю математику из простых предпосылок - оказалась недостижимой. Рассел и Уайтхед на самом деле не сделали того, что, по их мнению, они сделали.6 Выводы Гёделя стали известны как "теорема о неполноте" и оказали революционное влияние на математику и философию. Отчасти это влияние было вызвано неудачной попыткой Рассела и Уайтхеда.

Рассел и Маккалох умели спокойно воспринимать недостатки своих работ. Питтс же, напротив, был сшит из более тонкой ткани. Осознание того, что мозг не выполняет прекрасные правила логики, разорвало его на части.7Это, наряду с уже существовавшими психическими проблемами и разрывом отношений с важным наставником, подтолкнуло его к пьянству и экспериментам с другиминаркотиками. Он стал неуравновешенным и бредовым; он сжег свои работы и отдалился от друзей. Он умер от последствий болезни печени в 1969 году - в тот же год, когда умер Маккалох. Маккалоху было 70 лет, Питтсу - 46.

* * *

 

Рисунок 5

Мозжечок - это лес. Сложенный аккуратно возле места вхождения спинного мозга в череп, этот участок мозга густо усеян различными типами нейронов, подобно разным видам деревьев, живущих в хаотичной гармонии (см. Рисунок 5). Клетки Пуркинье - крупные, легко опознаваемые и сильно разветвленные: от тела этих клеток вверх и в стороны тянутся дендриты, словно тысяча инопланетных рук, поднятых в молитве. Клетки гранулезы многочисленны и малы - их тела меньше половины тела клеток Пуркинье, - но их зона действия очень велика. Их аксоны сначала растут вверх, параллельно дендритам клеток Пуркинье. Затем они резко поворачивают направо и проходят прямо через ветви клеток Пуркинье, как линии электропередач через верхушки деревьев. Именно здесь гранулезные клетки вступают в контакт с клетками Пуркинье: каждая клетка Пуркинье получает входные сигналы от сотентысяч гранулезных клеток. Волокна восхождения - это аксоны, которые идут по более длинному пути к клеткам Пуркинье. Эти аксоны исходят из клеток другой области мозга - нижней оливы, откуда они проделывают путь до основания тел клеток Пуркинье и ползут вверх вокруг них. Огибая основания дендритов клеток Пуркинье, как плющ, эти волокна образуют связи. В отличие от гранулезных клеток, к каждой клетке Пуркинье подходит только одно восходящее волокно. Таким образом, клетки Пуркинье занимают центральное место в мозжечковом пейзаже. Сверху на них надвигаются десятки гранулезных клеток, а снизу к ним приближается небольшой, но точный набор лазающих волокон.

Извилистая, органическая схема мозжечка обладает организацией и точностью, не свойственными биологии. Именно в этой биологической проводке Джеймс Альбус, аспирант-электротехник, работающий в НАСА, увидел принципы работы перцептрона.

Мозжечок играет важнейшую роль в управлении моторикой: он помогает в поддержании равновесия, координации, рефлексах и многом другом. Одна из наиболее широко изученных его способностей - это рефлекс моргания глазами. Это тренированный рефлекс, который можно встретить в повседневной жизни. Например, если решительный родитель или сосед по комнате попытается вытащить вас утром из постели, раздвинув шторы, вы инстинктивно закроете глаза в ответ на солнечный свет. Через несколько дней такого поведения вам будет достаточно простого звука открываемых штор, чтобы моргнуть в предвкушении.

В лабораторных условиях этот процесс изучается на кроликах, а назойливый солнечный свет заменяется небольшой струей воздуха, воздействующей на глаза (достаточно раздражающей, чтобы кролик захотел ее избежать).После нескольких попыток воспроизведения звука (напримеркороткого всплеска чистого тона) и последующего за ним небольшого нагнетания воздуха кролик в конце концов научится закрывать глаза сразу же, как только услышит этот звук. Если дать животному новый звук (например, хлопок), который не сопровождался воздушной затяжкой, оно не будет моргать. Таким образом, обучение морганию глаз превращается в простую задачу классификации: кролик должен решить, является ли услышанный им звук признаком приближающейся воздушной затяжки (в этом случае глаза должны закрыться) или это нейтральный звук (в этом случае они могут оставаться открытыми). Если нарушить работу мозжечка, кролики не смогут научиться решать эту задачу.

Клетки Пуркинье способны закрывать глаза. Точнее, снижение их обычно высокого темпа стрельбы приведет к тому, что через связи, которые клетки Пуркинье посылают из этой области, глаза закроются. Исходя из этой анатомии, Альбус видел их место в качестве считывающего устройства - то есть они указывают на результат классификации.

Перцептрон обучается с помощью супервизии: ему нужны входы и метки для этих входов, чтобы понять, когда он ошибся. Альбус увидел эти две функции в двух разных типах связей на клетках Пуркинье. Гранулезные клетки передают сенсорные сигналы; в частности, разные гранулезные клетки срабатывают в зависимости от того, какой звук воспроизводится. Волокна восхождения сообщают мозжечку о воздушной затяжке; они срабатывают, когда ощущается раздражение. Важно, что это означает, что волокна лазания сигнализируют об ошибке. Они указывают на то, что животное совершило ошибку, не закрыв глаза, когда должно было.

Чтобы предотвратить эту ошибку, связи между гранулярными клетками и клетками Пуркинье должны измениться. В частности, Альбус предполагал, что все клетки-гранулы, которые были активны до того, как активизировалось волокно восхождения (то есть до ошибки), должны ослабить свою связь с клеткой Пуркинье. Таким образом, в следующий раз, когда эти гранулезные клетки сработают -то есть в следующий раз, когда будет воспроизведен тот же звук, - они не вызовут срабатывания клеток Пуркинье. И этот спад в работе клеток Пуркинье приведет к закрытию глаз. Благодаря такому изменению силы связи животное учится на своих прошлых ошибках и избегает будущих ударов воздухом по глазам.

Таким образом, клетка Пуркинье действует как президент, которого консультирует кабинет советников из клеток гранул. Сначала клетка Пуркинье прислушивается ко всем из них. Но если становится ясно, что некоторые из них дают плохие советы - то есть за их советами следуют негативные новости, доставляемые по восходящему волокну, - их влияние на клетку Пуркинье ослабевает. И в будущем клетка Пуркинье будет вести себя лучше. Этот процесс напрямую отражает правило обучения перцептрона.

Когда в 1971 году Альбус предложил такое сопоставление между перцептроном и мозжечком, его предсказание о том, как должны измениться связи между клетками гранулезы и клетками Пуркинье, было всего лишь предсказанием. Никто не наблюдал непосредственно такого рода обучение в мозжечке. Но к середине 1980-х годов накопились доказательства в пользу Альбуса. Стало ясно, что сила связи между клеткой гранулы и клеткой Пуркинье действительно уменьшается после ошибки. Были даже раскрыты конкретные молекулярные механизмы этого процесса. Теперь мы знаем, что входные сигналы гранулезных клеток вызываютответную реакциюрецептора вмембране клетки Пуркинье, эффективно отмечая, какие входные сигналы гранулезных клеток были активны в данный момент. Если сигнал от лазающего волокна поступает позже (во время воздушной затяжки), он вызывает приток кальция в клетку Пуркинье. Присутствие этого кальция сигнализирует всем помеченным связям о снижении их силы. У пациентов с синдромом хрупкой Х - генетическим заболеванием, приводящим к умственной отсталости, - отсутствует белок, регулирующий эту связь от клеток гранул к клетке Пуркинье. В результате у них возникают проблемы с обучением таким задачам, как обучение морганию глазами.

Перцептрон с его четкими правилами обучения в нейронной сети предложил нейробиологам четкие идеи, которые можно было проверить и найти в мозге. При этом он смог связать науку воедино на разных уровнях. Мельчайшие физические детали - например, движение ионов кальция внутри нейрона - приобретают гораздо большее значение в свете их роли в вычислениях.

* * *

Правление перцептрона оборвалось в 1969 году. И по шекспировской иронии судьбы его убил его однофамилец.

Книга "Перцептроны" была написана Марвином Мински и Сеймуром Пейпертом, математиками из Массачусетского технологического института. Книга была озаглавлена "Введение в вычислительную геометрию" и имела простой абстрактный дизайн на обложке. Мински и Пейперта потянуло написать о перцептронах из благодарности за изобретение Розенблатта и желания исследовать его дальше. На самом деле Минский и Паперт встретились на конференции, где они представляли схожие результаты своих исследований того, как перцептрон обучается.

Паперт был уроженцем Южной Африки с полными щеками, здоровой бородой и не одной, а двумя докторскими степенями по математике. Его всю жизнь интересовало образование и то, как оно может быть преобразовано с помощью компьютеров. Минский был меньше чем на год старше Паперта, с более резкими чертами лица и большими очками. Уроженец Нью-Йорка, он учился в Высшей научной школе Бронкса вместе с Фрэнком Розенблаттом; его наставниками также были Маккалох и Питтс.

Минский и Паперт разделяли с Маккалохом и Питтсом навязчивое желание формализовать мышление. Они считали, что истинный прогресс в понимании вычислений достигается за счет математических выводов. Все эмпирические успехи перцептрона - какие бы вычисления он ни выполнял или какие бы категории ни выучивал - почти ничего не значили без математического понимания того, почему и как он работает.

В то время перцептрон привлекал много внимания - и денег - со стороны сообщества искусственного интеллекта. Но он не привлекал того математического внимания, которого жаждали Минский и Паперт. Таким образом, к написанию книги их явно побудило желание повысить строгость изучения перцептронов - но также, как позже признал Паперт, желание уменьшить благоговение перед ними.9

Страницы книги "Перцептроны" состоят в основном из доказательств, теорем и выводов. Каждое из них вносит свой вклад врассказ о перцептроне : определяет, что это такое, что он может делать и как он учится. Однако после публикации этих 200 страниц - тщательного исследования всех тонкостей работы перцептрона - сообщество получило сообщение в основном о его ограничениях. Это произошло потому, что Мински и Паперт убедительно показали, что некоторые простые вычисления перцептрону выполнить невозможно.

Рассмотрим перцептрон, у которого всего два входа, и каждый из них может быть "включен" или "выключен". Мы хотим, чтобы перцептрон сообщал, одинаковы ли два входа: отвечал "да" (т. е. чтобы его блок считывания был включен), если оба входа включены, или если оба входа выключены. Но если один из них включен, а другой выключен, блок считывания должен быть выключен. Подобно сортировке носков в прачечной, перцептрон должен реагировать только тогда, когда видит подходящую пару.

Чтобы считывающее устройство не срабатывало, когда включен только один вход, веса каждого входа должны быть достаточно низкими. Например, они могут быть в два раза меньше, чем требуется для включения считывающего устройства. Таким образом, когда оба входа включены, считывающее устройство сработает, и оно не сработает, когда включен только один вход. При такой настройке считывающее устройство правильно реагирует на три из четырех возможных входных условий. Но в условиях, когда оба входа выключены, считывающее устройство будет выключено - неправильная классификация.

Как выяснилось, сколько бы мы ни возились с силой связи, удовлетворить все потребности классификации сразу невозможно. Перцептрон просто не может этого сделать. И проблема в том, что ни одна хорошая модель мозга - или перспективный искусственный интеллект - не должна потерпеть неудачу в такой простой задаче, как определение того, являются ли две вещи одинаковыми или нет.


Альбус, чья работа о мозжечке была опубликована в 1971 году, знал об ограничениях перцептрона и понимал, что, несмотря на эти ограничения, он был достаточно мощным, чтобы стать моделью задачи обусловливания моргания глаз. Но модель всего человеческого мозга, как обещал Розенблатт? Невозможно.

Портрет, который нарисовали Мински и Паперт, заставил исследователей ясно увидеть возможности перцептрона. До выхода этой книги исследователи могли изучать возможности перцептрона вслепую, надеясь, что границы его способностей еще далеки, если они вообще существуют. Однако после того, как контуры были показаны наглядно, стало невозможно отрицать, что эти границы существуют, и что они гораздо ближе, чем предполагалось. По правде говоря, все это означало понимание перцептрона - именно то, что Мински и Паперт и собирались сделать. Но конец невежества вокруг перцептрона означал и конец восторгов по этому поводу. Как сказал Паперт: "Быть понятым может быть судьбой не хуже смерти".

Период, последовавший за публикацией книги "Перцептроны", известен как "темные века" коннекционизма. Он был отмечен значительным сокращением финансирования исследовательских программ, которые выросли из первоначальных работ Розенблатта. Нейросетевой подход к созданию искусственного интеллекта был затушен. От всех чрезмерных обещаний, надежд и шумихи пришлось отказаться. Сам Розенблатт трагически погиб в результате несчастного случая на лодке через два года после выхода книги, а область, которую он помог создать, оставалась бездействующей более 10 лет.

Но если шумиха вокруг перцептрона была чрезмерной и необоснованной, то и ответная реакция на него тоже. Ограничения, описанные в книге Мински и Пейперта, были верны: перцептрон в той форме, в которой они его изучали, был неспособен на многое. Но ему и не нужно было сохранять эту форму. Например, проблема "одинаково или нет" может быть легко решена путем добавления дополнительного слоя нейронов между входом и считыванием. Этот слой может состоять из двух нейронов, один из которых имеет веса, заставляющие его срабатывать, когда оба входа включены, а другой - когда оба входа выключены. Теперь нейрон считывания, который получает входные данные от этих средних нейронов, должен быть активным, если один из средних нейронов активен.

Многослойные перцептроны", как называли эти новые нейронные архитектуры, могли воскресить коннекционизм из мертвых. Но до полного воскрешения необходимо было решить одну проблему: обучение. Оригинальный алгоритм перцептрона содержал рецепт установки связей между входными нейронами и считывающими нейронами - то есть правило обучения было разработано для двухслойной сети. Если новая порода нейронных сетей будет иметь три, четыре, пять или более слоев, то как должны быть установлены связи между всеми этими слоями? (Несмотря на все положительные стороны правила обучения перцептрона - его простоту, доказательство того, что оно может работать, тот факт, что оно было обнаружено в мозжечке, - оно не смогло ответить на этот вопрос. Знания того, что многослойный перцептрон может решать более сложные задачи, было недостаточно для того, чтобыграндиозные обещания коннекционизма. Необходимо было, чтобы оннаучился решать эти проблемы.

* * *

Пасхальное воскресенье коннекционистского возрождения наступило в 1986 году. Статья "Обучение представлений путем обратного распространения ошибок", написанная двумя учеными-когнитивистами из Калифорнийского университета в Сан-Диего Дэвидом Румельхартом и Рональдом Уильямсом, а также компьютерщиком из Карнеги-Меллон Джеффри Хинтоном, была опубликована 9 октября в журнале Nature. В ней представлено решение именно той проблемы, которая стояла перед этой областью: как обучать многослойные искусственные нейронные сети. Приведенный в статье алгоритм обучения, названный "обратным распространением", стал широко использоваться сообществом в то время. И по сей день он остается доминирующим способом обучения искусственных нейронных сетей для решения интересных задач.

Рисунок 6

Оригинальное правило обучения перцептрона работает, потому что, имея всего два слоя, легко понять, как исправить то, что пошло не так.Если считывающий нейрон выключен, когда он должен быть включен, то связи, идущие от входного слоя к этому нейрону, должны стать сильнее, и наоборот. Таким образом, связь между этими связями и показаниями очевидна. Алгоритм обратного распространения решает более сложную задачу. В сети с большим количеством слоев между входом и считыванием взаимосвязь между всеми этими связями и считыванием не так очевидна. Теперь вместо президента и его или ее советников у нас есть президент, его советники и сотрудники этих советников. Степень доверия советника к тому или иному сотруднику -то есть сила связи между этим сотрудником и советником - безусловно, в конечном итоге повлияет на действия президента. Но это влияние труднее непосредственно заметить и труднее исправить, если президент чувствует, что что-то идет не так.

Нужен был явный способ рассчитать, как любое соединение в сети повлияет на уровень считывания. Как оказалось, математика предлагает отличный способ сделать это. Рассмотрим искусственную нейронную сеть с тремя слоями: входным, средним и считывающим. Как связи от входа к среднему слою влияют на считывание? Мы знаем, что активность среднего слоя является результатом активности входных нейронов и весов их связей со средним слоем. Зная это, мы можем написать уравнение для того, как эти веса влияют на активность среднего слоя. Мы также знаем, что нейроны считывания следуют тому же правилу: их активность определяется активностью средних нейронов и весами соединений средних нейронов с нейронами считывания. Поэтому уравнение, описывающее, как эти веса влияют на считывание, также легко получить. Осталось найти способ связать эти два уравнения вместе.

При формировании поезда в игре в домино число на конце одной плитки должно совпадать с числом на начале другой, чтобы они соединились. То же самое верно и для сшивания этих уравнений. Здесь общим термином, связывающим два уравнения, является активность среднего слоя: эта активность определяет активность считывающего устройства и определяется связями между входом и серединой. Соединив эти уравнения через активность среднего слоя, можно напрямую рассчитать влияние связей между входом и средним слоем на считывание. А это позволяет легко определить, как должны измениться эти связи при неправильном считывании. В математике такое объединение связей известно как "правило цепочки", и оно лежит в основе алгоритма обратного распространения.

Правило цепочки было открыто более 200 лет назад не кем иным, как кумиром Маккаллоха и Питтса, философом и эрудитом Готфридом Лейбницем. Учитывая, насколько полезным является это правило, его применение для обучения многослойных нейронных сетей не стало сюрпризом. На самом деле, алгоритм обратного распространения был изобретен как минимум трижды до 1986 года. Но статья 1986 года стала частью идеального шторма, который обеспечил широкое распространение ее результатов. Первой причиной этого стало содержание самой статьи. В ней не только было показано, что нейронные сети можно обучать таким образом, но и проанализирована работа сетей, обученных для решения нескольких когнитивных задач, таких как понимание связей на семейном древе.Другой составляющей успеха сталоувеличение вычислительной мощности , которое произошло в 1980-х годах; это было важно для того, чтобы обучение многослойных нейронных сетей стало практически возможным для исследователей. Наконец, в том же году, когда была опубликована статья, один из ее авторов, Румельхарт, также опубликовал книгу о коннекционизме, в которой был представлен алгоритм обратного распространения. Эта книга, написанная совместно с другим профессором Карнеги-Меллона, Джеймсом Макклелландом, разошлась тиражом около 40 000 экземпляров к середине 1990-х годов. Ее названиеПараллельная распределенная обработка" - дало название всей программе исследований по созданию искусственных нейронных сетей в конце 1980-х и начале 1990-х годов.

По схожим причинам история искусственных нейронных сетей приняла еще более драматический оборот примерно через десять лет после начала нового тысячелетия. Груды данных, накопленных в эпоху Интернета, объединились с вычислительными мощностями XXI века, чтобы ускорить прогресс в этой области. Сети со все большим количеством слоев вдруг стали обучаться все более сложным задачам. Такие увеличенные модели - так называемые "глубокие нейронные сети" - в настоящее время преобразуют искусственный интеллект и нейронауки.

Современные глубокие нейронные сети основаны на том же базовом понимании нейронов, что и нейроны Маккаллоха и Питтса. Однако за пределами этого базового понимания они не стремятся напрямую повторить человеческий мозг. Например, они не пытаются имитировать его структуру или анатомию. Но они стремятся имитировать человеческое поведение, и у них это неплохо получается. Когда2016 году популярная служба языкового перевода Google начала использовать глубокие нейронные сети, это позволило сократить количество ошибок перевода на 50 %. YouTube также использует глубокие нейронные сети, чтобы помочь своему алгоритму рекомендаций лучше понять, какие видеоролики люди хотят посмотреть. А когда голосовой помощник Apple Siri отвечает на команду, его слушает и говорит глубокая нейронная сеть.

В общей сложности глубокие нейронные сети теперь можно обучать находить объекты на изображениях, играть в игры, понимать предпочтения, переводить с одного языка на другой, преобразовывать речь в письменные слова и письменные слова в речь. В отличие от оригинального перцептрона, компьютеры, на которых работают эти сети, занимают целые комнаты. Они расположены в серверных центрах по всему миру, где с жужжанием обрабатывают мировые изображения, тексты и аудиоданные. Розенблатт, возможно, был рад увидеть, что некоторые из его грандиозных обещаний, данных газете New York Times, действительно были выполнены. Просто для этого потребовались масштабы, почти в тысячу раз превышающие те, которыми он располагал в то время.

Алгоритм обратного распространения был необходим для того, чтобы поднять искусственные нейронные сети до уровня, позволяющего им достигать почти человеческих показателей при выполнении некоторых задач. В качестве правила обучения для нейронных сетей он действительно работает. К сожалению, это не означает, что он работает как мозг. Если правило обучения перцептрона - это то, что можно увидеть в игре между реальными нейронами, то алгоритм обратного распространения - нет. Он был разработан как математический инструмент для обеспечения работы искусственных нейронных сетей, а не как модель того, как учится мозг (и его изобретатели с самого начала ясно дали это понять).Причина в том, что реальные нейроны, как правило, могутзнатьтолькооб активности нейронов, с которыми они связаны, но не об активности нейронов, с которыми эти нейроны связаны, и так далее, и так далее. По этой причине для реальных нейронов не существует очевидного способа реализовать правило цепочки. Они должны делать что-то другое.

Для некоторых исследователей, особенно в области искусственного интеллекта, искусственная природа обратного распространения не является проблемой. Их цель - создать компьютеры, способные думать, любыми способами. Но для других ученых - в частности, нейробиологов - поиск алгоритма обучения мозга имеет первостепенное значение. Мы знаем, что мозг умеет становиться лучше; мы видим это, когда учимся играть на музыкальном инструменте, водить машину или читать на новом языке. Вопрос в том, как.

Поскольку мы знаем, что обратное распространение работает, некоторые нейробиологи начинают именно с него. Они проверяют признаки того, что мозг делает что-то вроде обратного распространения, даже если он не может сделать это в точности. Вдохновением послужил успешный опыт обнаружения перцептрона в мозжечке. Там подсказки содержались в анатомии: разное расположение лазающих волокон и гранулезных клеток указывало на различную роль каждого из них. Другие области мозга демонстрируют паттерны связности, которые могут намекать на то, как они обучаются. Например, в неокортексе некоторые нейроны имеют дендриты, которые тянутся далеко над ними. Далекие области мозга посылают входные сигналы на эти дендриты. Несут ли они с собой информацию о том, как эти нейроны повлияли на последующие в нейронной сети мозга? Можно ли использовать эту информацию для изменения силы связей в сети? И неврологи, и исследователи искусственного интеллекта не теряют надежды, чтоверсия обратного распространения в мозге будет найдена и что, когда она будет найдена, ее можно будет скопировать для создания алгоритмов, которые будут обучаться еще лучше и быстрее, чем современные искусственные нейронные сети

В своем стремлении понять, как разум учится под наблюдением, современные исследователи поступают так же, как Маккалох. Они смотрят на груды фактов о биологии мозга и пытаются увидеть в них вычислительную структуру. Сегодня они руководствуются в своих поисках разработками искусственных систем. Завтра открытия из биологии снова будут направлять создание искусственного интеллекта. Эта обратная связь определяет симбиотические отношения между этими двумя областями. Исследователи, стремящиеся построить искусственные нейронные сети, могут черпать вдохновение в закономерностях, найденных в биологических сетях, а нейробиологи могут обратиться к изучению искусственного интеллекта, чтобы определить вычислительную роль биологических деталей. Таким образом, искусственные нейронные сети поддерживают связь между изучением разума и мозга.

Глава 4. Создание и сохранение воспоминаний

 

Блок железа при температуре 770°C (1 418°F) представляет собой прочную серую сетку. Каждый из триллионов его атомов служит одним кирпичиком в бесконечных параллельных стенах и потолках кристаллической структуры. Это образец упорядоченности. Однако в отличие от упорядоченной структуры магнитное расположение этих атомов представляет собой беспорядок.

Каждый атом железа образует диполь - миниатюрный магнит с одним положительным и одним отрицательным концом. Тепло приводит в движение эти атомы, меняя направление их полюсов в случайном порядке. На микроуровне это означает множество крошечных магнитов, каждый из которых действует в своем направлении. Но поскольку эти силы действуют друг на друга, их чистый эффект становится незначительным. При увеличении масштаба эта масса мини-магнитов вообще не обладает магнетизмом.

Однако, когда температура опускается ниже 770°C, кое-что меняется. Направление движения отдельного атома меняется все реже. Установив свой диполь, атом начинает оказывать постоянное давление на своих соседей. Это указывает им, в каком направлении они тоже должны двигаться. Атомы с разными направлениями борются за влияние на местную группу, пока в конце концов все не выстроятся в одну линию, так или иначе. Когда все маленькие диполи выровнены, возникает мощная сила. Ранее инертный блок железа превращается в мощный магнит.


Филипп Уоррен Андерсон, американский физик, получивший Нобелевскую премию за работу над подобными явлениями, написал в ставшем знаменитым эссе под названием "Больше - это другое", что "поведение больших и сложных агрегатов элементарных частиц, оказывается, не может быть понято в терминах простой экстраполяции свойств нескольких частиц". Иными словами, коллективное действие множества мелких частиц, организованное только за счет их локальных взаимодействий, может привести к появлению функции, напрямую не возможной ни для одной из них в отдельности. Физики формализовали эти взаимодействия в виде уравнений и успешно использовали их для объяснения поведения металлов, газов и льда.

В конце 1970-х годов коллега Андерсона, Джон Дж. Хопфилд, увидел в этих математических моделях магнетизма структуру, схожую со структурой мозга. Хопфилд использовал это понимание, чтобы взять под математический контроль давнюю загадку: вопрос о том, как нейроны создают и сохраняют память.

* * *

Ричард Семон ошибался.

Немецкий биолог, работавший на рубеже двадцатого века, Земон написал две объемные книги о науке памяти. Они были наполнены подробным описанием результатов экспериментов, теорий и словарем для описания воздействия памяти на "органические ткани". Работа Сэмона была проницательной, честной и ясной - но в ней был один существенный недостаток. Подобно тому, как французский натуралист Жан-Батист Ламарк считал (в отличие от нашего современного понимания эволюции), что признаки, приобретенные животным при жизни, могут передаваться его потомству, Семон предположил, чтовоспоминания, приобретенные животным, могут передаваться по наследству. То есть он полагал, что выученные организмом реакции на окружающую среду будут возникать у потомства без обучения. В результате этой ошибочной интуиции большая часть ценной в других отношениях работы Семона была постепенно отброшена и забыта.

class="book">Ошибаться в вопросах памяти - не редкость. Философ Рене Декарт, например, считал, что воспоминания активируются маленькой железой, управляющей потоком "животных духов". Уникальность Сэмона заключается в том, что, несмотря на недостатки его работы, которые приговорили его к исторической безвестности, один из его вкладов оставался влиятельным достаточно долго, чтобы породить целый корпус исследований. Этот маленький артефакт его усилий - "энграмма" - слово, придуманное Семоном в книге "Мнема" в 1904 году и впоследствии заученное миллионами студентов, изучающих психологию и неврологию.

В то время, когда Семон писал свои работы, память только недавно стала объектом научного изучения, и большинство результатов касались исключительно навыков запоминания, а не биологии. Например, людей обучали запоминать пары бессмысленных слов (таких как "wsp" и "niq"), а затем проверяли их способность восстановить второе слово, когда им подсказывали первое. Этот тип памяти, известный как ассоциативная память, станет объектом исследований на десятилетия вперед. Но Семону было интересно не только поведение: он хотел узнать, какие изменения в физиологии животного могут поддерживать такую ассоциативную память.

Опираясь на скудные экспериментальные данные, он разделил процесс создания и восстановления воспоминаний на множество компонентов. Находя обычные слова слишкоми перегруженными, он создал новые термины для обозначения этих разделов работы. Слово, ставшее таким влиятельным, "энграмма", было определено как "устойчивое, хотя в основном латентное изменение в раздражительной субстанции, вызванное стимулом". Или, говоря проще, физические изменения в мозге, которые происходят при формировании воспоминаний. Другой термин, "экфория", был отнесен к "влияниям, которые пробуждают мнемический след или энграмму из ее латентного состояния в состояние проявленной активности". Это различие между энграммой и экфорией (или между процессами, которые закладывают память, и процессами, которые ее извлекают) было одним из многих концептуальных достижений, которые обеспечила работа Семона. Несмотря на то, что его имя и большая часть его языка исчезли из литературы, многие концептуальные идеи Сэмона были верны, и они составляют основу того, как моделируется память сегодня.

В 1950 году американский психолог Карл Лэшли опубликовал работу "В поисках энграммы", которая закрепила наследие этого слова. Она также задала довольно мрачный тон в этой области. Статья была так названа, потому что поиск - это все, чего, по мнению Лэшли, он добился за 30 лет экспериментов. В своих экспериментах Лэшли обучал животных создавать ассоциации (например, реагировать определенным образом, когда им показывают круг, а не букву "X") или заучивать задание, например, как пробежать через определенный лабиринт. Затем он хирургическим путем удалял определенные участки мозга или соединительные пути и наблюдал за тем, как это сказывалось на поведении животных после операции. Лэшли не смог найти ни одной области или схемы повреждений, которые бы достоверно влияли на память. Он пришел к выводу, что, следовательно, воспоминания должны быть каким-то образом равномерно распределены по всемумозгу , а не в какой-то одной области. Но, основываясь на некоторых расчетах о том, сколько нейронов может быть использовано для воспоминаний и сколько путей между ними, он не был уверен, что это возможно. Таким образом, его эпохальная статья стала чем-то вроде белого флага, отказавшись от любых попыток сделать выводы о местонахождении памяти перед лицом массы противоречивых данных. Физическая природа памяти оставалась для Лэшли все такой же сложной проблемой.

В то же время бывший студент Лэшли разрабатывал свои собственные теории обучения и памяти.

Дональд Хебб, канадский психолог, чья ранняя работа в качестве школьного учителя способствовала росту его интереса к разуму, стремился превратить психологию в биологическую науку. В своей книге 1949 года "Организация поведения" он описывает задачу психолога как "сведение причуд человеческого мышления к механическому причинно-следственному процессу". И в этой книге он изложил механический процесс, который, по его мнению, лежит в основе формирования памяти.1 Преодолевая ограниченные, а иногда и вводящие в заблуждение физиологические данные, доступные в то время, Хебб пришел к этому принципу о физических основах обучения в основном благодаря интуиции. Однако в дальнейшем он добился огромного эмпирического успеха. Принцип, известный сегодня как гебистское обучение, кратко описывается фразой "нейроны, которые работают вместе, работают вместе".


Хеббианское обучение описывает, что происходит на маленьком перекрестке между двумя нейронами, где один из них может послать сигнал другому, - это пространство называется синапсом. Предположим, есть два нейрона, A и B. Аксон нейрона A устанавливает синаптическую связь с дендритом или телом клетки нейрона B (таким образом, нейрон A является "пресинаптическим", а нейрон B - "постсинаптическим", см. Рисунок 7). При хеббианском обучении, если нейрон A неоднократно срабатывает раньше нейрона B, связь между A и B укрепляется. Укрепление связи означает, что в следующий раз, когда сработает A, он будет более эффективен для того, чтобы вызвать срабатывание B. Таким образом, активность определяет связанность, а связанность - активность.

 

Рисунок 7

Подход Хебба с его фокусом на синапсе рассматривает энграмму как локальную и глобальную: локальную, потому что отпечаток памяти возникает в маленьком промежутке, где один нейрон встречается с другим, но глобальную, потому что эти изменения могут происходить в синапсах по всему мозгу. Это также делает память естественным следствием опыта: при податливых синапсах любая активация мозга способна оставить след.

Лэшли, добросовестный ученый, стремящийся следовать фактам, признал, что инграмма должна быть распределена, основываясь на собственных экспериментах. Но он не находил удовлетворения врешении Хебба, которое - хотя и было заманчивой и элегантной теорией - основывалось скорее на догадках, чем на достоверных фактах. Он отклонил предложение Хебба стать соавтором этой работы.

Возможно, Лэшли и не поддержал идеи Хебба, но после публикации его книги было проведено бесчисленное множество экспериментов. Морские слизни - слизистые коричневые беспозвоночные длиной в фут, имеющие всего около 20 000 нейронов, - стали объектом пристального изучения в этой области благодаря своей способности к обучению самым простым ассоциациям. Эти слизни без панциря имеют на спине жабры, которые в случае угрозы могут быть быстро втянуты для сохранности. В лабораторных условиях короткий удар электрическим током заставляет жабру втянуться. Если такому удару неоднократно предшествовало безобидное легкое прикосновение, слизень в конце концов начнет втягивать жабру в ответ только на прикосновение, демонстрируя ассоциацию между прикосновением и тем, что ожидается дальше. Это эквивалент того, как морские животные учатся сочетать "wsp" с "niq". В соответствии с теорией обучения Хебба было показано, что эта ассоциация опосредована усилением связей между нейронами, которые представляют прикосновение, и нейронами, которые приводят к реакции жабр. Изменение поведения происходило за счет изменения связей.

Геббианское обучение не только наблюдалось, но и контролировалось. В 1999 году исследователи из Принстона показали, что генетическая модификация белков в клеточной мембране, которые способствуют синаптическим изменениям, может контролировать способность мыши к обучению. Усиление функции этих рецепторов повышает способность мышей запоминать объекты, которые им показывали раньше. Вмешательство в работу этих белков ухудшает эту способность.


В настоящее время наукой установлено, что опыт приводит к активации нейронов и что активация нейронов может изменять связи между ними. Эта история принимается как хотя бы частичный ответ на вопрос об энграмме. Но, как описывает Семон, сама энграмма - это лишь часть истории памяти. Память также требует запоминания. Как такой способ хранения воспоминаний может обеспечить их долгосрочное хранение и запоминание?

* * *

В том, что Джон Дж. Хопфилд стал физиком, нет ничего удивительного. Родившись в 1933 году в семье Джона Хопфилда-старшего, прославившегося в области ультрафиолетовой спектроскопии, и Хелен Хопфилд, изучавшей электромагнитное излучение атмосферы, Хопфилд-младший вырос в семье, где физика была в такой же степени философией, как и наукой. Физика была точкой зрения, согласно которой окружающий нас мир, при наличии усилий, изобретательности и достаточных ресурсов, поддается предсказанию и разумному количественному анализу", - написал Хопфилд в автобиографии. Быть физиком - значит посвятить себя поиску такого рода понимания". И физик - это то, кем он стал.

Хопфилд, высокий и долговязый мужчина с очаровательной улыбкой, получил степень доктора философии в 1958 году в Корнельском университете.дальнейшем он подражал своему отцу, получив стипендию Гуггенхайма, и использовал ее для обучения в Кавендишской лабораториив Кембридже. Но даже к этому времени энтузиазм Хопфилда по отношению к предмету его докторской диссертации - физике конденсированных сред - стал ослабевать. В 1968 году у меня закончились проблемы... для которых мои особые таланты казались полезными", - писал он позже.

Воротами Хопфилда из физики в биологию стал гемоглобин - молекула, которая одновременно выполняла важнейшую биологическую функцию переносчика кислорода в крови и могла быть изучена с помощью многих методов экспериментальной физики того времени. Хопфилд несколько лет работал над структурой гемоглобина в Bell Labs, но свое настоящее призвание в биологии он нашел после того, как в конце 1970-х годов был приглашен на серию семинаров по нейронаукам в Бостоне. Там он столкнулся с разношерстной группой клиницистов и нейробиологов, собравшихся вместе для решения глубокого вопроса о том, как разум возникает из мозга. Хопфилд был очарован.

Однако Хопфилда, как бы он ни был математически мыслящим человеком, огорчал качественный подход к мозгу, который он видел на выставке. Он был обеспокоен тем, что, несмотря на очевидные таланты в биологии, эти исследователи "никогда не смогут решить проблему, потому что решение может быть выражено только на соответствующем математическом языке и в соответствующей структуре". Таким языком владели физики. Поэтому Хопфилд постарался использовать свои навыки физика, даже когда приступил к исследованию памяти. По его мнению, некоторые физики того времени, совершившие скачокв биологию, полностью иммигрировали, переняв вопросы, культуру и лексику своей новой страны. Он хотел твердо сохранить свое гражданство физика.

В 1982 году Хопфилд опубликовал работу "Нейронные сети и физические системы с эмерджентными коллективными вычислительными способностями", в которой изложил описание и результаты работы того, что сейчас известно как сеть Хопфилда. Это была первая работа Хопфилда на эту тему; он только начинал погружаться в область нейронаук, и тем не менее она произвела фурор.

Рисунок 8

Сеть Хопфилда (см. рис. 8) - это математическая модель нейронов, которая может реализовать то, что Хопфилд назвал "памятью с возможностью адресации содержимого". Этот термин, пришедший из компьютерных наук, относится к понятию, что полную память можно извлечь из небольшого ее компонента. Сеть, которую Хопфилд создал для этой задачи, очень просто устроена. Она состоит только из бинарных нейронов (таких, как нейроны Маккаллоха-Питтса, представленные в прошлой главе), которые могут быть либо "включены", либо "выключены". Поэтому именно взаимодействие между этими нейронами и приводит к интригующему поведению этой сети.

Сеть Хопфилда является рекуррентной, то есть активность каждого нейрона определяется активностью любого издругих нейронов сети. Поэтому активность каждого нейрона служит как входом, так и выходом для его соседей. В частности, каждый входной сигнал, получаемый нейроном от другого нейрона, умножается на определенное число - синаптический вес. Затем эти взвешенные входы суммируются и сравниваются с пороговым значением: если сумма больше (или равна) пороговому значению, уровень активности нейрона равен 1 ("включен"), в противном случае - 0 ("выключен"). Этот выход затем поступает на вход других нейронов в сети, чьи выходы снова поступают на вход других нейронов, и так далее, и так далее.

Подобно телам в мош-пите, компоненты рекуррентной системы толкают и тянут друг друга, причем состояние единицы в любой момент времени определяется теми, кто ее окружает. Таким образом, нейроны в сети Хопфилда подобны атомам железа, постоянно влияющим друг на друга посредством магнитных взаимодействий. Эффекты этого непрерывного взаимодействия могут быть огромными и сложными. Предсказать, какие закономерности создадут эти взаимосвязанные части, практически невозможно без точной математической модели. Хопфилд был хорошо знаком с этими моделями и их способностью показать, как локальные взаимодействия приводят к возникновению глобального поведения.

Хопфилд обнаружил, что при правильном выборе весов между нейронами в его сети сеть какможет реализовать ассоциативную память. Чтобы понять это, мы должны сначала определить, что считается памятью в этой абстрактной модели. Представьте, что каждый нейрон в сети Хопфилда представляет один объект: нейрон A - это кресло-качалка, нейрон B - велосипед, нейрон C - слон и так далее. Чтобы представить конкретное воспоминание, скажем, о вашей детской спальне, нейроны, представляющие все объекты в этой комнате - кровать, ваши игрушки, фотографии на стене, - должны быть "включены"; в то время как нейроны, представляющие объекты не в этой комнате - луну, городской автобус, кухонные ножи, - должны быть "выключены". Таким образом, сеть в целом находится в состоянии активности "спальня вашего детства". Другое состояние активности - с разными наборами нейронов "включено" или "выключено" - будет представлять собой другое воспоминание.

В ассоциативной памяти небольшой вход в сеть реактивирует целое состояние памяти. Например, если вы увидите свою фотографию на кровати в детстве, это может активировать некоторые нейроны, представляющие вашу спальню: нейроны кровати, нейроны подушки и т. д. В сети Хопфилда связи между этими нейронами и нейронами, представляющими другие части спальни - шторы, игрушки, письменный стол, - заставляют эти нейроны активизироваться, воссоздавая полное ощущение спальни. Отрицательно взвешенные связи между нейронами спальни и нейронами, представляющими, скажем, местный парк, гарантируют, что в память спальни не проникнут другие предметы. Таким образом, вы не запомните качели рядом с вашим шкафом.

Когда одни нейроны включаются, а другие выключаются, именно их взаимодействие делает полную память более рельефной. Таким образом, тяжелую работу по восстановлению памяти выполняют синапсы. Именно сила этих связей выполняет грозную, но деликатную задачу восстановления памяти.

На языке физики полностью восстановленное воспоминание - это пример аттрактора. Короче говоря, аттрактор - это популярная модель деятельности. К нему эволюционируют другие модели активности, подобно тому, как вода тянется вниз по водостоку. Память - это аттрактор, потому что активация нескольких нейронов, формирующих память, побуждает сеть заполнить остальные. Как только сеть переходит в состояние аттрактора, она остается в нем, а нейроны фиксируются в своих "включенных" или "выключенных" положениях. Физики, всегда любившие описывать вещи в терминах энергии, считают аттракторы "низкоэнергетическими" состояниями. Это комфортное положение, в котором может находиться система; именно это делает их привлекательными и стабильными.

Представьте себе батут, на котором стоит человек. Мяч, помещенный в любое место на батуте, покатится к человеку и останется там. Таким образом, мяч, находящийся в углублении, созданном человеком, является притягивающим состоянием для этой системы. Если бы два человека одинакового размера стояли на батуте друг напротив друга, система имела бы два аттрактора. Мяч катился бы к тому, к кому он изначально был ближе всего, но все дороги все равно вели бы к аттрактору. Системы памяти были бы бесполезны, если бы могли хранить только одно воспоминание, поэтому важно, чтобы сеть Хопфилда могла поддерживать несколько аттракторов. Точно так же, как мяч стремится к ближайшей низкой точке на батуте, начальные состояния нейронной активности эволюционируют в сторону ближайшего, наиболее похожего воспоминания (см. рис. 9).Начальные состояния, которые приводят к определенному аттрактору памяти - например, фотографиявашей детской кровати, которая воскрешает воспоминания о всей комнате, или поездка на пляж, которая воспламеняет воспоминания о детском отдыхе, - как говорят, находятся в "бассейне притяжения" этого воспоминания.

Поэма "Удовольствия памяти" (The Pleasures of Memory) написана в 1792 году Сэмюэлем Роджерсом. Размышляя о всеобщем путешествии, в которое память может увлечь разум, он писал

Убаюканный в бесчисленных камерах мозга,

Наши мысли связаны между собой множеством скрытых цепочек.

Проснись лишь один, и вот, мириады восстают!

Каждый штампует свое изображение, пока другой летит!

Скрытая цепочка" Роджерса может быть найдена в схеме весов, которые восстанавливают память в сети Хопфилда.Действительно, модель аттрактора соответствует многим нашим представлениям о памяти. Она неявно учитывает время, необходимое для восстановления воспоминаний, поскольку сети требуется время для активации нужных нейронов. Аттракторы также могут быть слегка смещены в сети, создавая воспоминания, которые в основном правильные, но с измененной деталью или двумя. А слишком похожие воспоминания могут просто слиться в одно. Хотя сведение памяти к ряду нулей и единиц может показаться оскорблением богатства нашего опыта, именно конденсация этого, казалось бы, невыразимого процесса делает его понимание доступным.

 

Рисунок 9

В сети Хопфилда то, насколько прочно нейроны связаны друг с другом, определяет, какие паттерны нейронной активности формируют память. Таким образом, программа находится в весах - но как она туда попадает? Как опыт может создать именно те веса, которые нужны для формирования памяти? Хебб говорит нам, что воспоминания должны возникать в результате усиления связей между нейронами с одинаковой активностью - и в сети Хопфилда именно так и происходит.

Сеть Хопфилда кодирует набор воспоминаний с помощью простой процедуры. При каждом переживании, когда два нейрона либо активны, либо неактивны, связь между ними укрепляется. Таким образом, нейроны, которые работают вместе, оказываются связанными друг с другом. С другой стороны, при каждом опыте, когда один нейрон активен, а другой неактивен, связь ослабевает.5После этойпроцедурыобучениянейроны, которые обычно совместно участвуют в воспоминаниях, будут иметь сильную положительную связь, нейроны с противоположной активностью - сильную отрицательную связь, а остальные будут находиться где-то посередине. Это как раз та связь, которая необходима для формирования аттракторов.

Аттракторы - не тривиальные явления. В конце концов, если все нейроны в сети постоянно посылают и получают входные сигналы, почему мы должны предполагать, что их активность когда-нибудь установится в состоянии памяти, не говоря уже о правильном состоянии памяти? Поэтому, чтобы быть уверенным в том, что в этих сетях образуются правильные аттракторы, Хопфилду пришлось сделать довольно странное допущение: веса в сети Хопфилда симметричны. Это означает, что сила связи от нейрона A к нейрону B всегда такая же, как и сила связи от B к A. Соблюдение этого правила давало математическую гарантию появления аттракторов. Проблема в том, что шансы найти в мозге популяцию таких нейронов, мягко говоря, невелики. Для этого нужно, чтобы каждый аксон, выходящий из одной клетки и образующий синапс с другой, в точности соответствовал тому, что та же клетка отправляет свой аксон обратно, соединяясь с первой клеткой с той же силой. Биология просто не так чиста.

Это свидетельствует о постоянном напряжении в математическом подходе к биологии. Точка зрения физика, зависящая от почти иррациональной степени упрощения, постоянно противоречит биологии, полной грязных, неудобных деталей. В данном случае детали математики требовали симметричных весов, чтобы сделать какое-либо определенное заявление об аттракторах и, таким образом, добиться прогресса в моделированиипроцесса памяти . Биолог, скорее всего, сразу бы отверг это предположение6.

Хопфилд, стоявший по обе стороны пропасти между математикой и биологией, знал, что нужно ценить точку зрения нейробиологов. Чтобы снять их озабоченность, он показал в своей оригинальной работе, что - хотя это и нельзя было гарантировать математически - сети, допускающие асимметричные веса, все же были способны обучаться и поддерживать аттракторы относительно хорошо.

Таким образом, сеть Хопфилда стала доказательством того, что идеи Хебба об обучении действительно могут работать. Кроме того, она давала возможность изучать память математически - количественно. Например, сколько именно воспоминаний может хранить сеть? Этот вопрос можно задать, только имея в голове точную модель памяти. В простейшей версии сети Хопфилда количество воспоминаний зависит от числа нейронов в сети. Например, сеть с 1 000 нейронов может хранить около 140 воспоминаний; 2 000 нейронов - 280; 10 000 - 1 400 и так далее. Если количество воспоминаний не превышает примерно 14 процентов от количества нейронов, каждое воспоминание будет восстановлено с минимальной ошибкой. Однако добавление новых воспоминаний будет подобно последнему дополнению к карточному домику, которое приведет к его обрушению.Когда возможности сети Хопфилда превышены, она разрушается: входные сигналынаправляются к бессмысленным аттракторам, и ни одно воспоминание не восстанавливается успешно. Это явление получило соответствующее драматическое название "катастрофа отключения".

От точности не уйти: как только найдена оценка объема памяти, разумно спросить, совпадает ли она с количеством воспоминаний, которые, как мы знаем, хранит мозг. Знаменательное исследование, проведенное в 1973 году, показало, что люди, которым показывали более 10 000 изображений (каждое только один раз и на короткий промежуток времени), были вполне способны распознать их впоследствии. 10 миллионов нейронов в периферической коре - области мозга, связанной с визуальной памятью, - могли бы хранить такое количество изображений, но это не оставило бы места ни для чего другого. Таким образом, казалось, что в гебистском обучении есть проблема.

Однако эта проблема становится менее проблематичной, когда мы понимаем, что узнавание - это не запоминание. То есть ощущение знакомости при виде изображения может возникать без способности восстановить этот образ с нуля. Сеть Хопфилда примечательна тем, что способна справиться с последней, более сложной задачей - она полностью заполняет память из ее частичного фрагмента. Но первая задача по-прежнему важна. Благодаря исследователям из Бристольского университета стало известно, что распознавание также может быть выполнено сетью, использующей гебистское обучение. Такие сети, если оценивать их способность маркировать входной сигнал как новый или знакомый, обладают значительнобольшей производительностью: 1000 нейронов теперь могут распознать целых 23 000 изображений. Как прозорливо заметил Семен, это пример проблемы, возникающей при использовании общего языка для разделения функций мозга. То, что нам кажется просто "памятью", распадается под пристальным взглядом науки и математики на множество различных навыков.

* * *

Когда в 1953 году американский врач Уильям Сковилл удалил гиппокамп с каждой стороны мозга 27-летнего Генри Молесона, он думал, что помогает предотвратить припадки Молесона. Чего Сковилл не знал, так это того, какое невероятное влияние окажет эта процедура на науку о памяти. Молесон (более известный как H. M." в научных работах, чтобы скрыть свою личность до самой смерти в 2008 году) после процедуры получил некоторое облегчение от припадков, но у него больше никогда не формировались осознанные воспоминания. Последующая и постоянная амнезия Молесона положила начало исследованию гиппокампа - изогнутой структуры длиной в палец, расположенной глубоко в мозге, - как центрального звена в системе формирования памяти. Как выяснилось в ходе беспокойных поисков Лэшли, это место действительно играет особую роль в хранении воспоминаний.

Современные теории функционирования гиппокампа таковы: информация о мире сначала попадает в гиппокамп в зубчатой извилине - области, которая проходит вдоль нижнего края гиппокампа. Здесь представление грунтуется и подготавливается к тому, чтобы стать формой, более удобной для хранения в памяти. Затем зубчатая извилина направляет связи туда, гдесчитается , формируютсяаттракторы, - в область под названием CA3; CA3 имеет обширные рекуррентные связи, что делает ее основным субстратом для эффектов, подобных сети Хопфилда. Затем эта область посылает выход в другую область, называемую CA1, которая действует как ретрансляционная станция; она посылает запомненную информацию обратно в остальные части мозга (см. рис. 10).

 

Рисунок 10

Что интересно в этом последнем шаге - и что, возможно, запутало первоначальные выводы Лэшли - так это то, что эти проекции в различные области мозга, как полагают, облегчают копирование воспоминаний. Таким образом, СА3 действует как буфер, или хранилище, сохраняя воспоминания до тех пор, пока они не будут перенесены в другие области мозга. Для этого он реактивирует память в этих областях. Таким образом, гиппокамп помогает остальным частям мозга запоминать информацию, используя ту же стратегию, которую вы используете при подготовке к тесту: повторение. Многократно активируя одну и ту же группу нейронов в других областях мозга, гиппокамп дает этим нейронам возможность самим пройти процесс гебистского обучения. В конце концов их собственный вес изменится настолько, что память будет надежно сохранена.

Зная об этом хранилище памяти в мозге, исследователи могут изучить, как оно работает. В частности, они могут искать в нем аттракторы.

В 2005 году ученые из Университетского колледжа Лондона регистрировали активность клеток гиппокампа у крыс. Крысы привыкли находиться в двух разных вольерах - круглом и квадратном. Нейроны гиппокампа проявляли одну активность, когда они находились в круге, и другую, когда в квадрате. Тест на наличие аттракторов проводился, когда животное помещали в новую среду "сквирл", форма которой была чем-то средним между кругом и квадратом. Исследователи обнаружили, что если окружение было более квадратным, то нейронная активность переходила к паттерну, ассоциирующемуся с квадратом; если окружение было более круговым, то к паттерну, ассоциирующемуся с кругом. Важно отметить, что в ответ на промежуточное окружение не возникало никаких промежуточных представлений, только круг или квадрат. Это делает воспоминания о круге и квадрате аттракторами. Начальный входной сигнал, который не является в точности одним или другим, нестабилен; он неизбежно направляется к ближайшему установленному воспоминанию.

Сеть Хопфилда воплотила в жизнь теории Хебба и показала, как аттракторы - обычно изучаемые в физике - могут объяснить тайны памяти. Однако Хопфилд понимал, что математика не может быть реализована в реальных мозгах в реальных лабораториях. Он описывал свою модель как "простую пародию на сложности нейробиологии". Действительно, как творение физика, оналишена всего липкого богатства биологии. Но как пародия, способная к мощным вычислениям, она также предложила множество открытий - открытий, которые не ограничились простым хранением и запоминанием.

* * *

Вы ужинаете на кухне, когда домой возвращается ваш сосед по комнате. Увидев их, вы вспоминаете, что вчера вечером дочитали книгу, которую они вам одолжили, и хотите вернуть ее до того, как они уедут в командировку на следующий день. Поэтому вы откладываете еду, выходите из кухни и идете по коридору. Вы поднимаетесь по лестнице, поворачиваете, заходите в свою комнату и думаете: "Стоп, что я здесь делаю?".

Это ощущение встречается довольно часто. Настолько, что ему дали название: "дестинезия", или амнезия того, почему вы оказались там, где находитесь. Это сбой так называемой "рабочей памяти" - способности удерживать в голове идею даже в течение 10 секунд, необходимых для того, чтобы пройтись из комнаты в комнату. Рабочая память важна практически для всех аспектов познания: трудно принять решение или разработать план, если вы постоянно забываете, о чем думали.

Психологи изучают рабочую память уже несколько десятилетий. Сам термин впервые появился в книге "Планы и структура поведения", написанной в 1960 году Джорджем А. Миллером и его коллегами, работавшими в Центре перспективных исследований в области поведенческих наук в Калифорнии. Однако концепция была изучена задолго до этого. Действительно, сам Миллер написал одну из самых влиятельных работ на эту тему четырьмя годами ранее, в 1956 году. Возможно,, предвидя свою славу, Миллер дал статье дерзкое название "Магическое число семь, плюс или минус два". Под этим магическим числом подразумевается количество предметов, которые человек может удерживать в своей рабочей памяти в любой момент времени.

Пример оценки: 1) покажите участнику несколько цветных квадратов на экране; 2) попросите его подождать некоторое время - от нескольких секунд до нескольких минут; 3) затем покажите ему второй набор цветных квадратов. Задача испытуемого - указать, совпадают ли цвета второго набора с цветами первого. Люди хорошо справляются с этим заданием, если количество показываемых квадратов остается небольшим, достигая почти 100-процентной точности при показе только одного квадрата. При добавлении большего количества квадратов производительность падает и падает, пока после семи она почти не отличается от случайного угадывания. Вопрос о том, действительно ли семь - это особая величина, когда речь идет о таком виде рабочей памяти, остается открытым: некоторые исследования показывают более низкие пределы, некоторые - более высокие. Однако несомненно, что статья Миллера произвела впечатление, и с тех пор психологи работают над тем, чтобы охарактеризовать практически все аспекты рабочей памяти - от того, что в ней может храниться, до того, как долго она может работать.

Но остается открытым вопрос, как именно мозг это делает: где и каким образом хранятся рабочие воспоминания? Проверенный метод ответа на такие вопросы - эксперименты с поражением - указывает на префронтальную кору, большую часть мозга, расположенную сразу за лбом. Будь то люди с неудачными травмами или лабораторные животные с удаленной областью, было ясно, что повреждение префронтальной коры существенно снижает рабочую память. Без нее животныенемогутудерживать мысль дольше секунды или двух. Мысли и переживания проходят через их сознание, как вода через сжатые ладони.

Отметив место "Х", неврологи начали копать. Опустив электрод в префронтальную кору обезьян, в 1971 году исследователи из Калифорнийского университета в Лос-Анджелесе подслушивали нейроны, находящиеся там. Ученые, Хоакин Фустер и Гарретт Александер, делали это, пока животные выполняли задание, похожее на тест на запоминание цвета. Эти тесты известны как задания с "отсроченным ответом", поскольку включают период задержки, в течение которого важная информация отсутствует на экране и должна быть удержана в памяти. Возник вопрос: что делают нейроны в префронтальной коре во время этой задержки?

Большинство областей мозга, отвечающих за зрение, стереотипно реагируют на подобные задачи: нейроны сильно реагируют, когда узоры на экране появляются вначале, а затем снова, когда они появляются после задержки, но в период задержки - когда в мозг не поступает никаких зрительных сигналов - эти области в основном молчат. Для этих нейронов "вне поля зрения" действительно означает "вне сознания". Однако Фастер и Александр обнаружили, что клетки в префронтальной коре были другими. Нейроны, реагировавшие на визуальные паттерны, продолжали работать даже после того, как паттерны исчезали; то есть они сохраняли свою активность в течение периода задержки. Физическая сигнатура рабочей памяти в действии!

префронтальной коре, так и за ее пределами. Эксперименты также намекнули, что, когда эти паттерны стрельбы выходят из строя, рабочая память нарушается. В некоторых экспериментах, например, кратковременная электрическая стимуляция в период задержки может нарушить текущую активность, что приводит к снижению производительности в задачах на отсроченный ответ.

Что такого особенного в этих нейронах, что они могут это делать? Почему они могут удерживать информацию и поддерживать ее в течение нескольких секунд или минут, в то время как другие нейроны ее пропускают? Для такой устойчивой работы нейронам обычно нужен устойчивый вход. Но если активность задержки возникает без какого-либо внешнего входа в виде изображения, то этот постоянный вход должен поступать от соседних нейронов. Таким образом, активность задержки может генерироваться только сетью нейронов, работающих вместе, и связи между ними сговариваются, чтобы поддерживать активность. Именно здесь снова вступает в игру идея аттракторов.

До сих пор мы рассматривали аттракторы в сетях Хопфилда, которые показывают, как входные сигналы оживляют память. Может быть, не совсем понятно, как это помогает в работе с рабочей памятью. В конце концов, рабочая память - это все о том, что происходит после зажигания; после того как вы встали, чтобы взять книгу соседа по комнате, как вам удастся удержать эту цель в памяти? Однако, как выяснилось, аттрактор - это именно то, что нужно в данной ситуации, потому что аттрактор остается на месте.

Аттракторы определяются производными. Если мы знаем, какие входы получает нейрон и на какие веса умножаются эти входы, мы можем записать уравнение - производную, - описывающее, как активность нейрона будет меняться со временем под воздействием этих входов. Если эта производная равна нулю, это означает,активность нейрона не меняетсявременем; он просто продолжает работать с той же постоянной скоростью. Вспомните, что, поскольку этот нейрон является частью рекуррентной сети, он не только получает входные данные, но и служит входом для других нейронов. Так, его активность направлена на вычисление производной соседнего нейрона. Если ни один из входов соседнего нейрона не меняется - то есть все их производные также равны нулю, - то и у него будет нулевая производная, и он будет продолжать срабатывать с той же скоростью. Когда сеть находится в состоянии аттрактора, производная каждого нейрона в этой сети равна нулю.

Именно так, если связи между нейронами правильные, воспоминания, начатые в один момент времени, могут сохраняться гораздо дольше. Все клетки могут поддерживать свой ритм работы, потому что все клетки вокруг них делают то же самое. Ничего не меняется, если ничего не меняется.

Проблема в том, что все меняется. Когда вы выходите из кухни и идете в спальню, вы сталкиваетесь со всевозможными вещами - вашими ботинками в коридоре, ванной, которую вы собирались убрать, видом дождя на окне - которые могут вызвать изменения во входном сигнале нейронов, пытающихся удержать память. И эти изменения могут вытолкнуть нейроны из состояния аттрактора, представляющего книгу, и направить их в совершенно другое место. Чтобы рабочая память функционировала, сеть должна хорошо сопротивляться влиянию таких отвлекающих факторов. Обычный аттрактор может в определенной степени противостоять отвлекающему воздействию. Вспомните пример с батутом. Если человек, стоящий на батуте, слегка подтолкнет мяч, он, скорее всего, выкатится из углубления, а затем вернется обратно. При небольшом возмущении память остается нетронутой, но если датьмячу более сильный толчок, кто знает, где он окажется? Хорошая память должна быть устойчива к таким отвлекающим факторам - так что же может сделать сеть хорошей хранительницей воспоминаний?

Танец между данными и теорией - это сложный процесс, в котором нет четкой ведущей или последующей роли. Иногда математические модели разрабатываются только для того, чтобы соответствовать определенному набору данных. В других случаях детали данных отсутствуют или игнорируются, и теоретики поступают так, как и следует из их названия: теоретизируют о том, как может работать система, еще не зная, как она работает. Когда речь зашла о создании надежной сети рабочей памяти, ученые в 1990-х годах пошли в последнем направлении. Они придумали так называемую "кольцевую сеть" - разработанную вручную модель нейронной цепи, которая идеально подходит для надежного поддержания рабочей памяти.

В отличие от сетей Хопфилда, кольцевые сети хорошо описываются их названием: они состоят из нескольких нейронов, расположенных кольцом, причем каждый нейрон соединяется только с теми, которые находятся рядом с ним. Как и у сетей Хопфилда, у этих моделей есть состояния аттрактора - паттерны активности, которые являются самоподдерживающимися и могут представлять собой воспоминания. Но состояния аттракторов в кольцевой модели отличаются от состояний аттракторов в сети Хопфилда. Аттракторы в модели Хопфилда дискретны. Это означает, что каждое состояние аттрактора - то, которое относится к вашей детской спальне, то, которое относится к вашему детскому отпуску, то, которое относится к вашей нынешней спальне, - полностью изолировано от остальных. Не существует плавного перехода между этими разными воспоминаниями, независимо от того, насколько они похожи; вам придется полностью покинуть одно состояние аттрактора, чтобы попасть в другое. Аттракторы в кольцевой сети, напротив, непрерывны. С непрерывными аттракторами переход между похожимивоспоминаниями очень прост. Модели с непрерывными состояниями аттракторов скорее напоминают желоб дорожки для боулинга: попав в желоб, шар не может легко из него выбраться, но может плавно перемещаться внутри него.

Сети с непрерывными состояниями аттракторов, подобные кольцевой модели, полезны по целому ряду причин, и главная из них - тип ошибок, которые они допускают. Может показаться глупым хвалить систему памяти за ее ошибки - разве мы не предпочли бы вообще не иметь ошибок? - Но если мы предположим, что ни одна сеть не может обладать идеальной памятью, то качество ошибок становится очень важным. Кольцевая сеть допускает небольшие, разумные ошибки.

Рассмотрим пример теста на рабочую память, в котором испытуемые должны были запомнить цвет фигур на экране. Цвета хорошо отображаются в кольцевых сетях, потому что, как вы помните из уроков рисования, цвета располагаются на колесе. Итак, представьте себе сеть нейронов, расположенных в виде кольца, где каждый нейрон представляет немного другой цвет. На одной стороне кольца находятся нейроны, представляющие красный цвет, рядом с ними - оранжевые, затем желтые и зеленые; так мы доходим до стороны, противоположной красному, где находятся нейроны, представляющие синий цвет, которые ведут к фиолетовым и снова к красному.

В этой задаче при виде фигуры возникает активность в нейронах, представляющих ее цвет, в то время как другие нейроны молчат. В результате на кольце образуется небольшой "бугорок" активности, сосредоточенный на запомненном цвете. Если в то время, когда человек пытается удержать в памяти этот цвет, поступают какие-либо отвлекающие сигналы - например, от других случайных объектов в комнате, - они могут оттолкнуть или отодвинуть бугорок активности от желаемого цвета. Но - и это решающий- он сможет сдвинуть его только в очень близкое место на кольце. Так красный может стать красно-оранжевым или зеленый - тиловым. Но память красного цвета вряд ли станет зеленым. Или, если уж на то пошло, вообще не станет никаким цветом; где-то на кольце всегда будет неровность. Все эти свойства являются прямым следствием желобообразной природы непрерывного аттрактора - он обладает низким сопротивлением при переходе между близкими состояниями, но высоким сопротивлением при других возмущениях.

Еще одно преимущество кольцевой сети заключается в том, что ее можно использовать для выполнения различных действий. Слово "рабочая" в рабочей памяти призвано опровергнуть мнение о том, что память - это просто пассивное хранение информации. Напротив, хранение идей в рабочей памяти позволяет нам комбинировать их с другой информацией и приходить к новым выводам. Отличным примером этого является система направления головы у крыс, которая также послужила вдохновением для ранних моделей кольцевых сетей.

У крыс (как и у многих других животных) есть внутренний компас: набор нейронов, которые постоянно отслеживают направление, в котором находится животное. Если животное поворачивается лицом к новому направлению, активность этих клеток меняется, отражая это изменение. Даже если крыса сидит неподвижно в тихой затемненной комнате, эти нейроны продолжают работать, сохраняя информацию о направлении движения. В 1995 году группа специалистов из лаборатории Брюса Макнотона в Университете Аризоны и отдельно Кечен Чжан из Калифорнийского университета в Сан-Диего предположили, что этот набор клеток может быть хорошо описан кольцевой сетью. Направление - одно из тех понятий, которые хорошо отображаются в круге, и бугорок активности на кольце будет использоваться для хранения направления, в котором находится животное (см. рис.11).


Но кольцевая сеть не только объясняет, как знание о направлении головы сохраняется с течением времени, но и служит моделью того, как сохраненное направление может меняться, когда животное меняет направление. Клетки, определяющие направление головы, получают входные сигналы от других нейронов, например от нейронов зрительной системы и вестибулярного аппарата (который следит за движением тела). Если эти входы правильно подключены к кольцевой сети, они могут подтолкнуть бугорок активности к новому месту на кольце. Например, если вестибулярная система говорит, что тело сейчас движется влево, бугорок сдвигается влево. Таким образом, движение по кольцу не создает ошибок в памяти, а скорее обновляет ее на основе новой информации. Рабочая" память оправдывает свое название.

Рисунок 11

Кольцевые сети - прекрасное решение сложной проблемы создания надежных и функциональных систем рабочей памяти. Они также являются прекрасными математическими объектами. Они демонстрируют желаемые свойства простоты и симметрии. Они точны и тонко настроены, даже элегантны.


Как таковые, они совершенно нереальны. Потому что для биолога, конечно, "тонкая настройка" - это грязные слова. Все, что требует тонкого планирования и первозданных условий для нормальной работы, не выживет в хаосе, которым является развитие и деятельность мозга. Многие из желаемых свойств кольцевых сетей проявляются только при очень специфических предположениях о связности между нейронами, предположениях, которые просто не кажутся очень реалистичными. Поэтому, несмотря на все их желательные теоретические свойства и полезные возможности, шансы увидеть кольцевую сеть в мозге представляются незначительными.

Поэтому открытие, сделанное в исследовательском центре недалеко от Вашингтона в 2015 году, стало еще более захватывающим.

Janelia Research Campus - это исследовательский центр мирового класса, спрятанный на идиллических бывших сельскохозяйственных угодьях в Эшберне, штат Вирджиния. Вивек Джаяраман работает в Janelia с 2006 года. Он и его команда из примерно полудюжины человек работают над пониманием навигации у Drosophila melanogaster, вида плодовой мушки, широко изучаемого в нейронауках. Размер этих животных, сравнимый с рисовым зерном, является одновременно и благословением, и проклятием. Хотя их трудно достать, у этих крошечных мушек всего около 135 000 нейронов, что примерно на 0,2 процента больше, чем у другого популярного лабораторного животного - мыши. Кроме того, об этих нейронах известно очень многое. Многие из них легко классифицировать по генам, которые они экспрессируют, а их количество и расположение очень похожи у разных особей.

Как и у грызунов, у мух тоже есть система для отслеживания направления движения головы. Эллипсоидное тело расположено в центре мозга мухи и имеет уникальную форму: в его центре находится отверстие, вокруг которого расположены клетки, образующие пончик из нейронов - или, другими словами, кольцо.

Однако нейроны, расположенные кольцом, не обязательно образуют кольцевую сеть. Поэтому в лаборатории Джаярамана решили выяснить, действительно ли эта группа нейронов, похожая на кольцевую сеть, ведет себя так же. Для этого они поместили в нейроны эллипсоидного тела специальный краситель, который заставляет их светиться зеленым светом, когда они активны. Затем они заставили муху ходить, а нейроны снимали на видео. Если бы вы посмотрели на эти нейроны на экране, когда муха направляется вперед, вы бы увидели мерцание маленьких зеленых точек в одном месте на черном экране. Если муха решит повернуть, мерцающий участок переместится в другое место. Со временем, когда муха перемещается, а вместе с ней перемещается и зеленое пятно на экране, загоревшиеся точки образуют четкую кольцевую структуру, соответствующую основной форме тела эллипсоида. Если выключить в комнате свет, чтобы муха не могла видеть, в какую сторону она направлена, зеленое мерцание все равно останется в том же месте кольца - явный признак того, что память о направлении движения сохраняется.

Помимо наблюдения за активностью кольца, экспериментаторы также манипулировали им, чтобы исследовать крайние варианты его поведения. Настоящая кольцевая сеть может поддерживать только одну "шишку" активности, то есть в данный момент времени активными могут быть только нейроны в одном месте кольца. Поэтому исследователи искусственно стимулировали нейроны на стороне кольца, противоположной тем, которые уже были активны. Такая сильная стимуляция противоположных нейронов привела к тому, что первоначальный бугорок выключился, а бугорок в новом месте сохранился даже после того, как стимуляция былавыключена. В ходе этих экспериментов стало ясно, что эллипсоидное тело - не самозванец, а яркий пример воплощения теории в жизнь.

Это открытие - кольцевая сеть в буквальной, видимой форме кольца - похоже на то, что природа нам подмигивает. Уильям Скэггс и другие авторы одной из оригинальных работ, в которой предлагалась кольцевая сеть, явно сомневались в возможности такой находки: "Для наглядности полезно представлять сеть как набор круговых слоев; это не отражает анатомическую организацию соответствующих клеток в мозге". Большинство теоретиков, работавших над моделями кольцевых сетей, предполагали, что они будут встроены в какую-то более крупную и запутанную сеть нейронов. И так будет в большинстве систем у большинства видов. Этот аномально чистый пример, вероятно, возник в результате очень точно контролируемой генетической программы. Другие будет гораздо сложнее обнаружить.

Даже если мы обычно не можем увидеть их напрямую, мы можем сделать предсказания о поведении, которое мы ожидаем увидеть, если мозг использует непрерывные аттракторы. В 1991 году исследователь рабочей памяти Патриция Голдман-Ракич обнаружила, что блокирование функции нейромодулятора дофамина затрудняет запоминание обезьянами местоположения предметов. Известно, что дофамин изменяет поток ионов в клетку и из нее. В 2000 году исследователи из Института Солка в Калифорнии показали, как имитация присутствия дофамина в модели с непрерывным аттрактором улучшает память модели. Он стабилизирует активность нейронов, кодирующих память, делаяих более устойчивыми к нерелевантным входным сигналам. Поскольку дофамин связан с вознаграждением, эта модель также предсказывает, что в условиях, когда человек ожидает большого вознаграждения, его рабочая память будет лучше - именно это и было обнаружено. Когда людям обещают большую награду за запоминание чего-либо, их рабочая память становится лучше. Здесь концепция аттрактора работает как нить, сшивающая химические изменения с когнитивными. Она связывает ионы с опытом.

Аттракторы вездесущи в физическом мире. Они возникают в результате локальных взаимодействий между частями системы. Будь то атомы в металле, планеты в солнечной системе или даже люди в сообществе, они будут вынуждены двигаться к состоянию аттрактора и, если не произойдет серьезных сбоев, останутся в нем. Применение этих концепций к нейронам, формирующим память, соединяет точки в биологии и психологии. С одной стороны, сети Хопфилда связывают формирование и извлечение воспоминаний с тем, как меняются связи между нейронами. С другой стороны, такие структуры, как кольцевые сети, лежат в основе того, как идеи удерживаются в сознании. В одной простой схеме мы описываем, как записываются, сохраняются и активизируются воспоминания.

 

Глава 5. Возбуждение и торможение.

Сбалансированная сеть и колебания

Почти в каждом нейроне идет борьба. Эта борьба - борьба за конечный результат работы нейрона - сталкивает две фундаментальные силы мозга друг с другом. Это битва возбуждения против торможения. Возбуждающие сигналы побуждают нейрон к действию. Тормозные сигналы делают обратное: они отодвигают нейрон дальше от порога возбуждения.

Баланс между этими двумя силами определяет деятельность мозга. Он определяет, какие нейроны и когда срабатывают. Он формирует их ритмы - ритмы, которые задействованы во всем, от внимания до сна и памяти. Возможно, более удивительно то, что баланс между возбуждением и торможением также может объяснить особенность мозга, которая преследовала ученых на протяжении десятилетий: пресловутую ненадежность нейронов.

Если подслушать нейрон, который должен выполнять одно и то же действие снова и снова - например, нейрон в двигательной системе, повторяющий одно и то же движение, - то можно обнаружить, что его активность удивительно неравномерна. Вместо того чтобы каждый раз дословно повторять один и тот же паттерн всплесков, он будет срабатывать чаще при одних попытках и реже при других.

Ученые узнали об этой своеобразной привычке нейронов еще во времена нейронной записи. В 1932 году физиолог Джозеф Эрлангер обновил оборудование в своейлаборатории в Сент-Луисе, что позволило ему регистрировать нейронную активность с чувствительностью, в 20 раз превышающей прежнюю. Вместе со своим коллегой Э. А. Блэром он наконец-то смог выделить отдельные нейроны в лапке лягушки и записать, как они реагируют на точные импульсы электричества - 58 одинаковых импульсов в минуту, если быть точным.

К своему удивлению, Эрлангер и Блэр обнаружили, что одинаковые импульсы не вызывают одинаковых ответов: нейрон может реагировать на один импульс тока, но не на следующий. При этом сохранялась зависимость между силой импульса и реакцией: например, при использовании слабых токов нейрон реагировал, скажем, в 10 процентах случаев, средних - в половине случаев и так далее. Но за пределами этих вероятностей реакция нейрона на тот или иной импульс казалась делом чистой случайности. Как писала пара в своей статье, опубликованной в 1933 году в American Journal of Physiology: "Мы были поражены калейдоскопическим видом [ответов], полученных от больших нервов при абсолютно постоянных условиях".

Эта работа стала одним из первых исследований, систематически изучавших загадочные неровности нервной системы, но она была далеко не последней. Например, в 1964 году пара американских ученых раз за разом выполняла одно и то же движение щеткой по коже обезьяны. Они сообщили, что активность нейронов, реагирующих на это движение, выглядит как "серия нерегулярно повторяющихся импульсов, так что в целом при визуальном осмотре нельзя обнаружить никакой упорядоченной картины".

В 1983 году группа исследователей из Кембриджа и Нью-Йорка отметила, что: "Известно, что изменчивость реакции нейронов коры головного мозга весьма значительна". Их исследование зрительной системы у кошек и обезьян показало, чтонейронный ответ на повторение одного и того же изображения дает разные результаты. Реакция все еще имеланекоторую связь со стимулом - клетки все еще меняли среднее число срабатываний на разные изображения. Но какой именно нейрон и когда сработает в каждом конкретном случае, казалось, было так же непредсказуемо, как погода на следующей неделе. Последовательное предъявление одинаковых стимулов не дает одинаковых реакций", - заключили авторы.

В 1998 году два видных нейробиолога даже сравнили работу мозга со случайностью радиоактивного распада, написав, что нейроны имеют "больше общего с тиканьем счетчика Гейгера, чем с часами".

Десятилетия исследований и тысячи статей привели к тому, что нервная система оказалась в полном беспорядке. Сигналы, поступающие в мозг, воздействуют на нейроны, которые и без того включаются и выключаются по собственной прихоти. Поступающие на эти нейроны сигналы могут влиять на их активность, но не контролировать ее в точности - всегда будет присутствовать элемент неожиданности. Эту предположительно бесполезную болтовню, отвлекающую от основного сообщения, которое пытается передать нейрон, неврологи называют "шумом".

Как знаменито сказал Эйнштейн в отношении новой науки - квантовой механики: "Бог не играет в кости". Так почему же мозг должен играть? Может ли быть какая-то веская причина, по которой эволюция породила шумные нейроны? Некоторые философы утверждают, что шум в мозге может быть источником нашей свободы воли - это способ преодолеть представление о разуме как о подчиненном тем же детерминированным законам, что и любая машина. Однако другие с этим не согласны. Как писал британский философ Гален Стросон: "Возможно, некоторыеизменения в человеке можно отследить... под влиянием индетерминистских или случайных факторов. Но абсурдно полагать, что индетерминистские или случайные факторы, за которые человек [по определению] никак не отвечает, сами по себе могут способствовать тому, что человек будет действительно морально ответственным за то, каким он является". Другими словами, следование решениям, основанным на подбрасывании монеты, тоже не совсем "свободно".

Ученые выдвигали и другие цели для этой непредсказуемости. Например, случайность может помочь узнать что-то новое. Если кто-то каждый день ходит на работу по одной и той же дороге, то случайный поворот налево может привести его в незнакомый парк, новое кафе или даже ускорить путь. Нейронам тоже полезно немного исследовать, и шум позволяет им это сделать.

Помимо вопроса о том, почему нейроны шумят, нейробиологов волнует вопрос о том, как они становятся такими. Возможные источники шума существуют за пределами мозга. Например, фоторецепторы в глазах должны получить определенное количество фотонов, чтобы отреагировать на них. Но даже постоянный источник света не может гарантировать, что в глаз будет поступать постоянный поток фотонов. Таким образом, входной сигнал для нервной системы может быть ненадежным.

Кроме того, некоторые элементы работы нейрона зависят от случайных процессов. Например, электрическое состояние нейрона меняется, если меняется диффузия ионов в жидкости вокруг него. Кроме того, нейроны, как и любые другие клетки, состоят из молекулярных машин, которые не всегда работают по плану: необходимые белки могут вырабатываться недостаточно быстро, подвижные части могут застревать и т. д.Хотя эти физические сбои могутспособствовать шумности мозга, они, похоже, не полностью объясняют ее. На самом деле, если взять нейроны из коры головного мозга и поместить их в чашку Петри, они ведут себя гораздо надежнее: стимуляция этих нейронов одним и тем же способом дважды приводит к одинаковым результатам. Поэтому элементарные сбои в работе клеточных механизмов - которые могут происходить как в чашке, так и в мозге - кажутся недостаточными для объяснения шума, который обычно наблюдается.

Таким образом, бухгалтерия не сбалансирована: вносимый шум почему-то не равен производимому шуму. Можно было бы предположить, что это просто любопытная ошибка в учете; возможно, в нейронном механизме есть несколько лишних ненадежных шестеренок, или входные данные из мира еще менее стабильны, чем мы думаем. Подобные ошибки могли бы компенсировать разницу, если бы не один маленький факт: сама природа работы нейронов делает их шумоподавителями.

Чтобы понять это, представьте, что вы с друзьями играете в игру, цель которой - посмотреть, как далеко вы сможете коллективно перебросить футбольный мяч по длинному полю, пока не истечет таймер. Никто из вас не обладает хорошей практикой, и время от времени вы совершаете ошибки - кто-то пропускает пас, кто-то устает, кто-то спотыкается. Вы также иногда превосходите свои собственные ожидания, бегая слишком быстро или передавая пас слишком далеко. Если отведенное время невелико - скажем, 30 секунд, - то такие кратковременные промахи или преимущества сильно скажутся на вашей дистанции. Вы можете пробежать 150 м в одной попытке и 20 в следующей. Но если время большое, скажем, пять минут, эти колебания в результатах могут просто уравновесить друг друга: медленное начало может быть компенсировано интенсивным спринтом в конце, или выигрыш от длинного прохода может быть потерян из-за падения. В результате, чем большевремя , тем более схожей будет дистанция в каждой попытке. Другими словами, "шумность" ваших спортивных способностей со временем выравнивается.

Нейроны оказываются в похожей ситуации. Если нейрон получает достаточно входного сигнала за определенный промежуток времени, он выдает спайк (см. рис. 12). Получаемый им входной сигнал является шумовым, поскольку он поступает от других нейронов. Так, в один момент нейрон может получить, скажем, пять входных сигналов, в следующий - 13, а после этого - ноль. Как и в примере с игрой, если нейрон будет долгое время принимать шумовые сигналы, прежде чем решить, достаточно ли их для всплеска, влияние шума уменьшится. Однако если он использует только быстрый снимок входного сигнала, шум будет доминировать.

Сколько же времени нейрон комбинирует свои входные сигналы? Около 20 миллисекунд. Это может показаться мало, но для нейрона это очень много. Спайк длится всего 1 миллисекунду, а клетка может получать множество импульсов одновременно со всех своих входов. Поэтому нейроны должны уметь брать среднее значение по многим снимкам входного сигнала, прежде чем принять решение о спайке.

Неврологи Уильям Софтки и Кристоф Кох использовали простую математическую модель нейрона - модель "утечки интеграта и огня", представленную в главе 2, - чтобы проверить именно это. В своем исследовании 1993 года они смоделировали нейрон, получающий входные сигналы в нерегулярное время. Однако сам нейрон - поскольку он интегрировал эти входящие импульсы во времени - все равно производил выходные импульсы, которые были гораздо более регулярными, чем получаемые им входные сигналы. Это означает, что нейроны действительно способны уничтожать шум - принимать шумные входные сигналы и производить менее шумные выходные сигналы.

Рисунок 12

Если бы нейроны не могли гасить шум, то ненадежность мозга не была бы такой загадкой. Как уже говорилось, можно предположить, что небольшое количество случайностей попадает в мозг - либо из внешнего мира, либо изнутри клетки - и распространяется по системе через связи между нейронами. Если бы шумные входы приводили к таким же, а возможно, и более шумным выходам, это была бы вполне самосогласованная история: шумные нейроны порождали бы шумные нейроны. Но, согласно модели Софтки и Коха, все происходит иначе. При прохождении через нейрон шум должен становиться слабее. При прохождении через целую сеть нейронов он должен был бы полностью исчезнуть. Однако куда бы ни посмотрели неврологи, он есть.

Мозг не только непредсказуем, но и, похоже, поощряет эту непредсказуемость - вопреки естественному стремлению нейронов подавить ее. Что поддерживает случайность? Есть ли в мозге генератор случайных чисел? Что-то вроде скрытой биологической игральной кости? Или, как предположили ученые 1990-х годов, все эти беспорядки на самом деле являются результатом более фундаментального порядка, баланса между возбуждением и торможением?

* * *

Эрнсту Флори потребовалось несколько визитов к мяснику из Лос-Анджелеса, чтобы обнаружить источник торможения в мозге.

В середине 1950-х годов Флори, нейробиолог немецкого происхождения, эмигрировавший в Северную Америку, работал над этим вопросом вместе со своей женой Элизабет. В то время уже был установлен факт, что нейроны общаются между собой, посылая друг другу химические вещества - так называемые нейротрансмиттеры. Однако единственные известные нейротрансмиттеры были возбуждающими - то есть химическими веществами, которые заставляли нейрон с большей вероятностью выстрелить. Однако уже с середины XIX века было известно, что некоторые нейроны могут снижать электрическую активность своих объектов. Например, братья Веберы, Эрнст и Эдуард, в 1845 году показали, что электрическая стимуляция нерва в спинном мозге может замедлить работу клеток, контролирующих биение сердца, и даже привести его к остановке. Это означало, что химическое вещество, выделяемое этими нейронами, было тормозным - оно снижало вероятность того, что клетки начнут биться.

Флори нужны были образцы для исследования "фактора I" - так он назвал вещество, отвечающее за торможение. Поэтому он регулярно ездил на своем Chevrolet 1934 года выпуска к конному мяснику и брал у него части, не столь любимые обычными покупателями: свежие мозги и спинной мозг. Выделив из этой нервной ткани различные вещества, он проверил, что произойдет, если применить каждое из них к живым нейронам, взятым у раков. В итоге он определилнесколько химических веществ-кандидатов, которые надежно успокаивали рачьи нейроны. Такое межвидовое сопряжение было, по сути, удачей со стороны Флори. Не всегда можно предположить, что нейротрансмиттеры у разных животных функционируют одинаково. Но в данном случае то, что тормозило лошадь, тормозило и раков.

С помощью профессиональных химиков Флори использовал ткань другого животного - 45 кг (100 фунтов) коровьего мозга, чтобы очистить "фактор I" до его базовой химической структуры. В итоге у него осталось 18 мг гамма-аминомасляной кислоты. Гамма-аминомасляная кислота (или ГАМК, как ее чаще называют) была первым идентифицированным тормозным нейротрансмиттером.

Является ли нейротрансмиттер тормозным или возбуждающим, зависит от глаза смотрящего - или, если говорить более технически, от рецептора нейрона-мишени. Когда нейромедиатор высвобождается из одного нейрона, химическое вещество преодолевает короткое расстояние через синапс между этим нейроном и его мишенью. Затем оно прикрепляется к рецепторам, расположенным на мембране целевого нейрона. Эти рецепторы похожи на маленькие белковые замки. Для их открытия требуется правильный ключ - то есть правильный нейромедиатор. А когда они открыты, то довольно избирательно относятся к тому, кого впускать. Например, один из видов рецепторов, к которым присоединяется ГАМК, пропускает в клетку только хлорид-ионы. Хлорид-ионы имеют отрицательный заряд, и если впустить их больше, то нейрону будет сложнее достичь электрического порога, необходимого для выстрела. Рецепторы, к которым прикрепляются возбуждающие нейротрансмиттеры, пропускают положительно заряженные ионы, например натрия, которые приближают нейрон к порогу.


Нейроны склонны выделять один и тот же нейромедиатор на все свои мишени - этот принцип известен как закон Дейла (названный в честь Генри Халлетта Дейла, который смело предположил это в 1934 году, когда были идентифицированы только два нейромедиатора). Нейроны, выделяющие ГАМК, называются "ГАМК-эргическими", хотя, поскольку ГАМК является наиболее распространенным тормозным нейромедиатором в мозге взрослого млекопитающего, их часто называют просто "тормозными". Возбуждающие передатчики немного разнообразнее, но нейроны, которые их выделяют, все равно в целом классифицируются как "возбуждающие". В пределах одной области коры возбуждающие и тормозные нейроны свободно перемешиваются, посылая связи друг к другу и получая их друг от друга.

В 1991 году, после того как многие факты о торможении были установлены, Флори написал ретроспективу о своей роли в открытии первого - и, возможно, самого важного - тормозного нейротрансмиттера. Он закончил ее фразой: "Что бы ни делал мозг для разума, мы можем быть уверены, что ГАМК играет в этом главную роль". Вероятно, Флори не знал, что в то же самое время развивается теория, согласно которой торможение является ключевым игроком в производстве непредсказуемости мозга.

* * *

Возвращаясь к аналогии с футбольным матчем с таймером, представьте, что к вам добавилась еще одна команда. Их цель - бороться с вами, перемещая мяч на противоположный конец поля. Когда часы остановятся, победит тот, кто окажется ближе к своей цели. Если другая команда также состоит из ваших друзей-полуспортсменов, то в среднем обе командыбудут выступать одинаково. Шумность вашего выступления все равно повлияет на результат: ваша команда может обойти другую на несколько метров в одной попытке и на столько же в другой. Но в целом это будет сбалансированная и спокойная игра.

А теперь подумайте, если бы в другой команде были профессиональные спортсмены - одни из самых сильных и быстрых игроков на свете. В этом случае у вас и ваших друзей не было бы ни единого шанса; вас бы всегда били. Именно поэтому никто не станет смотреть соревнования между карьерными футболистами и школьной командой, Тайгер Вудс против вашего отца или Годзилла против буквально мотылька. Исход всех этих матчей слишком предсказуем, чтобы быть интересным. Другими словами, нечестные бои создают постоянство; честные бои более увлекательны.

В коре головного мозга нейроны имеют тысячи связей как с возбуждающими, так и с тормозящими клетками. Благодаря этому каждая отдельная сила сильна и постоянно доминировала бы, если бы другая была хоть немного слабее. Например, без присутствия торможения сотни возбуждающих сигналов, бомбардирующих клетку в любой момент, заставили бы ее гореть почти постоянно; с другой стороны, одно только торможение привело бы клетку в состояние полного застоя. При огромной силе каждой из сторон истинная активность нейрона - это результат перетягивания каната между гигантами. То, что происходит в нейроне, - это действительно сбалансированная борьба, которую можно увидеть на Олимпийских играх, а не на школьном дворе.

Скажите этот факт специалисту по информатике, и он может начать волноваться. Это потому, что ученые-компьютерщики знают, что вычисление разницы между слишком большими и шумными числами может привести к большим проблемам. В компьютерах числамогут быть представлены только с определенным уровнем точности. Это означает, что некоторые числа необходимо округлять, что вносит погрешность или шум в вычисления. Например, компьютер с точностью только до трех цифр может представить число 18 231 как 1,82x103; оставшиеся 31 потеряются при округлении. При вычитании двух примерно равных чисел влияние этой ошибки округления может повлиять на ответ. Например, 18 231 минус 18 115 равно 116, но компьютер вычислит эту разницу как 1,82x103 минус 1,81x103, что составляет всего 10! Таким образом, компьютер отклоняется на 106. И чем больше число, тем больше будет ошибка. Например, компьютер с трехзначной точностью, вычисляющий 182 310 минус 181 150, выдаст ответ, который на 1 060 меньше истинного.

Вы бы не почувствовали себя комфортно, если бы ваш банк или кабинет врача производили вычисления подобным образом. По этой причине программистов учат писать свой код так, чтобы избежать вычитания двух очень больших чисел. Однако нейроны вычитают два больших числа - возбуждение минус торможение - в каждый момент времени. Может ли такой "баг" быть частью операционной системы мозга?

Ученые уже некоторое время размышляли над этой идеей, когда в 1994 году нейробиологи из Стэнфорда Майкл Шадлен и Уильям Ньюсом решили проверить ее на практике. Подобно работе Софтки и Коха, Шадлен и Ньюсом построили математическую модель одного нейрона и подали на него входные сигналы. Однако на этот раз нейрон получал как шумные возбуждающие, так и шумные тормозящие сигналы. Когда эти две силы противостоят друг другу, иногда побеждает возбуждение, а иногда - торможение. Эта ли эта борьба похожа на шумные вычисления и приведет ли она к появлению нейрона, которыйбудет работать нестабильно? Или нейрон все же сможет подавить шум в этих входах так же, как он подавлял возбуждающие входы в работе Софтки и Коха? Шадлен и Ньюсом обнаружили, что, действительно, при обоих этих типах входов - каждый из которых поступал с одинаково высокой скоростью - выход нейрона был зашумлен.

В боксерском поединке между любителями кратковременное ослабление внимания одного из них может позволить другому нанести небольшой удар. Однако в поединке между профессионалами такой же промах может привести к нокауту. В общем, чем сильнее две соперничающие силы, тем больше колебания в исходе их борьбы. Именно так внутренняя борьба между возбуждением и торможением в нейроне может превзойти его обычные способности к подавлению шума. Поскольку оба источника равномерно распределены, чистый вход нейрона (то есть общее возбуждение минус общее торможение) в среднем не очень велик. Но поскольку оба источника сильны, колебания вокруг этого среднего значения огромны. В один момент нейрон может оказаться намного выше своего порога возбуждения и выдать спайк. В следующий момент его может заставить замолчать волна торможения. Эти воздействия могут заставить нейрон выстрелить, когда в противном случае он бы не выстрелил, или замолчать, когда в противном случае он бы замолчал. Таким образом, баланс между возбуждением и торможением создает хаос в нейроне и помогает объяснить изменчивость мозга.

Моделирование, проведенное Шадленом и Ньюсомом, в значительной степени помогло понять, как нейроны могут оставаться шумными. Но оно не зашло достаточно далеко. Реальные нейроны получают сигналы от других реальных нейронов. Чтобы теория о том, что шум возникает в результате баланса между возбуждением и торможением, была верной, она должнаработать для целой сети возбуждающих и тормозящих нейронов. Это означает, что каждый нейрон получает входные сигналы от других нейронов, и его выходные сигналы также возвращаются к ним. Однако в моделировании Шадлена и Ньюсома участвовал всего один нейрон, который получал входные сигналы, контролируемые создателями модели. Вы не можете просто посмотреть на доходы и расходы одного домохозяйства и решить, что национальная экономика сильна. Точно так же моделирование одного нейрона не может гарантировать, что сеть нейронов будет работать так, как нужно. Как мы видели в предыдущей главе, в системе с большим количеством движущихся частей все они должны двигаться правильно, чтобы получить желаемый результат.

Чтобы заставить целую сеть производить надежный шум, требуется координация: каждый нейрон должен получать возбуждающий и тормозной вход от своих соседей примерно в равных пропорциях. При этом сеть должна быть самосогласованной - то есть каждый нейрон должен производить столько же шума, сколько он получает, ни больше, ни меньше. Может ли сеть из взаимодействующих возбуждающих и тормозящих клеток на самом деле поддерживать такой уровень шума, который наблюдается в мозге, или же шум в конце концов стихнет или взорвется?

* * *

Когда дело доходит до вопросов самосогласованности в сетях, физики знают, что делать.Как мы видели в предыдущей главе, в физике полно ситуаций, когда самосогласованность важна: например, газы, состоящие из большого количества простых частиц, где каждая частица подвержена влиянию всех окружающих ее частиц иответвлияет на них.Поэтому были разработаны методы, облегчающие работу с математикой этих взаимодействий.

В 1980-х годах израильский физик Хаим Сомполинский использовал эти методы, чтобы понять, как ведут себя материалы при различных температурах. Но в конце концов его интересы обратились к нейронам. В 1996 году Сомполинский и его коллега, физик, ставший нейробиологом, Карл ван Вресвейк применили физический подход к вопросу о балансе в мозге. Подражая математике, используемой для понимания взаимодействующих частиц, они записали несколько простых уравнений, которые представляли очень большую популяцию взаимодействующих возбуждающих и тормозящих клеток. Эта популяция также получала внешние сигналы, представляющие собой связи, поступающие из других областей мозга.

С помощью простых уравнений ван Вресвейк и Сомполински смогли математически определить, какое поведение они хотели бы видеть в модели. Например, клетки должны быть способны поддерживать активность, но не слишком активную (например, не должны безостановочно стрелять). Кроме того, они должны реагировать на увеличение внешнего сигнала повышением средней скорости стрельбы. И, конечно же, реакция не должна быть шумной.

Введя эти требования, ван Вресвейк и Сомполински стали перебирать уравнения. Они обнаружили, что для создания полноценной сети, которая будет продолжатьнерегулярнострелятьс разумной скоростью, необходимо соблюсти некоторые условия. Например, тормозные клетки должны оказывать на возбуждающие клетки более сильное влияние, чем возбуждающие клетки друг на друга. Благодаря тому, что возбуждающие клетки получают чуть больше торможения, чем возбуждения, активность сети находится под контролем. Также важно, чтобы связи между нейронами были случайными и редкими - каждая клетка должна получать входные сигналы, скажем, от пяти или десяти процентов других клеток. Это гарантирует, что два нейрона не будут зациклены на одной и той же модели поведения.

Ни одно из требований, которые обнаружили ван Вресвейк и Сомполински, не было неразумным для мозга. И когда пара провела симуляцию сети, которая отвечала всем этим требованиям, возник необходимый баланс между возбуждением и торможением, а симулированные нейроны выглядели такими же шумными, как и реальные. Интуиция Шадлена и Ньюсома о том, как один нейрон может поддерживать шумный режим работы, действительно подтвердилась в сети взаимодействующих нейронов.

Ван Вресвейк и Сомполински не только показали, что в сети можно сбалансировать возбуждение и торможение, но и обнаружили возможную пользу от этого: нейроны в плотно сбалансированной сети быстро реагируют на входные сигналы. Когда сеть сбалансирована, она похожа на водителя, у которого каждая нога одинаково нажата на газ и тормоз. Однако этот баланс нарушается при изменении количества внешнего сигнала. Поскольку внешние сигналы являются возбуждающими - а они направлены на возбуждающие клетки сети в большей степени, чем на тормозящие, - увеличение их количества подобно увеличению веса на педали газа. После этого автомобиль разгоняется почти так же быстро, как и поступил сигнал. Однакопосле первоначальной реакциисеть восстанавливает равновесие. Взрыв возбуждения в сети заставляет тормозные нейроны срабатывать сильнее, и - подобно добавлению дополнительного груза на тормоз - сеть приходит в новое равновесие, готовая снова реагировать. Такая способность быстро реагировать на изменение входного сигнала может помочь мозгу точно идти в ногу с меняющимся миром.

Знание того, что математика работает, обнадеживает, но настоящая проверка теории происходит на реальных нейронах. В работе Ван Вресвейка и Сомполинского содержится множество предсказаний, которые нейроученые могут проверить, что и сделали Майкл Вер и Энтони Задор из лаборатории Колд-Спринг-Харбор в 2003 году. Пара записывала нейроны в слуховой коре крыс, которая отвечает за обработку звука, в то время как животным проигрывались различные звуки. Обычно, когда неврологи опускают электрод в мозг, они пытаются уловить выход нейронов - то есть их всплески. Но эти исследователи использовали другую технику, чтобы подслушать, какой вход получает нейрон - в частности, чтобы увидеть, уравновешивают ли возбуждающие и тормозящие сигналы друг друга.

Они увидели, что сразу после включения звука в клетку поступает мощный поток возбуждения. За ним почти сразу же последовал такой же приток торможения - тормоз, который следует за газом. Поэтому увеличение входного сигнала в этой реальной сети показало именно то поведение, которое ожидалось от модели. Даже при использовании более громких звуков, которые вызывали большее возбуждение, количество торможения, которое следовало за ним, всегда соответствовало ему. Казалось, что в мозге возникает баланс, как и в модели.

Чтобы исследовать еще одно предсказание модели, ученым пришлось проявить некоторую изобретательность. Ван Вресвейк и Сомполинскипоказали, что для создания сбалансированной сети сила связей между нейронами должна зависеть от общего количества связей: при большем количестве связей каждая связь может быть слабее. Жереми Барраль и Алекс Рейес из Нью-Йоркского университета хотели найти способ изменить количество связей в сети, чтобы проверить эту гипотезу.

Внутри мозга сложно контролировать рост нейронов. Поэтому в 2016 году они решили выращивать их в чашке Петри. Это экспериментальная установка, которая по своей простоте, управляемости и гибкости почти как живая версия компьютерной симуляции. Чтобы контролировать количество связей, они просто поместили в чашку разное количество нейронов; в чашках с большим количеством нейронов образовывалось больше связей. Затем они наблюдали за активностью нейронов и проверяли силу их связей. Все популяции (содержащие как возбуждающие, так и тормозящие клетки) шумели, как и положено сбалансированной сети. Но сила связей резко различалась. В блюде, где каждый нейрон имел всего около 50 связей, связи были в три раза сильнее, чем в блюде с 500 связями. На самом деле, если рассматривать все популяции, средняя сила связи была примерно равна единице, деленной на квадратный корень из числа связей - именно то, что предсказывала теория ван Вресвейка и Сомполинского.

По мере того, как искались все новые и новые доказательства, находилось все больше подтверждений тому, что мозг находится в сбалансированном состоянии. Но не все эксперименты проходили так, как предсказывала теория; не всегда наблюдался жесткий баланс между возбуждением и торможением. Есть все основания полагать, что определенныеобласти мозга , занятые выполнением определенных задач, могут с большей вероятностью демонстрировать сбалансированное поведение. Например, слуховая кора должна реагировать на быстрые изменения частоты звука, чтобы обрабатывать поступающую информацию. Поэтому быстрая реакция хорошо сбалансированных нейронов - подходящий вариант. Для других областей, где не требуется такая скорость, может быть найдено другое решение.

Прелесть баланса в том, что он берет вездесущего обитателя мозга - торможение - и заставляет его работать над решением столь же вездесущей загадки - шума. И все это без какой-либо опоры на магию: то есть без скрытого источника случайности. Шум возникает даже тогда, когда нейроны реагируют так, как и должны.

Этот контр-интуитивный факт, что хорошее поведение может привести к бедламу, очень важен. И он уже был замечен ранее. Ван Вресвейк и Сомполински ссылаются на эту историю в первом слове названия своей работы: "Хаос в нейронных сетях со сбалансированной возбуждающей и тормозной активностью".

* * *

В 1930-х годах хаоса не существовало: когда нейробиологи впервые осознали, насколько шумны нейроны, математическая теория, позволяющая понять их поведение, еще не была открыта. А когда она появилась, все произошло, казалось бы, случайно.

Кафедра метеорологии в Массачусетском технологическом институте была основана в 1941 году, как раз к приезду Эдварда Лоренца. Лоренц, родившийся в 1917 году в хорошем районе Коннектикута в семье инженера и учительницы, с ранних лет проявлял интерес к числам, картам и планетам. Степень бакалавра по математике он собирался продолжить, но, как и в случае со многими учеными его времени, вмешалась война. В 1942 году Лоренц получил задание предсказывать погоду для военно-воздушного корпуса США. Чтобы научиться этому, он прошел ускоренный курс метеорологии в Массачусетском технологическом институте. После окончания службы в армии он остался заниматься метеорологией и остался в Массачусетском технологическом институте: сначала в качестве аспиранта, затем научного сотрудника и, наконец, профессора.

Если вы когда-нибудь пытались спланировать пикник, то знаете, что предсказание погоды далеко от совершенства. Академические метеорологи, занимающиеся крупномасштабной физикой планеты, вряд ли считают ежедневное прогнозирование своей целью. Но Лоренц не переставал интересоваться этим вопросом и тем, как новая технология - компьютер - может помочь.

Уравнения, описывающие погоду, многочисленны и сложны. Перебирать их вручную, чтобы понять, как погода сейчас приведет к погоде потом, - огромная, почти невыполнимая задача (к тому времени, когда вы ее закончите, предсказываемая вами погода, скорее всего, уже пройдет). Но компьютер, вероятно, может сделать это гораздо быстрее.

В 1958 году Лоренц проверил это на практике. Он свел динамику погоды к 12 уравнениям, выбрал несколько значений для начала - скажем, западный ветер со скоростью 100 км/час - и пустил математику в ход. По ходу дела он распечатывал результаты модели на рулонах бумаги. Выглядело это достаточно похоже на погоду, со знакомыми приливами и отливами течений и температур. Однажды он захотел повторить моделирование, чтобы посмотреть, как оно будет развиваться в течение более длительного периода времени. Вместо того чтобы начинать ее с самого начала, он решил, что может запустить ее частично качестве начальных условий значения из распечатки . Нетерпение иногда является матерью открытий.

Однако цифры, которые распечатал компьютер, были неполными. Чтобы больше поместилось на странице, принтер сократил количество цифр после запятой с шести до трех. Таким образом, числа, которые Лоренц ввел во второй запуск симуляции, не совпадали с тем, что было в модели до этого. Но какое значение могут иметь несколько знаков после запятой в модели погоды всего мира? Оказывается, совсем немного. После нескольких запусков математического механизма - около двух месяцев изменения погоды в модельном времени - этот второй запуск моделирования полностью отличался от первого. То, что было жарко, стало холодно, то, что было быстро, стало медленно. То, что должно было стать повторением, превратилось в откровение.

До этого момента ученые полагали, что небольшие изменения порождают только небольшие изменения. Небольшой порыв ветра в один момент времени не должен иметь силы, чтобы сдвинуть горы впоследствии. Согласно этой догме, то, что наблюдал Лоренц, должно было произойти в результате ошибки, возможно, технической ошибки, допущенной большими и неуклюжими компьютерами того времени.

Однако Лоренц был готов увидеть, что происходит на самом деле. Как он писал в 1991 году: "Ученый всегда должен быть в поиске других объяснений, кроме тех, которые широко распространены". То, что наблюдал Лоренц, было истинным поведением математики, какимбы не интуитивным оно ни казалось. В определенных ситуациях небольшие флуктуации могут усиливаться, делая поведение непредсказуемым. Это не ошибка или заблуждение, просто так устроены сложные системы. Хаос - так назвали этот феномен математики - реален, и ученым не мешало бы попытаться понять его.

Хаотические процессы приводят к результатам, которые выглядят случайными, но на самом деле являются следствием идеального следования правилам. Источником этого обмана является печальная истина о том, что наша способность предсказывать результаты, основываясь на знании правил, гораздо более ограничена, чем считалось ранее, особенно если эти правила сложны. В своей книге "Хаос: Making a New Science" ("Создание новой науки"), рассказывающей о том, как возникла эта область, Джеймс Глик пишет: "Традиционно динамик считал, что записать уравнения системы - значит понять ее... Но из-за маленьких кусочков нелинейности в этих уравнениях динамик оказался бы беспомощным в ответе на самые простые практические вопросы о будущем системы". Это наделяет даже самые простые системы, скажем, взаимодействующие бильярдные шары или качающиеся маятники, потенциалом порождать нечто удивительное". Он продолжает: "Те, кто изучал хаотическую динамику, обнаружили, что беспорядочное поведение простых систем действует как творческий процесс. Оно порождает сложность: богато организованные паттерны, иногда стабильные, иногда нестабильные, иногда конечные, иногда бесконечные".

Хаос творился в атмосфере - и если ван Вресвейк и Сомполинский были правы, то он творился и в мозге. Поэтому объяснение того, почему мозг реагирует на повторяющиеся сигналы с разнообразием, не обязательно связано с несовершенством клеточных механизмов. Это не значит, что в мозге нет источников шума (например, ненадежных ионных каналов или сломанных рецепторов), просто такой сложный объект, как мозг, с его взаимодействующими пулами возбуждения и торможения, не обязан демонстрировать богатые и нерегулярные реакции. В деле, при моделировании сети ван Вресвейку и Сомполински достаточно было изменить начальное состояние одного нейрона - с "горящего" на "не горящий" или наоборот - чтобы создать совершенно иную картину активности во всей совокупности. Если столь незначительное изменение может вызвать такие нарушения, способность мозга поддерживать шум кажется не такой уж загадочной.

* * *

В медицинских центрах по всему миру пациенты с эпилепсией проводят несколько дней - вплоть до недели - в маленьких комнатах. Эти "мониторинговые" комнаты обычно оснащены телевизором - для пациентов - и камерами, которые следят за движениями пациента - для врачей. Днем и ночью пациенты подключены к аппарату электроэнцефалограммы (ЭЭГ), который фиксирует поведение их мозга. Они надеются, что полученная информация поможет лечить их припадки.


Электроды ЭЭГ, прикрепленные с помощью наклеек и скотча к коже головы, отслеживают электрическую активность, производимую расположенным под ними мозгом. Каждый электрод дает одно измерение - сложную комбинацию активности многих и многих нейронов одновременно. Это сигнал, который изменяется во времени, как на сейсмографе. Когда пациенты бодрствуют, сигнал представляет собой неровную и волнистую линию: он беспорядочно движется вверх и вниз, но без выраженного ритма. Когда пациенты спят (особенно в глубоком сне без сновидений), на ЭЭГ возникают волны: большие движения вверх и вниз, продолжающиеся в течение секунды или более. Когда происходит интересующее нас событие - припадок, - движения становятся еще более резкими. Сигнал совершает большие, быстрые движения вверх и вниз, три-четыре раза в секунду, как ребенок, бешено рисующий мелком.

Что делают нейроны, чтобы создать такие сильные сигналы во время припадка? Они работают вместе. Подобно хорошо обученному военному строю, они маршируют в такт: срабатывают в унисон, затем замолкают и снова срабатывают. В результате возникает повторяющийся, синхронный всплеск активности, который заставляет сигнал ЭЭГ подниматься и опускаться снова и снова. Таким образом, припадок является противоположностью случайности - это идеальный порядок и предсказуемость.

Те же нейроны, которые вызывают припадок, также производят медленные волны сна и нормальную шумную активность, необходимую для повседневного познания. Как одна и та же цепь может демонстрировать такие разные модели поведения? И как она переключается между ними?

В конце 1990-х годов французский нейробиолог-вычислитель Николя Брюнель задался целью понять могут вести себя различные схемы. В частности, основываясь на работах ван Вресвейка и Сомполинского, он хотел изучить, как ведут себя модели, состоящие из возбуждающих и тормозных нейронов. Для этого Брунель исследовал пространство параметров этих моделей.

Параметры - это ручки, которые можно поворачивать в модели. Они представляют собой значения, которые определяют конкретные характеристики, например количество нейронов в сети или количество входов для каждого из них. Как и обычное пространство, пространство параметров можно исследовать в разных направлениях, но здесь каждое направление соответствует отдельному параметру. Брюнель решил исследовать два параметра: во-первых, сколько внешних сигналов получает сеть (т.е. сигналов из других областей мозга) и, во-вторых, насколько сильны тормозные связи в сети по сравнению с возбуждающими. Немного изменяя каждый из этих параметров и перебирая уравнения, Брюнель мог проверить, как поведение сети зависит от этих значений.

Проделав это для множества различных значений параметров, вы получите карту поведения модели. Широта и долгота на этой карте (см. рис. 13) соответствуют двум параметрам, которые варьировал Брюнель, соответственно. Для сети, расположенной в середине карты, торможение точно равно возбуждению, а вход в сеть имеет среднюю силу. В движении влево по карте возбуждение становится сильнее торможения; движется вправо и наоборот. Двигаясь вверх, вход в сеть становится сильнее, вниз - слабее. В таком виде сеть, которую изучали ван Вресвейк и Сомполински, - с тормозными связями, немного более сильными, чем возбуждающие, - находится чуть правее середины.

Рисунок 13

Брунель исследовал этот модельный ландшафт в поисках любых изменений в рельефе: заставляют ли определенные наборы параметров сеть вести себя кардинально по-другому? Чтобы найти первый поразительный ориентир, не нужно далеко отходить от исходной сети ван Вресвейка и Сомполински. При переходе из области, где сильнее торможение, в область, где сильнее возбуждение, происходит резкий переход. В математике такие переходы называются бифуркациями. Подобно крутому обрыву, отделяющему травянистую равнину от моря, бифуркации отмечают быстрый переход между двумя отдельными областями в пространстве параметров. На карте Брюнеля линия, где возбуждение и торможение равны, отделяет сети с нерегулярным, шумным возбуждением справа от сетей с жестким, предсказуемым возбуждением слева. В частности, когда торможение становится слишком слабым, нейроны в этих сетях прекращают свое уникальное питтер-паттер и начинают стрелять в унисон. Их жесткая синхронная активность - группы нейронов, включающиеся и выключающиеся вместе, - очень похожа на припадок.

Физиологи веками знали, что некоторые вещества действуют как конвульсанты - то есть вызывают судороги. С расширением знаний о нейромедиаторах, которое пришло в середине XX века, стало ясно, что многие из этих препаратов вмешиваются в процесс торможения. Например, бикукуллин, содержащийся в растениях по всей Северной Америке, не дает ГАМК присоединиться к рецептору. Туйон, присутствующий в малых дозах в абсенте, не дает рецепторам ГАМК пропускать хлорид-ионы. Каков бы ни был механизм, в конечном итоге эти наркотики нарушают баланс в мозге, ставя тормозящие влияния в невыгодное положение. Используя свой взгляд на поведение мозга с высоты птичьего полета, Брюнель смог увидеть, как изменение параметров мозга - с помощью наркотиков или иным способом - переводит его в различные состояния.

Путешествие на другой конец карты Брюнеля открывает еще одну модель деятельности. В этой области торможение преобладает над возбуждением. Если внешнее воздействие остается на среднем уровне, нейроны здесь не шумят. Однако стоит сдвинуться вверх или вниз, и появляются две похожие, но разные модели поведения. При высоком и низком уровне внешнего сигнала нейроны демонстрируют некоторую сплоченность. Если сложить количество нейронов, активных в каждый момент времени, то можно увидеть волны активности: короткие периоды более чем средней интенсивности стрельбы, за которыми следует меньшая. Но в отличие от военной точности припадка, сеть здесь больше похожа на ударную секцию, состоящую из шестилетних детей: здесь есть определенная организация, но не все постоянно играют вместе. Фактически, отдельный нейрон в этих сетях участвует только в каждой третьей или четвертой волне - и даже тогда их синхронизация не всегда идеальна. Таким образом, эти состояния одновременно и осциллирующие, и шумные.

Особенность, которая отличает поведение в правом верхнем углу карты от поведения в правом нижнем, - это частота колебаний. Если на сеть подавать сильные внешние сигналы, средняя активность будет быстро меняться вверх и вниз - до 180 раз в секунду. Сильный входной сигнал приводит в движение возбуждающие клетки, которые заставляют тормозящие клетки отключиться; затем тормозящие клетки отключаются сами, и все повторяется. Если уменьшить входной сигнал сети, она будет колебаться медленнее, около 20 раз в секунду. Эти медленные колебания происходят потому, что внешний вход в сеть настолько слаб, а торможение настолько сильно, что многие нейроны просто не получают достаточно входного сигнала для возбуждения. Однако те из них, которые срабатывают, используют свои связи, чтобы медленно оживить сеть. Если же активируется слишком много тормозных клеток, сеть снова становится тихой.

Несмотря на поверхностное сходство с припадком, эти беспорядочные колебания на самом деле не являются изнурительными. На самом деле ученые наблюдали осцилляции в самых разных частях мозга при самых разных условиях. Группы нейронов в зрительной коре, например, могут колебаться с частотой 60 раз в секунду. Гиппокамп (машина для обработки памяти из прошлой главы) иногда колеблется быстро, а иногда медленно. Обонятельная луковица, где обрабатываются запахи, генерирует волны с частотой от одного раза в секунду (что совпадает с частотой вдоха) до сотни раз. Колебания можно обнаружить повсюду, если присмотреться.

Математики с удовольствием наблюдают за осцилляциями. Это потому, что для математика колебания доступны. Хаос и случайность сложно уловить с помощью уравнений, но идеальная периодичность - это просто и элегантно. За тысячелетия математики разработали оборудование не только для описания колебаний, но и для предсказания их взаимодействия и обнаружения их в сигналах, которые - на нетренированный взгляд - могут вовсе не выглядеть как колебания.

Нэнси Копелл - математик, или, по крайней мере, была им раньше. Как и ее мать и сестра до нее, Копелл специализировалась на математике в бакалавриате. Затем она получила степень доктора философии5в Калифорнийском университете в Беркли в 1967 году и стала профессором математики в Северо-Восточном университете в Бостоне. Но после многих лет, проведенных на границе математики и биологии, где она брала проблемы из последней, чтобы вдохновиться идеями для первой, она начала чувствовать себя более оседлой в стране биологии. Как пишет Копелл в автобиографии: "Мой взгляд начал меняться, и я обнаружила, что физиологические явления интересуют меня не меньше, чем математические задачи, которые они порождают. Я не перестала думать математически, но проблемы интересовали меня меньше, если я не видела их связи с конкретными биологическими сетями". Многие из биологических сетей, которые ее интересовали, были нейронными, и на протяжении всей своей карьеры она изучала всевозможные колебания в мозге.

Высокочастотные колебания неврологи называют "гамма" волнами. Причина в том, что Ганс Бергер, изобретатель оригинального аппарата ЭЭГ, назвал большие медленные волны, которые он мог видеть на глаз на своем некачественном оборудовании, "альфа" волнами, а все остальное - "бета"; ученые, которые пришли после него, просто последовали его примеру, давая новым частотам, которые они находили, новые греческие буквы. Гамма-волны, хотя и быстрые, обычно невелики - или, говоря техническим языком, "низкоамплитудные". Их наличие, которое можно обнаружить с помощью современного электроэнцефалографа или электрода в мозге, ассоциируется с бдительным и внимательным умом.

В 2005 году Копелл и его коллеги придумали объяснение тому, как гамма-колебания могут помочь мозгу сосредоточиться. Их теория основана на том, что нейроны, представляющие информацию, на которую вы обращаете внимание, должны получить преимущество в колебаниях. Подумайте о попытке прослушать телефонный звонок посреди шумной комнаты. Здесь сигнал, на который вы обращаете внимание, - голос на другом конце линии - конкурирует со всеми отвлекающими звуками в комнате. В модели Копелла голос представлен одной группой возбуждающих клеток, а фоновая болтовня - другой. Обе эти группы посылают связи в общий пул тормозных нейронов и получают от него ответные связи.

Важно отметить, что нейроны, представляющие голос, поскольку они являются объектом внимания, получают немного больше входного сигнала, чем "фоновые" нейроны. Это означает, что они срабатывают первыми и более энергично. Если эти "голосовые" нейроны сработают в унисон, они - через свои связи с тормозными клетками - вызовут большое, резкое усиление тормозного возбуждения клеток. Эта волна торможения отключит клетки, представляющие как голос, так и фоновый шум. Таким образом, фоновые нейроны не получают шанса сработать и, следовательно, не могут помешать звучанию голоса. Как будто голосовые нейроны, срабатывая первыми, протискиваются в дверь и затем захлопывают ее перед фоновыми нейронами. И пока голосовые нейроны продолжают получать дополнительный вход, этот процесс будет повторяться снова и снова, создавая колебания. Фоновые нейроны будут вынуждены каждый раз молчать. В результате единственным оставшимся сигналом будет чистый звук голоса в телефоне.

Не ограничиваясь этой ролью во внимании, неврологи придумали бесчисленное множество других способов, как колебания могут помочь мозгу. Среди них - использование в навигации, памяти и движении. Предполагается, что колебания также улучшают связь между областями мозга и помогают организовать нейроны в отдельно функционирующие группы. Кроме того, существует множество теорий о том, как осцилляции нарушают работу мозга при таких заболеваниях, как шизофрения, биполярное расстройство и аутизм.

Из-за вездесущности колебаний может показаться, что их важность не вызывает сомнений, но это далеко не так. Хотя для колебаний было придумано несколько различных ролей, многие ученые по-прежнему настроены скептически.

Частично эта проблема возникает на самом первом этапе: как измеряются колебания. Вместо того чтобы записывать данные с множества нейронов одновременно, многие исследователи, интересующиеся осцилляциями, используют косвенный показатель, получаемый из жидкости, которая окружает нейроны. В частности, когда нейроны получают много входного сигнала, состав ионов в этой жидкости меняется, и это может быть использовано в качестве косвенного показателя того, насколько активна популяция. Но связь между потоками ионов в этой жидкости и реальной активностью нейронов сложна и не до конца понятна. Поэтому сложно определить, происходят ли наблюдаемые колебания на самом деле.

Ученых также могут подтолкнуть имеющиеся в их распоряжении инструменты. ЭЭГ существует уже сто лет, и с ее помощью легко обнаружить колебания даже у человека; эксперименты можно провести за полдня на желающих (обычно студентах). Как уже говорилось, аналогичная легкость и привычность относится и к математическим инструментам анализа осцилляций. Это может заставить исследователей с большей вероятностью искать эти мозговые волны, даже в тех случаях, когда они могут дать не самые лучшие ответы. Перефразируя старую пословицу, можно сказать, что когда молоток - это самый простой инструмент, который вы можете использовать, вы начинаете искать гвозди.


Другой вопрос - влияние, особенно когда речь идет о быстрых колебаниях, таких как гамма. Если в одном состоянии мозга гамма-волны сильнее, чем в другом, это означает, что в этом состоянии большее количество нейронов срабатывает как часть волны, а не спорадически, сами по себе. Но когда эти волны приходят так быстро, принадлежность к одной из них может заставить нейрон сработать лишь на несколько миллисекунд раньше или позже. Может ли такая временная точность иметь значение? Или все, что имеет значение, - это общее количество произведенных спайков? Многие изящные гипотезы о том, как осцилляции могут помочь, не были проверены напрямую - и могут быть довольно сложными для проверки, - поэтому ответы на них неизвестны.

Как сказал нейробиолог Крис Мур в интервью Science Daily в 2019 году: "Гамма-ритмы были огромной темой для споров... Некоторые очень уважаемые нейробиологи считают гамма-ритмы волшебными, объединяющими часами, которые выравнивают сигналы между областями мозга. Есть и другие, не менее уважаемые нейробиологи, которые, красясь, считают гамма-ритмы выхлопными газами вычислений: Они появляются, когда двигатель работает, но они абсолютно не важны".

При движении автомобиля могут выделяться выхлопные газы, но они не являются непосредственно тем, что заставляет его ехать. Точно так же сети нейронов могут производить колебания при выполнении вычислений, но являются ли эти колебания тем, что производит вычисления, еще предстоит выяснить.

Как было показано, взаимодействие между возбуждающими и тормозящими клетками может создать зоопарк различных паттернов стрельбы. Противостояние этих двух сил имеет как преимущества, так и риски. Это дает сети способность реагировать молниеносно и генерировать плавные ритмы, необходимые для сна. В то же время это ставит мозг в опасную близость к припадкам и создает буквальный хаос. Разобраться в такой многогранной системе может быть непросто. К счастью, разнообразные математические методы, разработанные для физики, метеорологии и понимания колебаний, помогли укротить дикую природу нейронного огня.

 

Глава 6. Этапы развития зрения.

Неокогнитрон и конволюционные нейронные сети

 

Проект "Летнее зрение" - это попытка эффективно использовать наших летних сотрудников для построения значительной части зрительной системы. Конкретная задача была выбрана отчасти потому, что ее можно разделить на подпроблемы, которые позволят людям работать независимо и при этом участвовать в создании достаточно сложной системы, чтобы стать настоящей вехой в развитии "распознавания образов".

Vision Memo No. 100 из группы искусственного интеллекта Массачусетского технологического института, 1966 г.

Лето 1966 года должно было стать летом, когда группа профессоров Массачусетского технологического института решила проблему искусственного зрения. В качестве "летних работников", которых они планировали эффективно использовать для этого проекта, выступала группа из дюжины или около того студентов-бакалавров университета. В своей записке, излагающей план проекта, профессора указали несколько конкретных навыков, которые должна была выполнять компьютерная система, разрабатываемая студентами. Она должна уметь определять различные текстуры и освещение на изображении, обозначать части изображения как передний план, а части как фон, и идентифицировать любые объекты. Один из профессоров якобы описал цели более упрощенно: "Подключить камеру к компьютеру и заставить компьютер описать то, что он видит".

Цели этого проекта не были достигнуты тем летом. Ни следующим. И многие последующие. Более того, некоторые из основных вопросов, поднятых в описании летнего проекта, остаются открытыми проблемами и по сей день. Спесь, проявленная в этом меморандуме, не удивительна для своего времени. Как уже говорилось в главе 3, 1960-е годы ознаменовались бурным ростом вычислительных возможностей и, в свою очередь, наивными надеждами на автоматизацию даже самых сложных задач. Компьютеры теперь могли делать все, что от них требовалось, нужно было только знать, о чем просить. А если речь идет о чем-то столь простом и непосредственном, как зрение, насколько это сложно?

Ответ очень сложен. Процесс обработки зрительного сигнала - восприятия света глазами и осмысления отраженного в нем внешнего мира - чрезвычайно сложен. Распространенные поговорки вроде "прямо перед глазами" или "на виду", которые используются для обозначения легкости зрения, обманчивы. Они затушевывают значительные трудности, с которыми сталкивается мозг при восприятии даже самых простых зрительных объектов. Любое чувство легкости, которое мы испытываем в отношении зрения, - это иллюзия, с трудом завоеванная миллионами лет эволюции.

Проблема зрения - это проблема обратной инженерии. В задней части глаза, в сетчатке, широкий плоский лист клеток, называемых фоторецепторами. Эти клетки чувствительны к свету. Каждая из них указывает на наличие или отсутствие (и, возможно, длину волны) света, попадающего на нее в каждый момент времени, посылая сигнал в виде электрической активности. Эта двумерная мерцающая карта клеточной активности - единственная информация, на основе которой мозг может воссоздать трехмерный мир перед собой.

Даже такое простое дело, как поиск стула в комнате, представляет собой технически сложную задачу. Стулья могут быть самых разных форм и цветов. Они также могут находиться рядом или далеко, что делает их отражение на сетчатке глаза больше или меньше. Светло в комнате или темно? С какого направления падает свет? Кресло повернуто к вам или от вас? Все эти факторы влияют на то, как именно фотоны света попадают на сетчатку. Но триллионы различных световых картин в итоге могут означать одно и то же: стул на месте. Зрительная система каким-то образом находит способ решить эту проблему сопоставления многих и одного менее чем за десятую долю секунды.

В то время, когда студенты Массачусетского технологического института работали над тем, чтобы подарить зрение компьютерам, физиологи использовали свои собственные инструменты, чтобы разгадать тайны зрения. Началось все с регистрации нейронной активности сетчатки глаза, а затем нейроны перешли к нейронам всего мозга. Поскольку, по оценкам, 30 процентов коры головного мозга приматов играет ту или иную роль в обработке зрительных сигналов, это было немалым делом.2В середине XX века многие ученые, проводившие эти эксперименты, базировались в Бостоне (многие в самом Массачусетском технологическом институте или чуть севернее, в Гарварде), и у них быстро накапливался большой объем данных, которые нужно было как-то осмыслить.

Возможно, дело в физической близости. Возможно, это было молчаливое признание огромной задачи, которую каждый из них поставил перед собой. Возможно, на первых порах сообщества были слишком малы, чтобы держаться в тени. Какова бы ни была причина, неврологи и компьютерные ученые долгое время сотрудничали в попытках понять фундаментальные вопросы зрения. Изучение зрения - того, как можно найти закономерности в световых точках, - наполнено прямым влиянием биологического на искусственное и наоборот. Гармония, возможно, не была постоянной: когда компьютерная наука начала использовать методы, которые были полезны, но не напоминали мозг, области разошлись. А когда нейробиологи вникали в мельчайшие детали клеток, химических веществ и белков, обеспечивающих биологическое зрение, компьютерщики в основном отворачивались. Но последствия взаимного влияния по-прежнему неоспоримы и хорошо видны в самых современных моделях и технологиях.

* * *

Первые попытки автоматизировать зрение появились еще до появления современных компьютеров. Хотя они были реализованы в виде механических приспособлений, некоторые идеи, лежавшие в основе этих машин, подготовили поле для последующего появления компьютерного зрения. Одной из таких идей был подбор шаблонов.

В 1920-х годах Эмануэль Гольдберг, русский химик и инженер, решил проблему, с которой столкнулись банки и другие офисы при поиске документов файловых системах. В то время документы хранились на микрофильмах - полосках 35-миллиметровой пленки, содержащих крошечные изображения документов, которые можно было проецировать на большой экран для чтения. Порядок расположения документов на пленке был мало связан с их содержанием, поэтому поиск нужного документа - например, аннулированного чека конкретного клиента банка - был связан с неструктурированным поиском. Чтобы автоматизировать этот процесс, Голдберг прибег к грубой форме "обработки изображений".

Согласно плану Голдберга, кассиры, вносящие новый чек в систему учета, должны были пометить его специальным символом, указывающим на его содержание. Например, три черные точки в ряду означали, что имя клиента начинается с буквы "А", три черные точки в треугольнике - что с буквы "Б" и так далее. Теперь, если кассир хотел найти последний чек, предъявленный, например, мистером Беркширом, ему нужно было просто найти чеки, помеченные треугольником. Таким образом, шаблон треугольника был шаблоном, и задача машины Голдберга состояла в том, чтобы соответствовать ему.

Физически эти шаблоны имели форму карточек с пробитыми в них отверстиями. Так, при поиске документов мистера Беркшира кассир брал карточку с тремя отверстиями в форме треугольника и помещал ее между лентой микрофильмов и лампочкой. Затем каждый документ на ленте автоматически подтягивался к карточке, в результате чего свет проникал через отверстия на карточке, а затем и через саму пленку. Фотоэлемент, расположенный за пленкой, фиксировал любой проходящий свет и сигнализировал об этом остальным частям машины. Для большинства документов свет проникал через пленку, так как символы на пленке не совпадали с отверстиями на карте. Но когда появлялся нужный документ, свет, проникающий через карточку, полностью блокировался узором из черных точек на пленке. Эти мини-затмения означали, что свет не попадает на фотоэлемент, и это сигнализировало остальным частям машины и кассиру, что совпадение найдено.

Подход Голдберга требовал, чтобы кассиры заранее знали, какой именно символ они ищут, и имели карту, соответствующую ему. Несмотря на свою грубость, этот стиль подбора шаблонов стал доминирующим подходом на протяжении большей части истории искусственного зрения. Когда на сцене появились компьютеры, форма шаблонов перешла из физической в цифровую.

В компьютере изображение представлено в виде сетки значений пикселей (см. рис. 14). Каждое значение пикселя - это число, указывающее на интенсивность цвета в крошечной квадратной области изображения, которую оно представляет.3 В цифровом мире шаблон - это тоже просто сетка чисел, определяющая нужный шаблон. Так, шаблон для трех точек в форме треугольника может представлять собой сетку, состоящую в основном из нулей, за исключением трех точно расположенных пикселей со значением 1. В машине Голдберга роль света, проходящего через карточку-шаблон, в компьютере была заменена математической операцией: умножением. Если значение каждого пикселя на изображении умножить на значение в том же месте шаблона, результат может сказать нам, совпадает ли изображение.


Рисунок 14

Допустим, мы ищем улыбающееся лицо на черно-белом изображении (где черные пиксели имеют значение один, а белые - ноль). Имея шаблон лица, мы можем сравнить его с изображением путем умножения. Если на изображении действительно изображено искомое лицо, то значения, составляющие шаблон, будут очень похожи на значения на изображении. Поэтому нули в шаблоне будут умножены на нули в изображении, а единицы в шаблоне - на единицы в изображении. Сложив все полученные в результате умножения значения, мы получим количество черных пикселей, одинаковых в шаблоне и на изображении, которых в случае совпадения будет много. Если на полученном нами изображении будет хмурое лицо, то некоторые пиксели вокруг рта на изображении не будут совпадать с шаблоном. Там нули в шаблоне будут умножены на единицы в изображении, и наоборот. Поскольку произведение в этих местах пикселей будет равно нулю, сумма по всему изображению не будет такой большой. Таким образом, простая сумма произведений дает представление о том, насколько изображение соответствует шаблону.


Этот метод нашел широкое применение в самых разных отраслях. Шаблоны использовались для подсчета численности толпы путем поиска лиц на фотографии. Известные географические объекты также находили на спутниковых снимках с помощью шаблонов. Можно также отслеживать количество и модели автомобилей, проезжающих через перекресток. При подборе шаблонов нам нужно только определить, что мы хотим получить, а умножение подскажет, совпадает ли это.

* * *

Представьте себе стадион - такой же, как тот, где вы смотрите футбольный матч, - но на этом стадионе вместо кричащих болельщиков трибуны заполнены кричащими демонами. И кричат они не о футболистах на поле, а скорее об образе. Точнее, у каждого из этих демонов есть своя любимая буква алфавита, и когда он видит на поле что-то похожее на эту букву, он кричит. Чем громче крик, тем больше изображение на поле похоже на любимую букву демона. На небосклоне находится еще один демон. Этот демон не смотрит на поле и не кричит, а просто наблюдает за всеми остальными демонами на стадионе. Он находит демона, который кричит громче всех, и определяет, что изображение на поле должно быть любимой буквой этого демона.

Именно так Оливер Селфридж описал процесс подбора шаблонов на конференции 1958 года. Селфридж был математиком, компьютерщиком и помощником директора Линкольн-лабс в Массачусетском технологическом институте, исследовательского центра, занимавшегося вопросами применения технологий в сфере национальной безопасности. Сам Селфридж опубликовал не так много работ. Он также так и не закончил свою докторскую диссертацию (однако в итоге он написал несколько детских книг по адресу ; предположительно, в них было меньше демонов). Несмотря на отсутствие академических результатов, его идеи все же проникли в научное сообщество, во многом благодаря кругам, в которых он вращался. Получив степень бакалавра математики в Массачусетском технологическом институте в возрасте всего 19 лет, Селфридж получил консультацию в своей докторской работе от выдающегося математика Норберта Винера и поддерживал с ним связь. Селфридж также продолжал руководить Марвином Мински, выдающимся исследователем искусственного интеллекта из главы 3. А будучи аспирантом, Селфридж дружил с Уорреном Маккалохом и некоторое время жил с Уолтером Питтсом (вы наверняка помните эту пару нейробиотиков из главы 3). Селфриджу было полезно дать своим идеям повариться в этом социальном рагу из выдающихся ученых.

Чтобы сопоставить уникальную аналогию Селфриджа с концепцией подбора шаблонов, нужно просто представить, что каждый демон держит в руках свою сетку чисел, которая представляет собой форму его буквы. Они перемножают свою сетку с изображением, суммируют эти продукты (как описано выше) и кричат с громкостью, определяемой этой суммой. Селфридж не дает подробного объяснения, почему он решил дать такое демоническое описание визуальной обработки. Единственное, что он говорит по этому поводу, - это: "Мы не собираемся извиняться за частое использование антропоморфной или биоморфной терминологии. Они кажутся полезными словами для описания наших понятий".


Большая часть представлений в презентации Селфриджа была связана с тем, что подход к подбору шаблонов несовершенен. Демоны, каждый из которых по отдельности проверял, есть ли в поле зрения его любимая буква, были не очень эффективны. Каждый из них выполнял свои совершенно отдельные вычисления, но так не должно было быть. Многие фигуры, которые демон может искать в поисках своей буквы, используются и другими демонами. Например, и демон, предпочитающий букву "А", и демон, предпочитающий букву "Н", будут искать горизонтальную полоску. Так почему бы не ввести отдельную группу демонов, чьи шаблоны и крики соответствуют более базовым характеристикам изображения, таким как горизонтальные полосы, вертикальные линии, наклонные линии, точки и т. д. Тогда буквенные демоны будут просто слушать этих демонов, а не смотреть на сами изображения, и решать, как сильно кричать, в зависимости от того, кричат ли об основных формах их буквы.

Снизу вверх Селфридж определил новый стиль стадиона, который содержал три типа демонов: "вычислительные" (те, что смотрят на изображение и кричат об основных формах), "когнитивные" (те, что слушают вычислительных демонов и кричат о буквах) и "решающие" (те, что слушают когнитивных демонов и решают, какая буква присутствует). Селфридж дал название всей модели в целом - этой стопке вопящих демонов - Пандемониум5.

Если не принимать во внимание гнусную номенклатуру, интуиция Селфриджа в отношении обработки визуальной информации оказалась весьма проницательной. Хотя концептуально прост, подбор шаблонов практически сложен. Количество необходимых шаблонов растет с увеличением числа объектов, которые вы хотите обнаружить. Если каждое изображение нужно сравнивать с каждым фильтром, то вычислений будет очень много. Шаблоны также должны более или менее точно соответствовать изображению. Но из-за огромного количества различных световых картин, которые один и тот же объект может создавать на сетчатке глаза или объективе камеры, практически невозможно определить, как должен выглядеть каждый пиксель изображения при наличии того или иного объекта. Поэтому шаблоны очень сложно разрабатывать для любых, кроме самых простых, паттернов.

Эти проблемы делают подбор шаблонов сложной задачей как для искусственных зрительных систем, так и для мозга. Однако идеи, представленные в Pandemonium, представляют собой более распределенный подход, поскольку признаки, обнаруженные вычислительными демонами, являются общими для всех когнитивных демонов. Подход также является иерархическим. То есть Pandemonium разбивает проблему зрения на два этапа: сначала ищем простые вещи, затем - более сложные.

Вместе эти свойства делают систему в целом более гибкой. Например, если Pandemonium настроен на распознавание букв первой половины алфавита, то он вполне сможет распознать и остальные. Это связано с тем, что низкоуровневые вычислительные демоны уже знают, из каких базовых форм состоят буквы. Когнитивному демону новой буквы нужно будет просто понять, как правильно слушать демонов ниже него. Таким образом, элементарные признаки работают как словарь - или набор строительных блоков, - которые можно комбинировать и рекомбинировать для обнаружения дополнительных сложных паттернов. Без такой иерархической структуры и совместного использования низкоуровневых признаков базовый подход к подбору шаблонов должен был бы создавать новый шаблон для каждой буквы с нуля.

Дизайн Pandemonium вызывает некоторые вопросы. Например, как каждый вычислительный демон узнает, о какой базовой форме ему кричать? И как когнитивные демоны узнают, кого им следует слушать? Селфридж предлагает, чтобы система узнавала ответы на эти вопросы методом проб и ошибок. Если, например, изменение того, как демон, предпочитающий "А", слушает тех, кто ниже его по рангу, помогает ему лучше обнаруживать "А", то сохраните эти изменения; в противном случае не делайте этого и попробуйте что-нибудь новое. Или, если добавление вычислительного демона, который будет кричать о новом низкоуровневом паттерне, сделает всю систему лучше в обнаружении букв, то этот новый демон останется; в противном случае он уйдет. Конечно, это сложный процесс, и его работа не гарантирована, но когда он происходит, то создается желаемый эффект - система автоматически подстраивается под тип объектов, которые ей нужно обнаружить. Например, штрихи, из которых состоят символы японского алфавита, отличаются от штрихов английского алфавита. Самообучающаяся система обнаружит различные базовые паттерны для каждого из них. Не нужно никаких предварительных или специальных знаний, просто дайте модели попробовать справиться с задачей.

Ученый-компьютерщик Леонард Ур был настолько впечатлен идеями Селфриджа и его коллег, что захотел распространить их работу в более широком масштабе. В 1963 году он написал в журнале Psychological Bulletin, обращаясь к аудитории психологов, о том, каких успехов добились компьютерные ученые в области зрения. В своей статье "Компьютеры "распознавания образов" как модели восприятия формы" он указывает, что модели того времени "фактически уже были в состоянии предложить физиологические и психологические эксперименты" и даже предупреждает, что "было бы прискорбно, если бы психологи не играли никакой роли в этом теоретическом развитии своей собственной науки". Статья является конкретным доказательством того, что эти две области всегда были взаимосвязаны. Но такие явные публичные призывы к сотрудничеству не всегда были нужны. Иногда было достаточно личных отношений.

Джером Леттвин был неврологом и психиатром из Чикаго, штат Иллинойс. Он также был другом Селфриджа, в молодости жил с ним и Питтсом в одном доме. По собственному признанию, Леттвин был "тучным неряхой" и хотел стать поэтом, но уступил желанию матери и стал врачом. Самое бунтарское, что ему удалось, - это время от времени бросать медицинскую практику, чтобы заняться научными исследованиями.

Вдохновленный работой своего друга и бывшего сожителя, Леттвин в конце 1950-х годов отправился на поиски нейронов, реагирующих на низкоуровневые характеристики - то есть на те вещи, о которых кричат демоны вычислений. Животным, которое он выбрал для изучения, была лягушка. Лягушки используют зрение в основном для быстрой рефлекторной реакции на добычу или хищника, и поэтому их зрительная система относительно проста.

Внутри сетчатки отдельные фоторецепторы, воспринимающие свет, передают свою информацию другой группе клеток, называемой ганглиозными клетками. Каждый фоторецептор соединяется со многими ганглиозными клетками, и каждая ганглиозная клетка получает входные сигналы от многих фоторецепторов. Но, что очень важно, все эти сигналы поступают из определенной ограниченной области пространства. Поэтому ганглиозная клетка реагирует только на свет, который попадает на сетчатку в определенном месте - и у каждой клетки есть свое собственное предпочтительное место.


На тот момент предполагалось, что ганглиозные клетки не выполняют особых вычислений. Их считали в основном ретрансляторами - они просто отправляли информацию об активности фоторецепторов в мозг, как почтальон. Такая картина укладывалась в рамки шаблонно-согласованного представления о визуальной обработке. Если роль мозга заключается в сравнении визуальной информации, поступающей от глаза, с набором хранящихся в памяти шаблонов, то он не хотел бы, чтобы эта информация каким-либо образом искажалась ганглиозными клетками. Но если ганглиозные клетки являются частью иерархии, где каждый уровень играет небольшую роль в конечном обнаружении сложных объектов, то они должны быть специализированы для обнаружения полезных элементарных визуальных паттернов. Таким образом, вместо того чтобы передавать информацию дословно, они должны активно ее обрабатывать и перерабатывать.

Записывая активность этих ганглиозных клеток и демонстрируя лягушке всевозможные движущиеся объекты и узоры, Леттвин обнаружил, что гипотеза иерархии верна. Более того, в работе 1959 года "Что глаз лягушки говорит мозгу лягушки" он и его соавторы описали четыре различных типа ганглиозных клеток, которые реагировали на разные простые паттерны. Одни реагировали на быстрые крупные движения, другие - на превращение света в темноту, третьи - на изогнутые объекты, которые дрожали. Эти различные категории реакций доказывали, что ганглиозные клетки были специально созданы для обнаружения различных элементарных паттернов. Эти результаты не только соответствовали представлениям Селфриджа о низкоуровневых детекторах признаков, но и подтверждали идею о том, что эти признаки специфичны для типа объектов, которые система должна обнаружить. Например, последний класс клеток лучше всего реагировал, когда небольшой темный объект быстро перемещался по фиксированному фону . Описав их в статье, Леттвин заметил: "Можно ли лучше описать систему для обнаружения доступной ошибки?

Интуиция Селфриджа оказалась верной. После находки Леттвина на лягушках сообщество стало воспринимать зрительную систему больше как стопку кричащих демонов и меньше как хранилище карточек с шаблонами.

* * *

Примерно в то же время, что и работа Леттвина, два доктора из Медицинской школы Университета Джона Хопкинса в Балтиморе исследовали зрение у кошек. Зрительная система кошки больше похожа на нашу, чем на лягушачью. Перед ней стоят сложные задачи, связанные с отслеживанием добычи и навигацией в окружающей среде, и, как следствие, она более сложна. Таким образом, работа кошачьей зрительной системы охватывает множество областей мозга, и в центре внимания врачей Дэвида Хьюбела и Торстена Визеля оказалась первичная зрительная кора. Эта область в задней части мозга представляет собой один из ранних этапов обработки зрительной информации у млекопитающих; она получает информацию от другой области мозга - таламуса, который получает информацию от самой сетчатки.

В предыдущих работах изучалось поведение нейронов в таламусе исетчатке кошек. Эти клетки, как правило, лучше всего реагируют на простые точки: либо небольшая светлая область, окруженная темной, либо небольшая темная область, окруженная светом. При этом, как и в случае с лягушкой, каждый нейрон имеет определенное местоположение точки, в котором она должна находиться, чтобы реагировать.

Хьюбел и Визель имели доступ к оборудованию для создания точек в разных местах, чтобы исследовать такие реакции сетчатки. Именно это оборудование они использовали, даже когда исследовали области мозга, расположенные далеко за пределами сетчатки. Метод отображения точек включал в себя скольжение небольшой стеклянной или металлической пластины с различными вырезанными узорами по экрану перед глазом. Хьюбел и Визель использовали его, чтобы показывать слайд за слайдом точек своим подопытным кошкам, измеряя активность нейронов в их первичной зрительной коре. Но точки просто не действовали на этот нейрон - клетка не издавала ни звука в ответ на слайды. Затем экспериментаторы заметили нечто странное: иногда нейрон реагировал - не на слайды, а на их смену. Когда одна пластина выдвигалась, а другая задвигалась, тень от края стекла проходила по сетчатке глаза кошки. Это создавало движущуюся линию, которая надежно возбуждала нейрон в первичной зрительной коре. Одно из самых знаковых открытий в нейронауке произошло почти случайно.

Спустя десятилетия, размышляя о случайности этого открытия, Хьюбел заметил: "На определенной ранней стадии развития науки степень неряшливости может быть огромным преимуществом". Но этот этап быстро прошел. К 1960 году они с Визелем переехали в Бостон, чтобы помочь основать отделение нейробиологии в Гарвардском университете, и приступили к многолетнему тщательному изучению реакций нейронов в зрительной системе.

Развивая свою счастливую случайность, Хьюбел и Визель углубились в изучение того, как работает эта реакция на движущиеся линии. Одним из их первых открытий стало то, что нейроны в первичной зрительной коре имеют не только предпочтительную ориентацию, но и предпочтительное местоположение. Нейрон не будет реагировать на любую линию, которая появляется в его любимом месте. Нейроны, предпочитающие горизонтальную ориентацию, требуют горизонтальной линии, нейроны, предпочитающие вертикальную ориентацию, требуют вертикальных линий, нейроны, предпочитающие 30-градусный наклон, требуют 30-градусных наклонных линий, и так далее, и так далее. Чтобы понять, что это значит, вы можете держать ручку горизонтально перед лицом и двигать ею вверх-вниз. Вы только что возбудили группу нейронов в первичной зрительной коре. Наклоните ручку в другую сторону - и вы возбудите другую группу нейронов (теперь вы можете бесплатно проводить целенаправленную стимуляцию мозга в домашних условиях).

Поняв, что такое ориентация, Хьюбел и Визель открыли алфавит, используемый кошачьим мозгом для представления изображений. У мух есть детекторы жучков, а у кошек (и других млекопитающих) - детекторы линий. Однако они не ограничились наблюдением за этими реакциями, а пошли дальше и задались вопросом, как нейроны в первичной зрительной коре могли получить такие реакции. Ведь клетки, от которых они получают входные сигналы - клетки в таламусе - реагируют на точки, а не на линии. Так откуда же взялось предпочтение линий?

Решение заключалось в предположении, что нейроны в коре получают идеально подобранный набор входных сигналов от таламуса. Линия, конечно, не что иное, как набор правильно расположенных точек. Поэтому входные сигналы для нейрона в первичной зрительной коре должны поступать от множества нейронов таламуса, каждый из которых представляет точку в ряду точек. Таким образом, первичный зрительный нейрон будет срабатывать чаще всего, когда линия охватывает все эти точки (см. рис. 15). Подобно когнитивные демоны прислушиваются к крикам демонов, которые ищут части своего письма, нейроны в первичной зрительной коре прислушиваются к активности нейронов в таламусе, составляющих предпочитаемую ими линию

Хьюбел и Визель заметили и другой тип нейронов: те, которые также имели предпочтительную ориентацию, но не были столь строги к расположению. Эти нейроны реагировали, если линия появлялась в области, которая была примерно в четыре раза больше, чем у других нейронов, которые они регистрировали. Как эти нейроны могли так реагировать? Ответ, опять же, заключается в том, что они получают правильные входные сигналы. В частности, "сложный" нейрон - так Хьюбел и Визель обозначили эти клетки - просто нуждался во входе от группы обычных (или "простых") нейронов. Все эти простые клетки должны иметь одинаковые предпочтительные ориентации, но немного отличаться по предпочтительному расположению. Таким образом, сложная клетка наследует ориентационные предпочтения своих входов, но имеет пространственное предпочтение, которое больше, чем у любого из них. Такая пространственная гибкость очень важна. Если мы хотим знать, находится ли перед нами буква "А", небольшое колебание в точном расположении ее линий не должно иметь значения. Сложные ячейки построены таким образом, чтобы отбрасывать дрожание.

Рисунок 15

Открытие сложных клеток позволило получить дополнительный кусочек головоломки, объясняющей, как точки света становятся объектами восприятия. В дополнение к распознаванию признаков, осуществляемому простыми клетками, к списку вычислений, выполняемых зрительной системой, добавилось объединение входных сигналов в пространстве. За всю работу по изучению этой системы Хьюбел и Визель были удостоены Нобелевской премии в 1981 году. В своей нобелевской лекции Хьюбел четко сформулировал их цели: "Наша идея изначально заключалась в том, чтобы подчеркнуть тенденцию к увеличению сложности по мере продвижения по центру зрительного тракта и возможность учета поведения клетки в терминах ее входов "7.Этот подход, хотя и был простым, достаточно хорошо отражал многие основные свойства зрительного тракта.

* * *

На другом конце света - в японской национальной организации общественного вещания NHK, расположенной в Токио, - Кунихико Фукусима услышал о простых свойствах зрительной системы. Фукусима был инженером и сотрудником исследовательского отдела NHK.Поскольку NHK была вещательной компанией (и транслировала визуальные и аудиосигналы в глаза и уши людей), в ее штате также были группы нейрофизиологов и психологов, которые изучали, как сенсорные сигналы воспринимаются мозгом. Эти три группы - психологи, физиологи и инженеры - регулярно встречались, чтобы поделиться результатами работы в своих областях. Однажды коллега Фукусимы решил представить работу Хьюбела и Визеля.

Когда Фукусима увидел это четкое описание роли нейронов в зрительной системе, он задался целью реализовать те же функции в компьютерной модели. В качестве входного сигнала в его модели использовались изображения простых белых узоров на черном фоне. Чтобы приблизить работу таламуса, был создан лист искусственных нейронов, которые реагировали на белые точки на изображении. Это служило способом передачи информации об изображении в сеть. Отсюда нужно было рассчитать входные данные для простых клеток.

Для этого Фукусима использовала стандартный подход, заключающийся в создании сетки чисел, представляющих собой обнаруживаемый образец, который в случае простой клетки представляет собой линию с определенной ориентацией. В инженерной терминологии такая сетка чисел называется фильтром. Чтобы имитировать пространственные предпочтения простых клеток, Фукусима применил этот фильтр отдельно к каждому месту на изображении. В частности, активность одной простой клетки рассчитывалась как сумма активности таламуса в одном месте, умноженная на фильтр. Продвижение фильтра по всему изображению создавало набор простых клеток с одинаковой предпочтительной ориентацией, но разным предпочтительным расположением. Этот процесс известен в математике как свертка.

Создав несколько фильтров, каждый из которых представлял собой линию с разной ориентацией, и свернув каждый из них с изображением, Фукусима создал целую популяцию простых клеток, каждая из которых имела свою предпочтительную ориентацию и местоположение, как и мозг. Для сложных клеток он просто дал им сильные сигналы от горстки простых клеток, которые все представляли одну и ту же ориентацию в соседних местах. Таким образом, они будут активны, если ориентация появится в любом из этих мест.

Эта первая версия модели Фукусимы была практически прямым переводом физиологических данных Хьюбела и Визеля в математику и компьютерный код - и, в некотором роде, она работала. Она могла выполнять некоторые простые визуальные задачи, например, находить изогнутые линии на черно-белом изображении, но это была далеко не полноценная зрительная система, и Фукусима знал это. Как он позже рассказывал в интервью, после публикации этой работы в конце 1960-х годов Фукусима терпеливо ждал, что же откроют Хьюбел и Визель дальше; он хотел узнать, что делают более поздние стадии обработки зрительных сигналов, чтобы добавить их в свою модель.

Но знаменитая пара физиологов так и не предоставила эту информацию. После первоначальной работы по каталогизации типов клеток Хьюбел и Визель исследовали реакции клеток в других зрительных областях, но так и не смогли дать столь же чистое описание, как для первичной зрительной коры. В конце концов они перешли к изучению того, как развивается зрительная система у молодых животных.

Не имея сценария, предоставленного биологией, Фукусима должен был импровизировать. Решение, которое он придумал, заключалось в том, чтобы взять имеющуюся у него структуру - простые клетки, проецирующиеся на сложные клетки, - и повторить ее. Укладка простых и сложных клеток друг на друга снова и снова создает расширенную иерархию, через которую может проходить визуальная информация. В частности, это означает, что после начального слоя сложных клеток второй круг "простых" клеток. Этот второй слой простых клеток будет следить не за простыми особенностями изображения, а за простыми "особенностями" в деятельности сложных клеток, от которых они получают информацию. Они по-прежнему использовали бы фильтры и свертки, но только применительно к активности нейронов, расположенных ниже их. Затем эти простые клетки посылают входные сигналы своим собственным сложным клеткам, которые реагируют на те же особенности в чуть большей области пространства - и затем весь процесс начинается снова.

Простые клетки ищут закономерности; сложные клетки прощают небольшое смещение этих закономерностей. Простые, сложные; простые, сложные. Снова и снова. Повторение этого риффа приводит к появлению клеток, которые реагируют на все виды паттернов. Например, чтобы простая клетка второго уровня отреагировала на букву "L", ей достаточно получить сигнал от сложной клетки с горизонтальным предпочтением в одном месте и от сложной клетки с вертикальным предпочтением в месте чуть выше и левее ее. Тогда простая клетка третьего уровня сможет легко реагировать на прямоугольник, получая входные данные от двух соответствующим образом расположенных "L"-клеток. Продвигаясь все дальше и дальше по цепочке, клетки начинают реагировать на более крупные и сложные паттерны, включая целые фигуры, объекты и даже сцены.

Единственная проблема, связанная с расширением выводов Хьюбела и Визеля таким образом, заключалась в том, что Фукусима на самом деле не знал, как клетки в разных слоях должны соединяться друг с другом. Необходимо было заполнить фильтры - сетки чисел, которые определяли бы, как реагируют простые клетки в каждом конкретном слое. Но как? Для этого Фукусима взял страницу из книги Селфриджа "Пандемониум" и обратился к обучению.

Вместо того чтобы использовать метод проб и ошибок, предложенный Селфриджем, Фукусима использовала вариант обучения, который не требует знания правильных ответов. В этой форме обучения модели просто показывают серию изображений, не сообщая, что на них изображено. Активность всех искусственных нейронов рассчитывается в ответ на каждое изображение, и связи между нейронами меняются в зависимости от того, насколько они активны (это может напомнить вам о гебистском стиле обучения). Например, если нейрон был очень активен в ответ на определенное изображение, то связи с его очень активными входами будут укрепляться. В результате этот нейрон будет сильно реагировать на это и подобные изображения в будущем. Таким образом, нейроны реагируют на определенные формы, и разные нейроны расходятся, чтобы иметь разные реакции. Таким образом, сеть способна улавливать разнообразные паттерны во входных изображениях.

В итоге модель Фукусимы состояла из трех слоев простых и сложных клеток и обучалась с помощью сгенерированных компьютером изображений цифр от нуля до четырех. Он назвал эту сеть "Неокогнитрон" и опубликовал результаты ее работы в журнале Biological Cybernetics в 1980 году.

В своих оригинальных работах Хьюбел и Визель подчеркивали, что их система классификации и номенклатура не должны восприниматься как евангелие. Мозг устроен очень сложно, и разделение нейронов всего на две категории никак не может отразить все разнообразие реакций и функций. Просто для удобства и целесообразности общения они действовали именно таким образом. Однако Фукусима добился успеха, сделав именно то, от чего предостерегали Хьюбел и Визель: он свел всю сложность зрительной системы мозга к двум очень простым вычислениям. Он принял эти описания за истинные или достаточно истинные и даже расширил их за пределы того, что они должны были описывать

Эта практика - разрушения и последующего расширения, стряхивания листьев с дерева и использования их для строительства дома - это то, что, как известно всем теоретикам и инженерам, необходимо для достижения прогресса. Фукусима хотел создать функционирующую зрительную систему в компьютере. Хьюбел и Визель дали описание зрительной системы мозга в первом приближении. Иногда первого приближения бывает достаточно.

* * *

В 1987 году, как и в любой другой год, жители Буффало, штат Нью-Йорк, отправляли через местное почтовое отделение бесчисленные счета, поздравительные открытки и письма. Жители города не знали, что, когда они вписывали в конверт пятизначный почтовый индекс получателя, этот почерк будет увековечен - оцифрован и сохранен на компьютерах по всей стране на долгие годы. Он станет частью базы данных для исследователей, пытающихся научить компьютеры читать человеческий почерк и, в свою очередь, произвести революцию в искусственном зрении.

Некоторые из исследователей, работавших над этим проектом, находились в Bell Labs, исследовательской компании, принадлежащей телекоммуникационной компании AT&T, расположенной в пригороде Нью-Джерси. Среди группы, состоящей в основном из физиков, был 28-летний французский компьютерщик по имени Янн ЛеКун. ЛеКун читал о Фукусиме и его Neocognitron и понял, что простая повторяющаяся архитектура этой модели может решить многие сложные проблемы зрения.


Однако ЛеКун также понимал, что необходимо изменить способ обучения модели связям. В частности, он хотел вернуться к подходу Селфриджа и предоставить модели доступ к изображениям, сопряженным с правильными метками о том, какая цифра на них изображена. Поэтому он изменил некоторые математические детали модели, чтобы сделать ее пригодной для другого типа обучения. При таком типе обучения, если модель неправильно классифицирует изображение (например, обозначает двойку как шестерку), все связи в модели - эти сетки чисел, определяющие, какие паттерны ищутся, - обновляются таким образом, чтобы снизить вероятность неправильной классификации этого изображения в будущем. Таким образом, модель учится тому, какие паттерны важны для идентификации цифр. Это может показаться знакомым, потому что ЛеКун использовал алгоритм обратного распространения, описанный в главе 3. Проделайте это с большим количеством изображений, и модель в целом станет довольно хорошо классифицировать изображения рукописных цифр, даже те, которые она никогда раньше не видела.

ЛеКун и его коллеги-исследователи представили впечатляющие результаты работы своей модели, обученной на тысячах цифр Буффало, в 1989 году. Так родилась "конволюционная нейронная сеть" - название, данное этому стилю модели.

Как и подходы, основанные на подборе шаблонов, которые появились до них, конволюционные нейронные сети нашли применение в реальном мире. В 1997 году эти сети стали основной частью программного обеспечения, разработанного компанией AT&T для автоматизации обработки чеков в банках Америки. К 2000 году, по оценкам, от 10 до 20 процентов чеков в Америке обрабатывались с помощью этого программного обеспечения. Очаровательный пример того, как наука исполняет свое предназначение, - мечта Голдберга об оснащении банков синтетическими визуальными системами сбылась спустя 70 лет после изобретения микрофильмирующей машины

Метод обучения сверточных нейронных сетей требователен к данным, и модель может быть настолько хороша, насколько хороша та информация, которая в нее поступает. Поэтому не менее важно получить правильную модель, чем правильные данные. Именно поэтому так важно было собрать реальные образцы реальных цифр, написанных реальными людьми. Исследователи Bell Lab могли бы поступить так же, как Фукусима, и создать компьютерные изображения цифр. Но они вряд ли смогли бы передать все разнообразие, нюансы и небрежность написания цифр в реальной жизни. Письма, прошедшие через почтовое отделение в Буффало, содержали около 10 000 примеров настоящего, человеческого почерка, что дало модели все необходимое для настоящего обучения. Убедившись в важности реальных данных, компьютерщики стали собирать их еще больше. Вскоре после набора Buffalo был собран набор данных, содержащий в шесть раз больше цифр и названный MNIST. Удивительно, но этот набор данных по-прежнему остается одним из наиболее часто используемых для быстрого тестирования новых моделей и алгоритмов искусственного зрения. Цифры для MNIST были написаны школьниками из Мэриленда и участниками переписи населения США. И хотя авторам было сказано, для чего используются их цифры в данном случае, они почти наверняка не ожидали, что их почерк будет использоваться компьютерными учеными спустя 30 лет.

Испытания конволюционных нейронных сетей не остановились на цифрах, но при переходе к более сложным изображениям они столкнулись с трудностями. В начале 2000-х годов сети, подобные сетям ЛеКуна, были обучены на другом наборе данных из 60 000 изображений, на этот раз состоящих из объектов. Изображения были маленькими и зернистыми - всего 32x32 пикселя - и могли представлять собой самолеты, автомобили, птиц, кошек, оленей, собак, лягушек, лошадей, корабли или грузовики. Хотя для нас эта задача оставалась простой, для сетей она серьезно усложнилась. Вся неоднозначность, присущая распознаванию трехмерного мира на основе двухмерных данных, проявляется, когда используются реальные изображения реальных объектов. Те же модели, которые научились распознавать цифры, с трудом справлялись с этими более реалистичными изображениями. Этот подход к искусственному зрению, похожий на мозговой, не справлялся с базовой визуальной обработкой, которую мозг выполняет каждый день.

Однако в 2012 году ситуация изменилась, когда Алекс Крижевский, Илья Суцкевер и Джеффри Хинтон из Университета Торонто с помощью конволюционной нейронной сети победили в крупном конкурсе по распознаванию изображений ImageNet Large Scale Visual Recognition Challenge. Конкурс заключался в маркировке изображений - больших (224x224 пикселя), реальных фотографий, сделанных людьми по всему миру и взятых с таких сайтов, как Flickr, - на предмет их принадлежности к одной из тысячи возможных категорий объектов. В этом очень убедительном тесте на визуальные способности конволюционная нейронная сеть дала 62 процента правильных ответов, опередив алгоритм, занявший второе место, на 10 процентных пунктов.

Как команда из Торонто добилась таких успехов? Они открыли новые вычисления, необходимые для зрения? Нашли ли они волшебную технику, помогающую модели лучше изучать свои связи? Правда в данном случае гораздо банальнее. Разница между этой конволюционной нейронной сетью и теми, что были до нее, заключалась в основном в размере. Сеть команды из Торонто насчитывала в общей сложности более 650 000 искусственных нейронов - примерно в 80 раз больше, чем сеть ЛеКуна, распознающая цифры. Эта сеть была настолько велика, что потребовались некоторые хитроумные инженерные решения, чтобы поместить модель в память компьютерных чипов, которые использовались для ее работы. Модель была велика и в другом отношении. Все эти нейроны означали, что для обучения связей между ними требовалось гораздо больше данных. Модель обучалась на 1,2 миллионах помеченных изображений, собранных профессором информатики Фей-Фей Ли в рамках базы данных ImageNet.

В 2012 году наступил переломный год для конволюционных нейронных сетей. Хотя технически достижения команды из Торонто были всего лишь количественным скачком - увеличением числа нейронов и изображений, - ошеломляющее повышение производительности качественно изменило ситуацию в этой области. Увидев, на что они способны, исследователи начали изучать конволюционные нейронные сети и пытаться сделать их еще лучше. Обычно это происходило в том же направлении: они становились больше, но были найдены и важные изменения в их структуре и способах обучения.

К 2015 году конволюционная нейронная сеть достигла уровня производительности, ожидаемого от человека в соревновании по классификации изображений (что на самом деле не является 100-процентным показателем: некоторые изображения могут быть запутанными). И теперь конволюционные нейронные сети составляют основу практически любого программного обеспечения для обработки изображений: распознавание лиц в социальных сетях, обнаружение пешеходов в самоуправляемых автомобилях и даже автоматическая диагностика заболеваний по рентгеновским снимкам. В забавном случае конволюционные нейронные сети даже использовались неврологами для автоматического определения местоположения нейронов на снимках тканей мозга. Искусственные нейронные сети теперь смотрят на настоящие.

Похоже, инженеры сделали разумный ход, обратившись к мозгу за вдохновением для создания визуальной системы. Внимание Фукусимы к функциям нейронов - и сведение этих функций к простым операциям - принесло свои плоды. Но когда он делал первые шаги в разработке этих моделей, вычислительных ресурсов и данных для их создания просто не было. Спустя десятилетия следующее поколение инженеров подхватило проект и довело его до конца. В результате современные конволюционные нейронные сети наконец-то могут решать многие задачи, которые изначально ставились в летнем проекте Массачусетского технологического института в 1966 году.

Но так же, как "Пандемониум" Селфриджа помог вдохновить нейробиологов-визуалистов, отношения между конволюционными нейронными сетями и мозгом не ограничиваются только одним путем. Неврологи получают выгоду от усилий, которые компьютерные ученые прилагают к созданию моделей, способных решать реальные визуальные задачи. Это связано с тем, что большие, тщательно обученные конволюционные нейронные сети не только хорошо распознают объекты на изображениях, но и предсказывают, как мозг будет реагировать на эти изображения.

* * *

Обработка зрительных сигналов начинается в первичной зрительной коре - именно там Хьюбел и Визель делали свои записи, - но после этого в процесс вовлекается множество областей. Первичная зрительная кора посылает связи во (вы уже догадались) вторичную зрительную кору. И после еще нескольких пересылок информация попадает в височную кору, расположенную сразу за висками.

Височная кора головного мозга уже давно связана с распознаванием объектов. Еще в 1930-х годах исследователи заметили, что повреждение этой области мозга приводит к странному поведению. Пациенты с повреждением височной коры плохо решают, на какие вещи важно обратить внимание, и поэтому легко отвлекаются. Они также не проявляют нормальной эмоциональной реакции на изображения; они могут видеть картины, которые большинству людей показались бы ужасающими, и почти не моргать. А когда они хотят изучить предметы, они могут не смотреть на них, а класть их в рот.

Понимание этой области мозга уточнялось десятилетиями тщательного наблюдения за пациентами или животными с поражениями мозга и, в конечном счете, путем регистрации активности ее нейронов. Это привело к выводу, что подчасть височной коры - "нижняя" часть в нижней части, также называемая "ИТ", - является основным местом для понимания объектов. У людей с повреждением ИТ в основном нормальное поведение и зрение, но есть более специфическая проблема - они не могут правильно называть или распознавать объекты; например, они могут не узнавать лица друзей или путать идентичность предметов, которые кажутся похожими.

Соответственно, нейроны в этой области реагируют на объекты. Некоторые нейроны имеют четкие предпочтения: один может реагировать на часы, другой - на дом, третий - на банан и т. д. Но другие клетки менее предсказуемы. Они могут предпочитать части объектов или одинаково реагировать на два разных объекта, имеющих некоторые общие черты. Некоторым клеткам также важен угол, под которым виден объект: возможно, они больше всего реагируют, если объект виден прямо, но другие клетки более снисходительны и реагируют на объект практически под любым углом. Некоторым важен размер и расположение объекта, другим - нет. В общем, ИТ - это целый мешок нейронов, заинтересованных в объектах. Хотя их не всегда легко интерпретировать, такие реакции, ориентированные на объекты, делают ИТ похожим на вершину иерархии зрительных процессов, последнюю остановку на экспрессе зрительной системы.


Неврологи десятилетиями пытались понять, как именно ИТ проявляет такие реакции. Часто они шли по стопам Фукусимы и строили модели со стопками простых и сложных клеток, надеясь, что эти вычисления будут имитировать те, которые приводят к активности ИТ, и сделают эту активность абсолютно предсказуемой. Этот подход в определенной степени сработал, но, как и в случае с "Неокогнитроном", модели были маленькими и обучались своим связям на основе небольшого набора маленьких изображений. Чтобы добиться реального прогресса, нейробиологам нужно было увеличить масштаб своих моделей так же, как это делали компьютерные ученые.

В 2014 году две отдельные группы ученых - одна под руководством Николауса Кригескорте Кембриджского университета и Джеймса ДиКарло из Массачусетского технологического института - именно так и поступили. Они показывали реальные и разнообразные изображения объектов испытуемым (людям и обезьянам) и регистрировали активность различных областей их зрительной системы, когда они рассматривали их. Они также показали те же изображения большой конволюционной нейронной сети, обученной классифицировать реальные изображения. Обе группы пришли к выводу, что эти компьютерные модели очень хорошо приближены к биологическому зрению. В частности, они показали, что если вы хотите угадать, как нейрон в ИТ отреагирует на конкретное изображение, то лучше всего - лучше, чем любой из предыдущих опробованных нейробиологами методов, - посмотреть, как на него отреагируют искусственные нейроны в сети. В частности, нейроны в последнем слое сети лучше всего предсказывали активность нейронов ИТ. Более того, нейроны предпоследнего слоя лучше всего предсказывали активность нейронов в V4 - области, которая обеспечивает вход в ИТ. Казалось, что конволюционная нейронная сеть имитирует зрительную иерархию мозга.


Показав столь поразительное соответствие между моделью и мозгом, это исследование положило начало революции в изучении биологического зрения. Оно показало, что нейробиологи в целом находятся на правильном пути, начатом Леттвином, Хьюбелом и Визелем, но им нужно быть больше и смелее. Если они хотели получить модель, которая могла бы объяснить, как животные видят объекты, то сама модель должна была быть способна видеть объекты.

Однако этот путь символизировал отказ от принципов, которые так дороги некоторым теоретикам: стремление к элегантности, простоте и эффективности моделей. Нет ничего элегантного или эффективного в 650 000 искусственных нейронов, соединенных между собой тем способом, который они нашли для работы. По сравнению с некоторыми из самых любимых и красивых уравнений в науке, эти сети - громоздкие, неприглядные чудовища. Но, в конце концов, они работают - и нет никакой гарантии, что что-то более элегантное будет работать.

Работа Селфриджа подтолкнула биологов к рассмотрению зрительной системы как иерархической системы, а эксперименты, проведенные в результате, заложили основу для разработки конволюционных нейронных сетей. Эти семена были взращены в компьютерной науке, и в итоге сотрудничество принесло плоды обеим сторонам. В целом, стремление к созданию искусственных систем, способных решать реальные визуальные задачи в реальном мире, подтолкнуло изучение биологического зрения в направлениях, в которых оно, возможно, не продвинулось бы самостоятельно. Инженерам и компьютерщикам всегда было приятно иметь в своем распоряжении зрительную систему мозга - не только для вдохновения, но и для доказательства того, что эта сложная проблема решаема. Эта взаимная признательность и влияние делают историю изучения зрения уникально переплетенной.

 

Глава 7. Взлом нейронного кода. Теория информации и эффективное кодирование

 

В то время как сердце перекачивает кровь, а легкие осуществляют газообмен, печень перерабатывает и накапливает химические вещества, а почки выводят их из крови, нервная система обрабатывает информацию.

Целью встречи 1968 года программы Neurosciences Researchбыло обсудить, как отдельные нейроны и группы нейронов обрабатывают информацию. Резюме встречи, написанное нейробиологами Теодором Баллоком и Дональдом Перкелем, не требует каких-либо жестких и быстрых выводов. Но оно описывает широкий мир возможностей для представления, преобразования, передачи и хранения информации в мозге, обобщая состояние дел в этой области.

Как следует из цитаты из их резюме, приписывать роль обработки информации мозгу кажется столь же естественным, как и говорить, что сердце перекачивает кровь. Еще до того, как в двадцатом веке слово "информация" вошло в повседневный лексикон, ученые неявно говорили об информации, которую передают нервы, часто на языке "сообщений" и "сигналов". Например, в лекции для сотрудников больницы, прочитанной в 1892 году, объясняется, что: "Существуют волокна, которые передают сообщения от различных частей тела к мозгу", и что некоторые из этих волокон "несут особые виды сообщений, как, например, нервы, связанные с органами особого чувства, которые были названы воротами знаний". В том же ключе в публикации 1870 года описывается срабатывание двигательных нейронов как "сообщение воли мышцам" и даже говорится о том, что нервная система приравнивается к доминирующей в то время технологии передачи информации - телеграфу.

Но исследования того, как нервная система представляет информацию, всерьез начались примерно за 40 лет до доклада Буллока и Перкела, с работ Эдгара Адриана в начале XX века.

Адриан во многих отношениях являл собой образ чопорного и правильного человека, занимающегося наукой. К моменту его рождения в Лондоне в 1889 году его семья проживала в Англии уже более 300 лет - в ее роду были хирург XVI века, несколько преподобных и членов правительства. Когда он был студентом, его блестящие способности регулярно отмечались его учителями. Помимо медицины во время учебы в университете, он проявлял способности к искусству, в частности к живописи и рисунку. Будучи преподавателем в Кембридже, он проводил долгие часы в лаборатории и в аудитории. В своей карьере физиолога он добился несомненного успеха. В возрасте 42 лет он стал лауреатом Нобелевской премии, а в 1955 году королева Елизавета II пожаловала ему титул, и он стал лордом Адрианом.

Но за этими официальными наградами и почестями скрывался беспокойный и хаотичный человек. Адриан был любителем острых ощущений, ему нравилось лазить по горам и гонять на быстрых машинах. Он с удовольствием проводил эксперименты над собой, в том числе, чтобы измерить мышечную активность. Известно, что он играл в замысловатые прятки с сокурсниками в долинах Озерного края Англии. Как профессор он был столь же неуловим. Он избегал незапланированных встреч, прячась в своей лаборатории, и заставлял всех любознательных студентов пытаться поймать его, когда он ехал домой на велосипеде. Он был темпераментным, и когда ему нужно было подумать, он устраивался на полке в темном шкафу. Его товарищи по лаборатории и семья описывали его движения как быстрые, отрывистые и почти постоянные. Его мысли были такими же стремительными. На протяжении своей карьеры он изучал множество различных вопросов у самых разных животных: зрение, боль, осязание и управление мышцами у лягушек, кошек, обезьян и многих других.

Эта неспособность сохранять неподвижность, физическую или умственную, возможно, стала залогом его успеха. Благодаря своим разнообразным исследованиям активности отдельных нервов он смог найти некоторые общие принципы, которые легли в основу нашего понимания нервной системы в целом. В своей книге 1928 года "Основа ощущений" Адриан объясняет свои выводы и эксперименты, которые позволили ему к ним прийти. Страницы книги пестрят разговорами о "сигналах", "сообщениях" и даже "информации", и все это вперемешку с анатомическими подробностями нервной системы и техническими проблемами, связанными с фиксацией ее активности. Это была смесь экспериментальных достижений и концептуальных идей, которые будут влиять на эту область в течение десятилетий.

В главе 3 Адриан рассказывает об эксперименте, в котором он добавляет вес к мышце лягушки, чтобы посмотреть, как отреагируют рецепторы "растяжения", отслеживающие положение мышцы. Адриан записывал показания нервов, по которым сигнал от рецепторов поступает в спинной мозг. Примение в различные грузы, Адриан подвел итог своим выводам: "Сенсорный сигнал, который поступает в центральную нервную систему при растяжении мышцы... состоит из последовательности импульсов знакомого типа. Частота повторения импульсов зависит от силы стимула, но размер каждого импульса не меняется". Этот вывод - что размер, форма или длительность потенциала действия, испускаемого этими сенсорными нейронами, не меняется, независимо от того, насколько тяжелым или легким является вес, приложенный к мышце, - Адриан назвал принципом "все или ничего".

Примеры "все или ничего" в природе нейронных импульсов повторяются на протяжении всей книги. У разных видов, для разных нервов, несущих разные сообщения, история всегда одна и та же. Потенциалы действия не меняются в зависимости от сигнала, который они передают, но их частота может меняться. Таким образом, импульсы нейрона похожи на армию муравьев - каждый из них максимально идентичен, а их сила обусловлена главным образом их численностью.

Если природа отдельного потенциала действия одинакова вне зависимости от силы или слабости вызвавшего его сенсорного стимула, то одно можно сказать наверняка: размер потенциала действия не несет информации. Благодаря вкладу Адриана физиологи теперь могли смело приступать к поиску того, где именно в нервах находится информация и как она передается.

Оставалась только одна проблема: что такое информация? Кровь, которую перекачивает сердце, и газы, которыми обмениваются легкие, - это реальные, физические субстанции. Они наблюдаемы, осязаемы и измеряемы. В то время как мы часто используем это слово, "информация" на самом деле является довольно расплывчатым и неуловимым понятием. Точное определение этого слова не так-то просто в голову большинству людей; к сожалению, оно относится к лагерю "узнаешь, когда увидишь". Не имея возможности взвесить информацию так же, как мы взвешиваем жидкости или газы, какие надежды могут быть у ученых на количественное понимание главной цели мозга?

Однако в период между выходом книги Адриана и докладом Перкела и Баллока было найдено количественное определение информации. Оно родилось в ходе научной борьбы во время Второй мировой войны и в дальнейшем неожиданно изменило мир. Его применение в изучении мозга порой было столь же трудновыполнимым, сколь и очевидным.

* * *

Клод Шеннон начал работать в Bell Labs по контракту, предоставленному американскими военными. Шел 1941 год, и Национальному комитету оборонных исследований требовались ученые, работающие над технологиями военного времени. Серьезность работы не заглушала игривых наклонностей Шеннона. Ему нравилось жонглировать, и во время работы в Bell Labs было известно, что он жонглирует по кампусу, катаясь на одноколесном велосипеде.

Шеннон родился в небольшом городке на американском Среднем Западе и рос, следуя за своим любопытством к науке, математике и инженерии, куда бы оно его ни привело. В детстве он играл с радиодеталями и любил решать числовые головоломки. Став взрослым, он создал математическую теорию жонглирования и фрисби, работающее на пламени. Ему нравилось играть в шахматы и строить машины, которые могли бы играть в шахматы. Постоянно занимаясь мастерингом, он создал множество гаджетов, некоторые из которых были более продуктивными, чем другие. Например на своем рабочем столе в Bell Labs,, он держал "Ultimate Machine": коробку с выключателем, который, если его включить, заставлял механическую руку протягиваться и выключать его.1

Для получения степени магистра Шеннон написал 72-страничную диссертацию под названием "Символический анализ релейных и коммутационных схем", которая произвела революцию в электротехнике. Для получения степени доктора философии он обратил свой математический взор к биологии, работая над "Алгеброй для теоретической генетики". Но его темой в Bell Labs была криптография. Как надежно закодировать сообщения, которые будут передаваться по земле, воздуху и воде, - естественная тема для военных. Bell Labs была центром исследований в области криптографии и даже принимала у себя знаменитого взломщика кодов Алана Тьюринга во время работы Шеннона.

Вся эта работа над кодами и сообщениями заставила Шеннона задуматься о концепции коммуникации в широком смысле. Во время войны он предложил метод математического понимания передачи сообщений. Однако из-за необходимой секретности исследований в области криптографии его идеи были засекречены. В 1948 году Шеннон наконец смог опубликовать свою работу, и "Математическая теория коммуникации" стала основополагающим документом новой области - теории информации.

В работе Шеннона описывается очень общая система связи, состоящая из пяти простых частей. Первая - это источник информации, который производит сообщение, которое будет отправлено. Далее следует передатчик, который отвечает за кодирование сообщения в форму, которая может быть передана по третьему компоненту каналу. На другом конце канала приемник декодирует информацию в исходную форму, и она отправляется в конечный пункт назначения (Рисунок 16).

В этой системе носитель сообщения не имеет значения. Это могут быть песни на радиоволнах, слова на телеграфе или изображения через Интернет. Как говорит Шеннон, компоненты его модели передачи информации "в достаточной степени идеализированы по сравнению с их физическими аналогами". Это возможно потому, что во всех этих случаях фундаментальная проблема коммуникации остается неизменной. Это проблема "точного или приблизительного воспроизведения в одной точке сообщения, выбранного в другой точке".

Рисунок 16

Имея в виду эту простую систему связи, Шеннон стремился формализовать изучение передачи информации. Но чтобы математически подойти к вопросу о том, как передается информация, ему сначала нужно было дать математическое определение информации. Опираясь на предыдущие работы, Шеннон обсуждает, какими желательными свойствами должна обладать мера информации. Некоторые из них имеют практическое значение: например, информация не должна быть отрицательной, а ее определение должно быть легко поддаваться математической обработке. Но реальное ограничение возникло из-за необходимости отразить интуицию, связанную с информацией: ее зависимость от кода.


Представьте себе школу, где все ученики носят униформу. Видя, как ученик каждый день появляется в одном и том же наряде, можно получить очень мало информации о его настроении, характере или погоде. С другой стороны, в школе, где нет униформы, выбор одежды способен передать всю эту информацию и даже больше. Например, если кто-то интересуется текущей температурой воздуха, то, увидев ученика в сарафане, а не в свитере, он может надолго развеять это любопытство. Таким образом, одежду можно использовать как код - это передаваемый набор символов, который передает смысл.

Причина, по которой студенты в униформе не могут нести эту информацию, заключается в том, что код требует вариантов. В словаре кода должно быть несколько символов (в данном случае - несколько нарядов в гардеробе студента), каждый из которых имеет свое собственное значение, чтобы любой из символов имел смысл.

Но важно не только количество символов в коде, но и то, как они используются. Допустим, у студента есть два варианта одежды: джинсы и футболка или костюм. Если студент в 99 процентах случаев носит джинсы и футболку, то из этого выбора гардероба можно извлечь не так уж много информации. Вам даже не нужно видеть студента, чтобы быть почти уверенным в том, что он одет - это, по сути, униформа. Но один день из ста, когда они появляются в костюме, говорит вам о чем-то важном. Он дает вам понять,что этот день какой-то особенный. Это говорит о том, что чем реже используется символ, тем больше информации он содержит. Обычные символы, с другой стороны, не могут передать много информации.

Шеннон хотел отразить эту связь между использованием символа и его информационным содержанием. Поэтому он определил информативность символа в терминах вероятности его появления. В частности, чтобы количество информации уменьшалось по мере увеличения вероятности появления символа, он сделал информацию символа зависящей от обратной величины его вероятности. Поскольку обратная величина числа - это просто единица, деленная на это число, большая вероятность означает меньшую "обратную вероятность". Таким образом, чем чаще используется символ, тем ниже его информативность. Наконец, чтобы удовлетворить другие математические требования, он взял логарифм этого значения.

Логарифм, или "логарифм", определяется по основанию. Например, чтобы вычислить логарифм числа по основанию 10, нужно спросить: "До какой степени нужно увеличить 10, чтобы получить это число? Логарифм 100 по основанию 10 (записывается как log10100) равен 2, потому что 10 в степени 2 (т. е. 10x10) равно 100. Таким образом, логарифм 1000 равен 3. А логарифмическая линейка от 100 до 1000 равна 2 и 3.

Шеннон решил использовать основание два для своего определения информации. Поэтому, чтобы вычислить информацию, содержащуюся в символе, нужно спросить: "До какой степени нужно возвести в степень два, чтобы получить обратную величину вероятности символа? Если взять наряд нашего студента - джинсы и футболку - как символ, который появляется с вероятностью 0,99, то его информативность равна log2(1/0,99), что составляет примерно 0,014. Костюм, который появляется с вероятностью 0,01, напротив, имеет информационное содержание log2(1/0,01) или примерно 6,64. Опять же, чем ниже вероятность, тем выше информация2.


Но Шеннона интересовала не только информация, содержащаяся в одном символе, - он хотел изучить информационное содержание кода. Код определяется набором символов и частотой использования каждого из них. Поэтому Шеннон определил общую информацию в коде как сумму информации всех его символов. Важно, что эта сумма взвешена - то есть информация каждого символа умножается на частоту использования этого символа.

Согласно этому определению, общий объем информации, содержащейся в одежде студента, составит 0,99 x 0,014 (от джинсов и футболки) + 0,01 x 6,64 (от костюма) = 0,081. Это можно считать средним количеством информации, которое мы получаем каждый день, видя наряд студента. Если бы студент решил носить джинсы 80 процентов времени, а костюм - 20 процентов, его код был бы другим. И среднее содержание информации было бы выше: 0,80 x log2(1/0,80) + 0,20 x log2(1/0,20) = 0,72.

Шеннон дал название средней скорости передачи информации в коде. Он назвал ее энтропией. Официально он объяснил это тем, что его определение информации связано с понятием энтропии в физике, где она служит мерой беспорядка. С другой стороны, Шеннон, как известно, утверждал - возможно, в шутку, - что ему посоветовали назвать свою новую меру энтропией, потому что "никто не понимает энтропию", и поэтому Шеннон, скорее всего, всегда будет выигрывать споры о своей теории.

Энтропия Шеннона отражает фундаментальный компромисс, присущий максимизации информации. Редкие вещи несут наибольшую информацию, поэтому вы хотите, чтобы их было как можно больше в вашем коде. Но чем чаще вы используете редкий символ, тем менее редким он становится. Эта борьба полностью определяет уравнение для энтропии: уменьшение вероятности символа приводит к увеличению логарифма его обратной величины - положительный вклад в информацию. Но затем это число умножается на ту же самую вероятность: это означает, что уменьшение вероятности символа приводит к уменьшению его вклада в информацию. Таким образом, чтобы максимизировать энтропию, мы должны сделать редкие символы настолько распространенными, насколько это возможно, но не более распространенными.

Использование Шенноном логарифма с основанием два делает единицей информации бит. Бит - это сокращение от двоичного разряда, и, хотя в работе Шеннона впервые встречается это слово, не он его придумал (Шеннон приписывает эту честь своему коллеге из Bell Labs Джону Тьюки). У бита как единицы информации есть полезная и интуитивно понятная интерпретация. В частности, среднее количество битов в символе равно количеству вопросов "да-нет", которые нужно задать, чтобы получить этот объем информации.

Например, попробуйте выяснить время года, в которое родился человек. Вы можете начать с вопроса: "Это переходное время года?". Если они ответят "да", вы можете спросить: "Сейчас весна?". Если они ответят "да", вы получите ответ; если "нет", у вас все равно будет ответ: осень. Если они ответили "нет" на первый вопрос, вы можете пойти противоположным путем - спросить, не родились ли они летом, и т. д. Независимо от ответа, чтобы получить его, нужно задать два вопроса "да" или "нет". Уравнение энтропии Шеннона согласуется с этим. Если предположить, что люди с одинаковой вероятностью рождаются в каждый сезон, то каждый из этих "символов" сезона будет использоваться в 25 процентах случаев. Таким образом, информация в каждом символе равна log2(1/0,25). Таким образом, среднее количество бит на символ равно двум - столько же, сколько и количество вопросов.

Часть разработки хорошей системы связи заключается в создании кода, который содержит много информации на один символ. Чтобы максимизировать среднюю информацию, которую предоставляет символ в коде, нам нужно максимизировать энтропию кода. Но, как мы видели, определение энтропии имеет внутреннее противоречие. Чтобы максимизировать ее, редкие символы должны быть нормой. Как лучше всего удовлетворить это, казалось бы, парадоксальное требование? На этот непростой вопрос, как оказалось, есть простой ответ. Чтобы максимизировать энтропию кода, каждый из его символов должен использоваться одинаково часто. У вас пять символов? Используйте каждый из них пятую часть времени. Сто символов? Вероятность использования каждого из них должна составлять 1/100 часть. Если сделать каждый символ одинаково вероятным, это уравновесит компромисс между редким и обычным общением.

Более того, чем больше символов в коде, тем лучше. Код с двумя символами, каждый из которых используется половину времени, имеет энтропию в один бит на символ (это имеет смысл в соответствии с нашим интуитивным определением бита: если представить, что один символ означает "да", а другой - "нет", то каждый символ отвечает на один вопрос "да" или "нет"). С другой стороны, код с 64 символами, каждый из которых используется одинаково, имеет энтропию шесть бит на символ.

Как бы ни был важен хороший код, кодирование - это только начало пути сообщения. В концепции связи Шеннона, после того как информация закодирована, ее еще нужно отправить по каналу к месту назначения. Именно здесь абстрактные цели передачи сообщений сталкиваются с физическими ограничениями материи и материалов.

Рассмотрим телеграф. Телеграф передает сообщения с помощью коротких импульсов электрического тока, проходящих по проводам. Сочетания коротких точек и длинных тире определяют алфавит. Например, в американской азбуке Морзе точка и тире обозначают букву "А", а две точки и тире - "U". Физические ограничения и несовершенство проводов, по которым передавались эти сообщения, особенно на большие расстояния или под океанами, накладывали ограничения на скорость передачи информации. Телеграфисты, набиравшие текст слишком быстро, рисковали столкнуть точки и тире вместе, создав нечленораздельный "боров Морзе", который был бы бесполезен для его получателя. На практике операторы могли безопасно отправлять в среднем около 100 писем в минуту.

Чтобы создать практическую меру скорости передачи информации, Шеннон объединил присущую коду скорость передачи информации с физической скоростью передачи по каналу, по которому он передается. Например, код, содержащий пять битов информации на символ и передаваемый по каналу, который может передавать 10 символов в минуту, будет иметь общую скорость передачи информации 50 битов в минуту. Максимальная скорость, с которой информация может быть передана по каналу без ошибок, называется пропускной способностью канала.

Публикация Шеннона позволила придать четкую структуру понятию, которое, как известно, было туманным. Таким образом, она заложила основу для растущей объективизации информации в последующие десятилетия. Однако непосредственное влияние работы Шеннона на обработку информации в реальном мире было незначительным. В более двух десятилетий, чтобыпоявилась технология , благодаря которой передача, хранение и обработка информации стали неотъемлемой частью повседневной жизни. А инженерам потребовалось время, чтобы понять, как использовать теорию Шеннона для практического применения в этих устройствах. Влияние теории информации на биологию, однако, проявилось гораздо быстрее.

* * *

Первое применение теории информации в биологии стало результатом войны. Генри Квастлер, австрийский врач, жил и работал в США во время Второй мировой войны. Его реакция на разработку атомной бомбы была ужасом - и действием. Он оставил частную практику и начал заниматься исследованиями медицинских и генетических последствий применения атомных бомб. Но ему нужен был способ количественной оценки того, как информация, закодированная в организме, изменяется под воздействием радиации. Эти формулы - просто находка, просто великолепно! Теперь я могу продолжать", - сказал Квастлер, узнав о теории Шеннона. В 1949 году - всего через год после публикации работы Шеннона - он написал работу под названием "Информационное содержание и коэффициент ошибок живых существ". Она положила начало изучению информации в биологии.

Нейронаука не замедлила последовать за ними. В 1952 году Уоррен Маккалох и физик Дональд Маккей опубликовали работу "Предельная информационная емкость нейронного звена". В этой работе они вывели наиболее оптимистичную, по их мнению, оценку того, сколько информации может нести один нейрон. Основываясь на среднем времени, необходимом для возникновения потенциала действия, минимальном времени между импульсами и других физиологических факторах, Маккей и Маккалох рассчитали верхнюю границу в 2 900 бит в секунду.

Маккей и Маккалох поспешили подчеркнуть, что это не означает, что нейроны действительно передают такой объем информации, а только то, что при наилучших обстоятельствах они могли бы это сделать. После их статьи последовало множество других публикаций, каждая из которых была направлена на выяснение истинной способности мозга к кодированию. Эта область была настолько переполнена попытками, что в 1967 году нейробиолог Ричард Стайн написал статью, в которой одновременно признал привлекательность теории информации для количественной оценки нервной передачи, но также посетовал на "огромные расхождения", которые возникли в результате ее применения. Действительно, в работах, последовавших за работами Маккея и Маккалоха, оценки варьировались от более высоких, чем их значение - 4000 бит в секунду на нейрон, - до значительно более низких, до одной трети бита в секунду.

Такое разнообразие отчасти объясняется различиями в представлениях о том, как части и паттерны нервной деятельности должны быть отображены на формальные компоненты теории информации Шеннона. Самый большой вопрос заключался в том, как определить символ. Какие аспекты нервной активности действительно несут информацию, а какие являются случайными? Что, по сути, представляет собой нейронный код?

Первоначальный вывод Адриана о том, что важна не высота спайка, по-прежнему оставался верным. Но даже при таком ограничении вариантов было множество. Начиная с базовой единицы - потенциала действия, ученые все равно смогли разработать множество мыслимых кодов. Маккей и Маккалох начали с того, что представили нейронный код состоящим всего из двух символов: спайк или не спайк. В каждый момент времени нейрон посылал тот или иной символ. Но, подсчитав информативность такого кода, Маккей и Маккалох поняли, что могут добиться большего. Если в качестве кода время между спайками, то нейрон сможет передавать гораздо больше информации. При такой схеме кодирования 20-миллисекундный промежуток между двумя всплесками будет означать нечто иное, чем 10-миллисекундный. Такая схема создает гораздо больше возможных символов, и именно с помощью этого стиля кодирования они получили оценку в 2 900 бит в секунду.

Стайн, пытаясь навести порядок в какофонии предлагаемых в то время кодов, остановился на третьем варианте нейронного кодирования - том, который предложил сам Адриан. Адриан, установив, что потенциалы действия не меняются при изменении стимула, утверждал, что: "Фактически, единственный способ, которым можно заставить сообщение меняться, - это изменение общего числа импульсов и частоты их повторения". Такой стиль кодирования - когда символом служит количество импульсов, произведенных за определенный промежуток времени, - известен как кодирование на основе частоты или скорости. В своей работе 1967 года Штейн доказывает существование кода, основанного на частоте, и подчеркивает его преимущества, включая более высокую устойчивость к ошибкам.

Но споры о том, что такое истинный нейронный код, не закончились со Стайном в 1967 году. Не закончились они и на встрече Буллока и Перкеля по кодированию информации в мозге годом позже. Фактически, в своем отчете об этой встрече Буллок и Перкель включили приложение, в котором излагаются десятки возможных нейронных кодов и способы их реализации.

По правде говоря, неврологи продолжают спорить и бороться за нейронный код и по сей день. Они проводят конференции, посвященные теме "Взлом нейронного кода". Они пишут статьи с такими названиями, как "В поисках нейронного кода", "Время для нового нейронного кода?" и даже "Существует ли нейронный код?". Они продолжают находить веские доказательства в пользу оригинального кодирования Адриана на основе скорости, но также и некоторые против него. Идентификация нейронного кода сейчас может показаться более отдаленной целью, чем когда Маккей и Маккалох писали свои первые размышления на эту тему.

В целом, некоторые признаки кодирования на основе скорости можно обнаружить в большинстве областей мозга. Нейроны, посылающие информацию от глаз, меняют частоту срабатывания в зависимости от интенсивности света. Нейроны, кодирующие обоняние, стреляют пропорционально концентрации предпочитаемого запаха. И, как показал Адриан, рецепторы в мышцах и рецепторы в коже стреляют сильнее, когда на них оказывается большее давление. Но самые убедительные доказательства существования других схем кодирования получены при решении сенсорных задач, требующих очень специфических решений.

Например, при локализации источника звука важно точно рассчитать время. Из-за расстояния между двумя ушами звук, идущий с левой или правой стороны, попадает в одно ухо чуть раньше, чем в другое. Этот разрыв между временем поступления звука в каждое ухо - иногда он составляет всего несколько миллионных долей секунды - дает ключ к разгадке того, откуда исходит звук. За этот расчет отвечает медиальная верхняя олива (MSO) - крошечное скопление клеток, расположенное прямо между двумя ушами.

Нейронная схема, которая может это осуществить, была предложена психологом Ллойдом Джеффрессом в 1948 году и с тех пор подтверждена множеством экспериментов. Модель Джеффресса начинается с того, что информация поступает от каждого уха в виде временного кода - то есть точное время спайков имеет значение. В МСО клетки, получающие входные сигналы от каждого уха, сравнивают относительное время этих двух входов. Например, одна клетка может быть настроена на обнаружение звуков, поступающих в оба уха одновременно. Для этого сигналы от каждого уха должны пройти одинаковое количество времени, чтобы достичь этой клетки MSO. Эта клетка срабатывает, когда получает два входных сигнала одновременно, и такой ответ указывает на то, что звук попал в оба уха одновременно (см. рис. 17).

Однако клетка, расположенная рядом с этой, получает несколько асимметричные сигналы. То есть нервному волокну из одного уха нужно пройти немного дальше, чтобы достичь этой клетки, чем нерву из другого уха. Из-за этого один из временных сигналов задерживается. От того, насколько длинный путь проходит сигнал, зависит, сколько дополнительного времени он займет. Допустим, сигналу от левого уха требуется дополнительные 100 микросекунд, чтобы достичь этой клетки МСО. Тогда единственная возможность для этой клетки получить два сигнала одновременно - это если звук попадет в левое ухо за 100 микросекунд до того, как он попадет в правое. Поэтому реакция этой клетки (которая, как и у другой клетки, возникает только тогда, когда она получает два входа одновременно) будет сигнализировать о разнице в 100 микросекунд.

Продолжая эту схему, следующая клетка может отреагировать на 200-микросекундную разницу, следующая за ней - на 300 микросекунд и так далее. В общей сложности клетки в MSO образуют карту, в одном конце которые сигнализируют о коротком времени прибытия, а на другом - о длинном. Таким образом, временной код преобразуется в пространственный: положение активного нейрона на этой карте несет информацию об источнике звука.

Рисунок 17

На вопрос о том, почему нейронный код является такой загадкой, наиболее вероятный ответ - как и на многие другие вопросы о мозге - заключается в том, что он сложен. Некоторые нейроны, в некоторых областях мозга, при определенных обстоятельствах, могут использовать код, основанный на скорости. Другие нейроны, в другое время и в другом месте, могут использовать код, основанный на синхронизации всплесков, или время между всплесками, или вообще какой-то другой код. В результате жажда взломать нейронный код, скорее всего, никогда не будет утолена. Мозг, похоже, говорит на слишком многих языках.

* * *

Эволюция не снабдила нервную систему единым нейронным кодом и не облегчила ученым по поиску множества символов, которые она использует. Но, по мнению британского нейробиолога Хораса Барлоу, эволюция, к счастью, дала один сильный путеводный свет для нашего понимания схемы кодирования мозга. Барлоу известен как один из основателей гипотезы эффективного кодирования - идеи о том, что независимо от того, какой код использует мозг, он всегда эффективно кодирует информацию.

Барлоу был стажером лорда Адриана. Он работал с ним - когда мог найти его - будучи студентом Кембриджа в 1947 году. Барлоу всегда проявлял интерес к физике и математике, но, руководствуясь соображениями практичности, выбрал медицину.5 Однако на протяжении всей учебы он понимал, как влияние более количественных предметов может определять вопросы в биологии. Эту черту он считал контрастной по отношению к своему наставнику: "Адриан совсем не был теоретиком; его позиция заключалась в том, что у нас есть средства для записи информации с нервных волокон, и мы должны просто посмотреть, что произойдет".

Быстро увлекшись уравнениями Шеннона, когда они появились, Барлоу сделал несколько ранних вкладов в изучение информации в мозге. Однако Барлоу не просто считал биты в секунду, а использовал теорию информации более глубоко. Законы информации, в некоторых отношениях, являются такими же фундаментальными и ограничивающими биологию, как и законы физики. С точки зрения Барлоу, эти уравнения могут не просто описывать мозг как он есть, но и объяснять, как он появился. Но настолько уверенным в важности этих уравнений для нейронауки, Барлоу сравнил попытку изучить мозг, не сосредоточившись на обработке информации , с попыткой понять крыло, не зная, что птицы летают

Барлоу пришел к своей гипотезе эффективного кодирования, объединив размышления о теории информации с наблюдениями за биологией. Если мозг развивался в рамках ограничений теории информации - а эволюция, как правило, находит довольно удачные решения, - то логично заключить, что мозг неплохо справляется с кодированием информации. Безопасный ход здесь - предположить, что нервная система эффективна", - писал Барлоу в работе 1961 года. Если это так, то любая загадка о том, почему нейроны реагируют так, как они реагируют, может быть решена, если предположить, что они действуют эффективно".

Но как выглядит эффективное кодирование информации? Для этого Барлоу сосредоточился на понятии избыточности. В концепции Шеннона под "избыточностью" понимается величина разрыва между максимально возможной энтропией, которую может иметь данный набор символов, и энтропией, которую он имеет на самом деле. Например, если в коде есть два символа и один из них используется в 90 процентах случаев, а другой - только в 10 процентах, его энтропия не так высока, как могла бы быть. Посылать один и тот же символ девять раз из десяти - это избыточно. Как мы видели ранее, код с самой высокой энтропией использовал бы каждый из этих символов 50 процентов времени и имел бы избыточность, равную нулю. Барлоу считал, что эффективный мозг уменьшает избыточность настолько, насколько это возможно.

Причина в том, что избыточность - это пустая трата ресурсов. Английский язык, как выяснилось, невероятно избыточен. Ярким примером этого является буква "q", за которой почти всегда следует "u"."u" добавляет мало информации, если вообще добавляет, после того как мы увидели "q", и поэтому является избыточной. Избыточность английского языка означает, что теоретически мы могли бы передать тот же объем информации с помощью гораздо меньшего количества букв. На самом деле, в своей оригинальной работе 1948 года Шеннон оценил избыточность письменного английского языка примерно в 50 процентов. Вот почему, например, люди все еще могут читать слова, которые они произносят.6

В нервной системе избыточность может проявляться в том, что несколько нейронов говорят одно и то же. Представьте, что один нейрон представляет букву "q", а другой - букву "u". Таким образом, при виде буквы "qu" срабатывают оба нейрона. Но если эти две буквы часто встречаются в мире, мозг будет эффективнее использовать только один нейрон, чтобы реагировать на них.

Почему важно, эффективно ли мозг кодирует информацию? Одна из причин - энергетические затраты. Каждый раз, когда нейрон выпускает импульс, баланс заряженных частиц внутри и снаружи клетки нарушается. Восстановление этого баланса требует энергии: маленьким насосам в клеточной мембране приходится выбрасывать из клетки ионы натрия и втягивать обратно ионы калия. Образование нейротрансмиттеров и их выведение из клетки с каждым импульсом также требует затрат. В общей сложности, по оценкам, до трех четвертей энергетического бюджета мозга уходит на отправку и прием сигналов. А мозг, потребляющий 20 процентов энергии организма и составляющий всего 2 процента от его веса, является самым энергозатратным органом. При таких высоких затратах энергии мозгу имеет смысл быть экономным в использовании своих шипов

Но чтобы знать, как эффективно отправлять информацию, мозг должен знать, какую информацию ему обычно нужно отправлять. В частности, мозг должен каким-то образом определить, когда информация, которую он получает из мира, является избыточной. Тогда он может просто не посылать ее дальше. Это позволит сохранить эффективность нейронного кода. Обладает ли нервная система способностью отслеживать статистику получаемой информации и приводить свою схему кодирования в соответствие с окружающим миром? Одно из открытий лорда Адриана - адаптация - говорит о том, что да.

В своих экспериментах с рецепторами растяжения мышц Адриан заметил, что "при постоянном раздражителе частота разрядов постепенно снижается". В частности, при сохранении постоянного веса, приложенного к мышце, частота разрядов нерва снижалась примерно наполовину в течение 10 секунд. Адриан назвал это явление "адаптацией" и определил его как "снижение возбудимости под действием стимула". Заметив этот эффект в нескольких своих экспериментах, он посвятил ему целую главу в своей книге 1928 года.

С тех пор адаптация была обнаружена во всей нервной системе. Например, "эффект водопада" - это зрительная иллюзия, когда при виде движения в одном направлении неподвижные объекты кажутся движущимися в противоположном направлении. Он назван так потому, что может возникнуть после того, как вы посмотрите на нисходящее движение водопада. Считается, что этот эффект является результатом адаптации клеток, представляющих исходное направление движения: когда эти клетки замолчали в результате адаптации, наше восприятие смещено из-за срабатывания клеток, представляющих противоположное направление.

В своей работе 1972 года Барлоу утверждает, что адаптация - это средство повышения эффективности: "Если сенсорные сообщения должны занимать место, пропорциональное их информационной ценности, то должны существовать механизмы, позволяющие уменьшить величину представления паттернов, которые постоянно присутствуют, и, предположительно, именно это лежит в основе адаптивных эффектов".

Другими словами - точнее, словами теории информации, - если один и тот же символ передается по каналу снова и снова, его присутствие больше не несет информации. Поэтому имеет смысл прекратить его передачу. Именно так и поступают нейроны: они перестают посылать импульсы, когда видят один и тот же стимул снова и снова.

С тех пор как Барлоу сделал заявление о том, что клетки должны адаптировать свои реакции к получаемым сигналам, были разработаны методы отслеживания того, как нейроны кодируют информацию, которые позволяют проводить более прямые и тонкие проверки этой гипотезы. Например, в 2001 году специалист по вычислительной нейробиологии Эдриенн Фэйрхолл вместе с коллегами из Исследовательского института NEC в Принстоне, штат Нью-Джерси, исследовали адаптивные способности зрительных нейронов у мух.

В ходе эксперимента исследователи показывали мухам на экране полоску, движущуюся вправо и влево. Сначала движение полосы было неустойчивым. В один момент она могла очень быстро двигаться влево, а в другой - так же быстро вправо, или оставаться в этом направлении, или совсем замедлиться. В общем, диапазон возможных скоростей был велик. После нескольких секунд такого хаоса бар успокоился. Его движение стало более сдержанным, он никогда не двигался слишком быстро ни в одном из направлений. В ходе эксперимента брусок несколько раз менял периоды хаотичного и спокойного движения.

Изучая активность нейронов, реагирующих на движение, исследователи обнаружили, что зрительная система быстро адаптирует свой код к информации о движении, которую она получает в данный момент. В частности, чтобы быть эффективным кодировщиком, нейрон всегда должен работать с максимальной скоростью при самом быстром движении и с минимальной - при самом медленном. Если рассматривать разные скорости работы как разные символы в нейронном коде, то такое распределение скорости работы гарантирует, что все эти символы будут использоваться примерно одинаково. Это максимизирует энтропию кода.

Проблема в том, что самое быстрое движение в период спокойствия гораздо медленнее, чем самое быстрое движение в более неустойчивый период. Это означает, что одна и та же скорость должна соответствовать двум разным темпам стрельбы в зависимости от того, в каком контексте она проявляется. Как ни странно, именно это и наблюдали Фэрхолл и его коллеги. В спокойный период, когда бар двигался с наибольшей скоростью, нейрон выстреливал более 100 шипиков в секунду. В то время как во время нестабильного периода, когда скорость движения была такой же, нейрон выстреливал всего 60 раз в секунду. Чтобы нейрон снова заработал со скоростью 100 импульсов в секунду в период нестабильности, бар должен был двигаться в 10 раз быстрее.

Кроме того, исследователи смогли определить количество информации, которую несет спайк до и после переключения между этими двумя типами движения. Во время хаотичного периода количество информации составляло около 1,5 бита на зубец. Сразу после перехода к спокойному движению она упала до 0,8 бита на зубец: нейрон, еще не адаптировавшийся к новому набору движений, оказался неэффективным кодировщиком. Однако всего через долю секунды после начала более спокойного движения количество бит на зубец снова выросло до 1,5. Нейрону потребовалось совсем немного времени, чтобы проследить за диапазоном скоростей, которые он видит, и соответствующим образом адаптировать свои импульсы. Этот эксперимент показывает, что, как и предполагает теория эффективного кодирования Барлоу, адаптация обеспечивает эффективное кодирование всех типов информации.

Неврологи также считают, что мозг устроен таким образом, чтобы создавать эффективные коды на гораздо более длительных временных интервалах, чем секунды и минуты сенсорного опыта. В процессе эволюции и развития организм имеет возможность изучить окружающую среду и адаптировать свой нейронный код к тому, что для него наиболее важно. Предполагая, что определенная область мозга лучше всего приспособлена к максимально эффективному представлению нужной информации, ученые пытаются перестроить эволюционный процесс.

Например, 30 000 нервов, отходящих от человеческого уха, реагируют на разные типы звуков. Одни нейроны предпочитают короткие всплески высокочастотных звуков, другие - низкочастотных. Одни лучше всего реагируют, когда тихий звук становится громче, другие - когда громкий звук становится тише, а третьи - когда тихий звук становится громче, а затем снова тише. В целом, каждое нервное волокно имеет сложную схему тона и громкости, которая наилучшим образом способствует его возбуждению.

Ученые в основном знают, как волокна приводят к таким реакциям. Крошечные волоски, соединенные с клетками в внутреннего уха, двигаются в ответ на звуки. Каждая клетка реагирует на разные звуки в зависимости от того, где она находится в маленькой спиралевидной мембране. Нервные волокна, выходящие из уха, получают сигналы от этих волосковых клеток. Каждое волокно комбинирует звуки по-своему, создавая свой уникальный, комбинированный профиль реакции.

Однако менее понятно, почему волокна отвечают именно так. Именно здесь могут помочь идеи из теории информации.

Если мозг действительно сокращает избыточность, как предполагает Барлоу, то одновременно должно быть активно лишь небольшое количество нейронов. Неврологи называют такую активность "разреженной".8 В 2002 году нейробиолог-вычислитель Майкл Левики задался вопросом, могут ли свойства реакции слуховых нервов быть результатом применения мозгом разреженного кода - кода, специально разработанного для звуков, которые животное должно обрабатывать.

Чтобы ответить на этот вопрос, ему пришлось собрать коллекцию различных природных звуков. Один набор звуков был взят с компакт-диска с вокализами животных тропических лесов, таких как летучие мыши, ламантины и мартышки; другой представлял собой компиляцию "фоновых" шумов, таких как хруст листьев и щелканье веток; а третий был взят из базы данных человеческих голосов, читающих английские предложения.

Затем Левицки использовал алгоритм для разложения сложных звуков на словарь коротких звуковых паттернов. Целью алгоритма было найти наилучшее разложение - то есть такое, которое может воссоздать каждый полный, естественный звук, используя как можно меньше коротких звуковых паттернов. Таким образом, алгоритм искал разреженный код. Если слуховая система мозга эволюционировала для редкого кодирования естественных звуков, то звуковые паттерны, предпочитаемые слуховыми нервами, должны совпадать с теми, которые были найдены алгоритмом.

Левики обнаружил, что при создании словаря из одних только звуков животных получаются звуковые шаблоны, которые не соответствуют биологическим. В частности, шаблоны, созданные алгоритмом, были слишком простыми - они представляли собой чистые тона, а не сложное сочетание тонов и громкости, которое предпочитают слуховые нервы людей и животных. Однако, если применить алгоритм к смеси шумов животных и фоновых звуков, то он полностью совпал с биологическими данными. Это говорит о том, что схема кодирования слуховой системы действительно соответствует этим звукам окружающей среды, что позволяет ей эффективно их кодировать. Более того, Левицки обнаружил, что словарь, составленный из человеческой речи, также воспроизводит звуковые профили, предпочитаемые биологией. Левицки воспринял это как доказательство теории о том, что человеческая речь эволюционировала, чтобы наилучшим образом использовать существующую схему кодирования слуховой системы.9

* * *

В 1959 году Барлоу представил свои идеи о свойствах мозга, связанных с обработкой информации, группе исследователей сенсорных, собравшихся в Массачусетском технологическом институте. Когда материалы этой встречи были переведены на русский язык для советской аудитории, вклад Барлоу был заметно вырезан. Оказалось, что у Советов были проблемы с использованием теории информации для понимания мозга. Считавшаяся частью "буржуазной лженауки" кибернетики, она противоречила официальной советской философии, уравнивая человека с машиной. Советские лидеры - и порой напуганные ученые под их руководством - открыто критиковали это отношение как глупый продукт американского капитализма.

Несмотря на уникальные политические мотивы, советское разоблачение было далеко не единственной критикой теории информации в биологии. В 1956 году в короткой статье под названием "Бандвагон" предостерегалось от чрезмерно бурного применения теории информации в таких областях, как психология, лингвистика, экономика и биология. Редко когда за один раз раскрывается более нескольких секретов природы. Наше несколько искусственное процветание может рухнуть в одночасье, когда мы поймем, что использование нескольких захватывающих слов, таких как информация, энтропия, избыточность, не решает всех наших проблем". Эта статья была написана самим Шенноном всего через восемь лет после того, как он открыл миру теорию информации.

Опасения по поводу того, насколько точна аналогия между системой Шеннона и мозгом, исходили даже от самих ученых, проводящих аналогию. В статье 2000 года Барлоу предупредил, что "мозг использует информацию не так, как принято в технике связи". А Перкел и Баллок в своем оригинальном докладе не стали полностью придерживаться определения информации, данного Шенноном, а, скорее рассматривали концепцию "кодирования" в мозге как метафору, которая может иметь разную степень полезности.

Осторожность оправдана. Особенно сложной частью системы Шеннона, которую можно перенести на мозг, является декодер. В простой системе связи получатель получает закодированное сообщение по каналу и просто меняет процесс кодирования на обратный, чтобы декодировать его. Например, получатель телеграфного сообщения использует ту же справочную таблицу, что и отправитель, чтобы знать, как преобразовать точки и тире обратно в буквы. Однако система в мозге вряд ли будет такой симметричной. Потому что единственными "декодерами" в мозге являются другие нейроны, и что они делают с полученным сигналом, можно только догадываться.

Возьмем, к примеру, кодирование в сетчатке глаза. Когда обнаруживается фотон света, некоторые клетки сетчатки ("включенные" клетки) кодируют это увеличением частоты своего огня, в то время как другой набор клеток ("выключенные" клетки) кодирует это уменьшением своего огня. Если это совместное изменение скорости стрельбы вверх-вниз является символом, который сетчатка обозначает приход фотона, мы можем предположить, что это также символ, который "декодируется" последующими областями мозга. Однако, похоже, это не так.

В 2019 году группа исследователей из Финляндии генетически модифицировала клетки сетчатки мыши. В частности, они сделали "включенные" клетки менее чувствительными к фотонам. Теперь при попадании фотона "выключенные" клетки все равно снижают свою активность, а "включенные" могут ее повысить, а могут и не повысить. Вопрос заключался в том, к какому набору клеток будет прислушиваться мозг? "выключенные" клетки расшифровывали информацию о фотоне. Однако животные, похоже, не использовали ее. Если оценить способность животных обнаруживать слабый свет, то окажется, что мозг считывает активность только "включенных" клеток. Если эти клетки не сигнализировали о том, что фотон обнаружен, животное не реагировало. По мнению ученых, это означает, что мозг, по крайней мере в данном случае, не декодирует всю закодированную информацию. Он игнорирует сигналы, которые посылают "выключенные" клетки. Поэтому, пишут авторы, "на пределе чувствительности зрения принципы декодирования мозга не приводят к оптимальному решению, предсказанному теорией информации". То, что ученые могут обнаружить сигнал в пиках, еще не означает, что он имеет значение для мозга.

Этому есть много причин. Одна из них заключается в том, что мозг - это машина, обрабатывающая информацию. То есть его задача - не просто воспроизводить передаваемые по нему сообщения, а преобразовывать их в действия для животного. Он выполняет вычисления над информацией, а не просто передает ее. Поэтому ожидания о том, как работает мозг, основанные исключительно на системе связи Шеннона, упускают эту важнейшую цель. Тот факт, что мозг не может оптимально передавать информацию, не обязательно указывает на недостатки в его конструкции. Просто он был создан для чего-то другого.

Нельзя было ожидать, что теория информации, придуманная как язык для создания инженерных систем связи, идеально подойдет для нервной системы. Мозг - это не просто телефонная линия. Тем не менее отдельные участки мозга занимаются этой базовой задачей - общением. Нервы действительно посылают сигналы. И делают они это с помощью некоего кода, основанного на частоте спайков, времени спайков или спайков. Поэтому взглянуть на мозг с точки зрения теории информации - вполне разумное начинание, которое принесло множество открытий и идей. Однако если смотреть слишком долго, в аналогии появляются трещины. Это и есть причина для настороженности. Таким образом, как метафора, отношения между коммуникационной системой и мозгом наиболее плодотворны, если не переусердствовать.

 

Глава 8. Движение в низких измерениях

. Кинетика, кинематика и снижение размерности

 

В середине 1990-х годов редактор местной газеты в Хьюстоне, штат Техас, обратился в Медицинский колледж Бэйлора в надежде получить помощь в решении проблемы, связанной с его левой рукой. В течение последних нескольких недель пальцы этой руки были слабыми, а кончики пальцев онемели. Мужчина, заядлый курильщик и любитель выпить, показался врачам вполне здоровым. Увидев онемение, врачи сначала искали защемление нерва в запястье. Ничего не обнаружив, они проверили спинной мозг, подозревая, что виной тому может быть поражение спинномозговых нервов. Когда и это дало отрицательный результат, врачи пошли дальше и провели сканирование мозга. Они обнаружили опухоль размером с крупную виноградину, расположенную в правой части морщинистой поверхности мозга мужчины. Она находилась на полпути между правым виском и макушкой головы, в центре области, известной как моторная кора.

Моторная кора имеет форму двух тонких полосок, начинающихся на макушке головы и идущих вниз с каждой стороны, образуя ободок, пересекающий верхнюю часть мозга. Разные части каждой полоски контролируют разные части противоположной стороны тела. В случае с редактором газеты опухоль находилась в области правой моторной коры, контролирующей руки. Она также немного распространялась на сенсорную кору - аналогично расположенную полосу сразу за моторной корой, которая контролирует ощущения. Такое расположение объясняет слабость и онемение - проблемы, которые исчезли после хирургического удаления опухоли.

С момента своего открытия около 150 лет назад моторная кора оказалась в центре многих споров. То, что мозг управляет телом, не вызывает сомнений; данные о травмах указывали на этот факт еще в эпоху пирамид в Древнем Египте. Но как он это делает - другой вопрос.

В некотором смысле связь между моторной корой и движением очень проста. Эта связь идет по пути, противоположному исследованию, проведенному врачами из Бэйлора: нейроны моторной коры с одной стороны мозга посылают сигналы нейронам спинного мозга с другой стороны, а эти нейроны спинного мозга идут прямо к определенным мышечным волокнам. Место, где нейрон спинного мозга встречается с мышцей, называется нервно-мышечным соединением. Когда этот нейрон срабатывает, он высвобождает нейромедиатор ацетилхолин в этом соединении. В ответ на ацетилхолин мышечные волокна сокращаются, и происходит движение. Через этот путь нейроны в коре головного мозга могут напрямую управлять мышцами.

Но это не единственная дорога между моторной корой и мышцами. Другие пути более извилисты. Некоторые нейроны моторной коры, например, посылают свои выходы в промежуточные области, такие как ствол мозга, базальные ганглии и мозжечок. Из этих областей связи переходят в спинной мозг. Каждая такая остановка дает возможность для дальнейшей обработки сигнала, что приводит к изменению сообщения, которое отправляется в мышцы. Более того, даже самые прямые пути не всегда просты: нейроны из моторной коры могут соединяться с множеством различных нейронов в спинном мозге, которые активируют и тормозят разные группы мышц. Таким образом, существует множество каналов, по которым кора головного мозга может общаться с мышцами, и множество возможных сообщений, которые могут быть отправлены. Влияние моторной коры на организм может быть не прямым, а очень распределенным.

Вдобавок к этой путанице под сомнение была поставлена сама необходимость существования моторной коры. Когда кора отключена от остальной части мозга, животные не могут самиинициировать многие сложные движения, но они все еще могут выполнять некоторые хорошо отработанные модели поведения. Например, такие "декортицированные" кошки будут бить когтями и наносить удары, если их сдержать, а декортицированные самцы крыс все еще способны совокупляться, если рядом находится самка. Таким образом, для некоторых из наиболее важных для выживания форм поведения моторная кора кажется излишней.

Движение - как единственный способ общения мозга с миром - является важнейшей частью головоломки неврологии. Однако точное назначение двигательной коры вызывает споры, и ее анатомия также мало помогает в ее понимании. Без этих данных трудно понять, что именно пытается сказать моторная кора. Однако, учитывая множество важных мотивов, побуждающих разобраться в загадке движения - лечение двигательных заболеваний, создание человекоподобных роботов и т. д. - ученые постоянно предпринимают попытки. На первых порах это выражалось в ожесточенных спорах о том, какие движения генерирует моторная кора. Затем последовало шествие математических методов, позволяющих понять активность ее нейронов. Хотя некоторые из самых бурных споров удалось взять под контроль, изучение моторной коры - возможно, в большей степени, чем большинство других областей нейронауки, - и сегодня переживает бурные времена.

* * *

Густав Фрич и Эдуард Хитциг изучали медицину в Берлинском университете в середине XIX века, хотя их пути там не пересеклись. После окончания медицинского факультета, как гласит история, Фрич перевязывал рану на голове во время второй датско-прусской войны, когда он понял, что определенные раздражения открытого мозга вызывают мышечные спазмы в противоположной стороне тела солдата. Хитциг, напротив, якобы занимался электрошоковой терапией, когда заметил, что удары по определенным частям головы вызывают движения глаз. Каждый врач был поражен своим собственным любопытным наблюдением и тем, какие последствия оно могло иметь. Фритч и Хитциг встретились, когда Фритч вернулся в Берлин в конце 1860-х годов. Пара решила объединить усилия, чтобы исследовать то, что тогда считалось абсурдной гипотезой: что кора головного мозга может управлять движениями.

Представление о том, что кора головного мозга вообще что-то делает, в то время считалось радикальным. Кортекс - от латинского "кожура" - считался инертной внешней оболочкой, слоем нейронной ткани, покрывающей важные области мозга, находящиеся под ним. Такое мнение сложилось в результате нескольких предыдущих экспериментов, в которых пытались стимулировать кору, но не смогли вызвать никаких интересных реакций (в ретроспективе становится ясно, что это было связано в основном с неподходящими методами стимуляции, такими как щипки, укалывание или обливание коры алкоголем). Однако Фрича, путешественника, который занимался многими вопросами, и Хитцига, сурового, гордого и тщеславного человека, подтолкнули их собственное любопытство и высокомерие, чтобы преодолеть барьер устоявшихся представлений.

Итак, на столе в доме Хитцига (Физиологический институт не располагал оборудованием для этой новой методики) Фрич и Хитциг начали электрически стимулировать кору головного мозга собак. Они подготовили платиновый электрод, прикрепив его к батарее и постучав им по языку, чтобы проверить силу тока (как сообщается, он был "достаточной интенсивности, чтобы вызвать отчетливые ощущения"). Затем они очень кратковременно прикоснулись кончиком электрода к различным участкам мозга, наблюдая за любыми движениями, которые возникали в результате. Они обнаружили, что стимуляция коры головного мозга действительно может вызвать движения - короткие подергивания или спазмы небольших групп мышц на противоположной стороне тела. При этом место стимуляции имело значение - оно определяло, какая часть тела, если таковая имелась, будет двигаться.

Последний вывод был, пожалуй, еще более еретическим, чем первый. В то время даже те немногие ученые, которые считали, что кора головного мозга может делать что-то полезное, все еще предполагали, что она работает как недифференцированная масса - паутина тканей без функциональной специализации. Не предполагалось, что она имеет упорядоченное расположение, при котором все двигательные функции располагаются одной полосой в передней части мозга. Однако стимуляция Фрича и Хитцига предполагала именно это. Проверяя свою теорию, Фрич и Хитциг нанесли на карту участок мозга, отвечающий за определенную область тела, и вырезали его, наблюдая за тем, как это повлияет на движения. Как правило, такие повреждения не приводили к полному параличу пораженной части тела, но значительно ухудшали ее контроль и функции. Доказательств существования моторной коры становилось все больше.

Работа этого немецкого дуэта совпала с открытиями другого врача, Джона Хьюлингса Джексона, который также указал на причастность этой области мозга к управлению моторикой у человека. Благодаря этим совместным открытиям середина XIX века стала поворотным пунктом в понимании роли коры головного мозга в движении - и в нейронауке в целом. Ученым пришлось столкнуться с мыслью о том, что не только кора головного мозга может что-то делать, но и ее отдельные участки могут выполнять разные функции. Воодушевленный этими неспокойными временами, подопечный Джексона по имени Дэвид Феррье приступил к детальному изучению коры головного мозга.

В 1873 году Ферриер получил возможность проводить эксперименты с двигательной системой в приюте дляWest Riding. Работая в этом престижном викторианском психиатрическом учреждении и исследовательском центре, Феррье смог воспроизвести результаты исследований Фрича и Хитцига - как стимуляцию, так и поражение - на собаках. Он также показал, что те же принципы применимы к целому ряду других животных, включая шакалов, кошек, кроликов, крыс, рыб и лягушек. Затем Феррье отправился в подробную экспедицию в двигательную зону обезьян, надеясь получить карту, которая помогла бы хирургам безопасно удалять опухоли и тромбы из мозга человека.3

Испытание целого зоопарка видов животных было не единственным способом, которым Феррье расширил работу Фрича и Хитцига: он также обновил технологию стимуляции. Гальваническая стимуляция, которую использовали Фрич и Хитциг, была разновидностью постоянного тока, который мог повреждать ткани мозга. Поэтому его можно было применять только короткими импульсами. В конце концов Феррье перешел на фарадическую стимуляцию - переменный ток, который можно было применять более последовательно. В результате Феррье мог прижимать электрод к мозгу в течение нескольких секунд. По словам Феррье, он также мог проводить стимуляцию с более высокой силой тока - "достаточной для того, чтобы вызвать резкое, но вполне терпимое ощущение, когда электроды помещались на кончик языка".


Это количественное изменение параметров стимуляции привело к качественному изменению результатов. Когда Феррье проводил стимуляцию с более длительными интервалами, он не просто получал более длительные мышечные подергивания. Вместо этого животные демонстрировали полные, сложные движения - движения, напоминающие те, которые они совершали бы в обычной жизни. Например, Феррье обнаружил участок мозга кролика, который, согласно его записям, вызывал "внезапное втягивание и поднятие или оттопыривание противоположного уха - иногда это совпадало с внезапным стартом, как будто животное собиралось рвануть вперед". У кошки определенная область отвечала за "втягивание и разгибание передней лапы". Движения выполняются быстро и похожи на те, которые кошка совершает, ударяя лапой по мячу". А при стимуляции участка, "расположенного на задней половине верхних и средних лобных извилин" мозга обезьян, Феррье наблюдал, как "глаза широко открываются, зрачки расширяются, а голова и глаза поворачиваются в противоположную сторону".

То, что столь тупая стимуляция моторной коры приводит к таким плавным и скоординированным движениям, указывает на иное понимание этой области мозга, чем у Фритча и Хитцига. Если стимуляция моторной коры приводит в движение в основном небольшие изолированные группы мышц, как считали те двое, то ее функции относительно просты. Различные участки моторной коры работают как клавиши на фортепиано, каждая из которых выдает свою ноту. Результаты исследований Феррье, напротив, представляют моторную кору как библиотеку коротких мелодий, где каждая стимуляция заставляет фрагмент движения воспроизводиться совместно несколькими группами мышц. Этот спор - ноты против мелодий, подергивания против движений - станет первым из многих споров о душе моторной коры.


Несмотря на то, что он повторил их результаты, Фрич и Хитциг не поладили с Феррье. Возможно, это произошло из-за разногласий по поводу распределения кредитов. Феррье считал, что немецкий дуэт обошел стороной его наставника Джексона, не сославшись на его работу в своей. В результате Феррьер пытался избежать наказания за то, что не ссылался на Фича и Хитцига в своих работах. Он даже дошел до того, что убрал все ссылки на свои эксперименты на собаках и говорил только о результатах, полученных на обезьянах, чтобы избежать любой связи с Фитчем и Хитцигом.4

Какова бы ни была причина, Фрич и Хитциг не доверяли работам Феррье по созданию фрагментов естественных движений. Они отстаивали превосходство короткой гальванической стимуляции и утверждали, что стимуляция Феррье была слишком длительной и что его результаты не могут быть воспроизведены. Феррье же оставался непоколебим в своей вере в то, что фарадов ток является лучшим и что быстрая гальваническая стимуляция Фрича и Хитцига "не может вызвать определенную целенаправленную комбинацию мышечных сокращений, которая является самой сутью реакции и ключом к ее интерпретации".

В то время как в крошечном микрокосме стимуляции моторной коры разгоралась борьба, в более широкой области нейронауки велась другая дискуссия. То, что функции в коре локализованы - что разные области играют разные роли, - было тем, с чем явно согласилась моторная толпа. Но в более широком сообществе это радикальное изменение в понимании все еще только зарождалось, и многие исследователи того времени поставили перед собой цель проверить границы этой теории. Так, в моду вошла попытка стимулировать как можно меньшую область коры головного мозга, чтобы увидеть, насколько локализованной может быть функция. Эта тенденция очень хорошо сочеталась с подходом Фрича и Хитцига, которые использовали короткие импульсы, чтобы вызвать отдельные движения мышц. Таким образом, их метод стал доминирующим - не потому, что это был правильный способ ответить на научный вопрос о том, что делает моторная кора, а потому, что научный вопрос изменился. Под влиянием увлечения локализацией тот факт, что небольшие мышечные движения могут быть вызваны стимуляцией, стал более важным, чем то, производит ли мозг движения таким образом в норме. Таким образом, проблема "подергивания против движений" была отодвинута на задний план более чем на столетие.

* * *

В мозге нет ничего более локального, чем отдельный нейрон. Неврологи получили возможность регистрировать активность отдельных нейронов в конце 1920-х годов. Однако для этого обычно требовалась экспериментальная установка - например, удаление нервной ткани у животных или, по крайней мере, анестезия на время записи, - что не позволяло одновременно изучать поведение. Ситуация изменилась в конце 1950-х годов, когда были разработаны электроды, которые можно было опустить в мозг бодрствующей и реагирующей обезьяны, чтобы подслушать электрические сигналы отдельных нейронов. Размышляя об этом повороте в истории нейронаук около 50 лет спустя, пионер нейронаук Вернон Маунткасл заметил, что "с тех пор эта область никогда не была прежней, и вряд ли можно преувеличить тот восторг, который испытали те из нас, кто провел годы, работая с наркотизированными или уменьшенными препаратами, увидев и поработав с мозгом в действии! Изучение моторного контроля - того, как движения и поведение генерируются мозгом, - возможно, больше всего выиграло от этого экспериментального достижения. И действительно, первыми его использовали ученые-двигателисты.

Одним из таких первых исследователей был Эдвард Эвартс, психиатр из Нью-Йорка. Эвартс был щедрым, но строгим человеком. Он очень лично относился к своей работе - даже обращался к самоанализу и личному опыту, чтобы помочь своим научным исследованиям сна и физических упражнений, - и ожидал такой же самоотдачи от других. В 1967 году, работая в Национальном институте здоровья в Бетесде (штат Мэриленд), он завершил самостоятельный проект из трех частей, посвященный реакциям нейронов в моторной коре головного мозга. Последняя часть этого исследования была посвящена вопросу, который станет основой моторной нейронауки на десятилетия вперед: какие аспекты движения представляют нейроны в моторной коре?

Чтобы задать этот вопрос, Эвартс использовал простую двигательную задачу, которая требовала лишь небольшого количества движений. В частности, он обучил обезьян держаться за вертикальный стержень и перемещать его влево и вправо. Обезьяны были вынуждены делать это, используя только один сустав - запястье. Это означало, что движение контролировалось только двумя группами мышц предплечья: сгибателями, которые приводили руку к телу, и разгибателями, которые отводили ее в другую сторону.


Одна из простых гипотез заключалась в том, что частота срабатывания нейронов в моторной коре напрямую связана с положением запястья в каждый конкретный момент времени. Если бы это было так, вы бы обнаружили нейроны, которые сильно стреляют при сгибании запястья, но не при разгибании, и другие нейроны, которые делают противоположное.

При изучении движения имеет смысл обратиться к хорошо известной математике движения. Поэтому дополнительная гипотеза для исследования Эвартса пришла из кинетики - раздела физики, который занимается причинами движения. Чтобы заставить руку двигаться, мышцы на ней сокращаются, создавая силу. При воздействии на лучезапястный сустав эта сила превращается в угловую силу, или крутящий момент. Крутящий момент определяет движение и положение руки. Если бы нейроны моторной коры кодировали силу, а не положение, то некоторые нейроны начинали бы активно работать, когда мышцы-сгибатели создавали бы силу, перемещающую запястье в одном направлении, а другие - когда мышцы-разгибатели создавали бы силу, перемещающую его в другом направлении.

В самой базовой форме этого эксперимента эти две гипотезы неразличимы. Если нейрон возбуждается, когда запястье находится в согнутом положении, то это происходит потому, что запястье находится в согнутом положении, или из-за силы, необходимой для его удержания? Кто знает? Чтобы проверить эти две гипотезы, Эвартсу нужно было разделить эти два аспекта движения. Для этого он просто добавил к стержню противовесы. Как и при установке веса на тренажере в спортзале, добавление различных противовесов к стержню делает движения легчеи ли труднее. Это изменяет количество силы, необходимой для перемещения стержня в одно и то же положение. Теперь можно сравнить скорость стрельбы, когда запястье находится в одном и том же положении, но для этого используются разные силы.

Проанализировав 31 нейрон в моторной коре, с которых велась запись, Эвартс увидел, что 26 из них имеют частоту срабатывания, которая четко связана с силой. Некоторые из них сильно реагировали на сгибание запястья и увеличивали частоту срабатывания при добавлении веса, что затрудняло сгибание (или уменьшали частоту срабатывания при добавлении веса в противоположном направлении, что облегчало сгибание). Другие нейроны предпочитали разгибание, демонстрируя ту же картину, но в противоположном направлении. Оставшиеся пять нейронов было трудно интерпретировать, но ни один из них не проявлял активности, напрямую связанной с положением запястья. Эти результаты убедительно доказывают, что моторная кора кодирует силу.

Работа Эвартса по изучению силы запястья привела в движение длинную траекторию поиска кинетики в двигательной системе. В последующие годы несколько других исследовательских групп искали и находили кинетическую информацию в частоте срабатывания нейронов моторной коры при выполнении животными простых движений. Наследие локализации остается заметным в этом подходе; в конце концов, он направлен на понимание поведения отдельных нейронов и небольших изолированных мышечных движений. Но он объединяет это понимание в более широкую, уже существующую математическую систему кинетики. С этой точки зрения, математика моторной коры может быть найдена в уравнениях любого стандартного учебника физики.

Эвартс основал современный подход к изучению моторной коры. Он предоставил хорошо контролируемый эксперимент для изучения того, как активность отдельного нейрона связана с активностью мышц, и указал на математику, которая может контекстуализировать такие результаты. Однако уже через несколько десятилетий большая часть вклада Эвартса в науку о моторике будет перечеркнута, и в этой области начнется следующая эпоха беспорядков.

* * *

А, двигательная система! К лучшему или худшему, но системные нейробиологи не имеют целостного представления о двигательной функции... У вас все еще есть мускулистые приверженцы, [которые] утверждают, что вся нейронная активность в двигательных структурах, от мозжечка до коры головного мозга, должна каким-то образом объясняться, по умолчанию, ссылкой на эту одну, реальную или виртуальную, мышцу. Конечно, это не имеет никакого смысла... Естественные движения редко, если вообще когда-либо, включают только одну мышцу.

Это слова Апостолоса Георгопулоса, профессора нейронаук из Университета Джона Хопкинса, уроженца Греции. К тому времени, когда он сказал это в 1998 году, Георгопулос уже более 15 лет сотрясал область моторной нейронауки. С Георгопулосом связывают три крупных концептуальных достижения (хотя, конечно, ни одно из них не исходило только от него - в той или иной форме они уже существовали в научной среде), и из этих трех вкладов два остаются центральными для изучения моторной коры по сей день.

Его первый вклад предсказуем из его цитаты: фокус на естественных движениях. Георгопулос обучался у знаменитого нейробиолога Вернона Маунткэсла и находился под сильным влиянием его образа мышления. Маунткэсл придерживался целостного подхода к изучению мозга. Его интересовало, как телесные ощущения представлены на каждом этапе - от тактильных нейронов в коже до использования этой сенсорной информации высшими когнитивными функциями мозга. Георгопулос хотел привнести изучение моторного контроля в великую традицию, заложенную Маунткастлом в сенсорных системах. В этом стремлении Георгопулос понимал, что ему придется отказаться от изучения неподвижных односуставных движений. Чтобы понять, как информация о движении представляется и обрабатывается мозгом, ему нужно было изучать ее в контексте естественных движений, во всей их многомышечной сложности. Для этого он обратился к одному из самых простых и важных движений в репертуаре приматов: дотягиванию.

Чтобы дотянуться до предмета, находящегося перед вами, вы полагаетесь на команду мышц, окружающих суставы руки. Как ни странно, сюда входят мышцы верхней части рук, такие как бицепс и трицепс. Кроме того, здесь задействованы передняя грудная мышца (полоса, проходящая от центра груди к руке), передняя дельтовидная (полоса перед подмышкой) и широчайшая мышца спины, latissimus dorsi, которая тянется от поясницы до подмышки. В зависимости от особенностей выполнения упражнения, могут быть задействованы запястье и пальцы. Это многомышечное движение далеко от экспериментов Эвартса по сгибанию запястья.

Чтобы изучить эту многогранную задачу, Георгопулос обучил обезьян работать на небольшом светящемся столе. Животные держали в руках стержень, подобно тому, как вы держите деревянную ложку при помешивании в большой кастрюле. Этот стержень был подключен к измерительному устройству, и, когда загоралась лампочка, указывающая, куда нужно дотянуться, животные перемещали стержень в это место. Лампочки были расположены по кругу, как цифры на циферблате часов, с радиусом, равным длине игральной карты. Обезьяны всегда возвращались в центр круга, прежде чем дойти до следующего места. Таким образом, при наличии восьми равномерно расположенных лампочек в круге животные совершали движения в восьми различных направлениях. Эта простая установка стала частью традиции изучения "дотягивания до центра" в моторной нейронауке (см. рис. 18).

Рисунок 18

В своем втором исследовании Георгопулос выбрал кинетическую теорию Эвартса и заменил ее своей собственной точкой зрения на то, что представляют собой нейроны в моторной коре.

Эвартс использовал щелчки запястьем, чтобы увидеть, что нейронная активность отражает силу, но некоторые ученые сочли эту связь противоречивой. В частности, во время более сложных движений количество силы, которую производит мышца, меняется по мере того, как меняются суставы и мышцы вокруг нее. Например, при движении плеча меняется физика локтя. Это делает цепочку влияния от нейронной активности до мышечной активности и силы менее интерпретируемой, а кинетическую теорию- менее жизнеспособной. Есть также признаки того, что многие нейроны вообще мало заботятся о силе.

Поэтому Георгопулос изменил точку зрения. Вместо того чтобы спрашивать, что нейроны говорят о мышцах, он спросил, что они говорят о движении. Более чем у трети нейронов в моторной коре он обнаружил очень четкую и простую связь между нейронной активностью и направлением движения руки. Точнее, у этих нейронов было предпочтительное направление. Это означает, что они начинают стрелять сильнее всего, когда животное тянется в этом направлении - скажем, в сторону трех часов, - и их скорость стрельбы падает по мере удаления от этого направления (меньше стрельбы в направлении двух и четырех часов, еще меньше в направлении одного и пяти часов и т. д.). Обнаружение такой "настройки направления" означало, что моторная кора больше заботится о кинематике, чем о кинетике. После "подергиваний против движений" кинетика против кинематики стала следующей большой дискуссией в моторной нейронауке.

Кинематика - это описательные характеристики движения, определяемые без учета сил, которые их порождают. Таким образом, кинематические переменные указывают на желаемый результат для руки, но не на инструкции по его созданию. Переход от модели, в которой моторная кора кодирует кинетику, к модели, в которой она кодирует кинематику, изменяет распределение труда в двигательной системе. Кинетическая переменная, такая как сила, отделяется от фактического уровня мышечной активности, необходимого для ее реализации, всего несколькими небольшими вычислениями - преобразованиями, которые потенциально выполняются нейронами в спинном мозге, - но поскольку кинематические значения определяют только то, где рука должна находиться в пространстве, они представляют собой более сложную задачу для остальной части двигательной системы. Таким образом, на участки, расположенные нижедвигательной коры бремя изменения системы координат: взять набор желаемых местоположений, внешних по отношению к телу, и превратить его в паттерны мышечной активности. Георгопулос стал непреклонным и неустанным защитником этого кинематического подхода к моторной коре на десятилетия вперед.

Последнее изменение, внесенное Георгопулосом, касалось того, как рассматривать данные. Если нейроны настроены на общее направление движения, это означает, что они не участвуют в индивидуальном контроле мышц. Зачем тогда рассматривать нейроны по одному? Вместо этого было бы разумнее рассмотреть, что говорят все нейроны - вся популяция.

Именно это и сделал Георгопулос. Используя имеющуюся у него информацию о настройке направления движения в отдельных клетках, он рассчитал "вектор популяции" - по сути, стрелку, указывающую на направление движения, которое кодирует нейронная популяция. Этот расчет работает, позволяя каждому нейрону голосовать за предпочтительное для него направление движения. Но это не идеальная демократия, потому что не все голоса взвешиваются одинаково. Вместо этого вес голоса нейрона зависит от того, насколько активен нейрон. Так, нейроны, работающие выше среднего уровня, могут сильно смещать вектор популяции в предпочтительном для них направлении. А нейроны, работающие ниже среднего уровня, будут смещать вектор в сторону от предпочтительного для них направления. Таким образом, нейроны коллективно указывают желаемое направление движения. И они делают это более точно, чем это может сделать отдельный нейрон. Георгопулос показал, что, суммируя таким образом вклад каждого нейрона, он может точно определить направление, в котором животное двигает рукой. Такой подход к данным на уровне популяции оказался весьма мощным - возможно, слишком мощным. После этой работы появилось несколько исследований, показывающих другую информацию, которую можно считать из моторной коры, если учитывать всю популяцию: движение пальцев, скорость движения руки, активность мышц, силу, положение и даже сенсорную информацию о визуальных сигналах, указывающих, куда и когда двигаться. Возможно, направление было одной из первоначальных переменных, декодированных таким образом, но далеко не единственной. Обнаружение кинетических и кинематических переменных (а также множества другой информации) в процессе деятельности стало ударом по теории Георгопулоса о том, что кинематика - это нечто особенное. По иронии судьбы, именно один из его собственных вкладов - фокус на популяции - подорвал его.

Вера в то, что информация, считанная из моторной коры, говорит нам о ее работе, еще больше снизилась благодаря использованию вычислительных подходов. Ученые, построившие модели двигательной системы, которые, по их замыслу, должны были работать на основе кодирования кинетических переменных, смогли показать, как из них можно считывать и кинематические переменные. Один из таких ученых - Эберхард Фетц - дошел до того, что сравнил поиск переменных репрезентаций в моторной коре с поведением гадалок: "Подобно чтению чайных листьев, этот подход может быть использован для создания впечатления, путем проецирования концептуальных схем на наводящие на размышления паттерны.

Эти результаты показали возможность, которая всегда таилась под поверхностью: не существует единственного значения, которое "кодируют" нейроны в моторной коре. Это не кинематика или кинетика; это и то, и другое, и третье, и третье. Во многих отношениях этот факт был заметен с самого начала. Его можно было увидеть в нейронах, которые не демонстрировали четких реакций на силу или направление, или в нейронах, которые показывали значительные изменения в своих реакциях при небольших изменениях в эксперименте, или просто в десятилетиях, когда исследователи находили доказательства в пользу то одной, то другой стороны снова и снова.

По некоторым оценкам, эта область сбилась с пути, потому что слепо следовала по пути, проложенному другими учеными: изучение сенсорных систем, которое так вдохновляло Георгопулоса, было плохой моделью для понимания движения. Споры о том, "что кодирует моторная кора?", остались неразрешенными не потому, что вопрос сложный, а потому, что он изначально был задан неправильно. Двигательной системе не нужно отслеживать параметры движения, ей нужно просто производить движения.

Как было показано в предыдущей главе, если ученые видят структуру в нейронной активности, это еще не значит, что мозг ее использует. Распространенная аналогия сравнивает моторную кору с двигателем автомобиля. Двигатель, безусловно, отвечает за движение автомобиля. И если измерить активность различных его частей - поршня, ремней двигателя и т. д. Это вполне вероятно, что некоторые из этих величин при определенных условиях довольно сильно коррелировали бы с силой, создаваемой автомобилем, или с направлением, в котором он поворачивает. Но можно ли сказать, что двигатель работает, "кодируя" эти переменные? Или это скорее условность, привнесенная в моторную кору учеными, которые сами понимают движение через концепции силы, механики и физики? Как написал в 2009 году нейробиолог Джон Каласка: "Суставной момент - это ньютоновский механический параметр, определяющий вращательную силу, необходимую для создания определенного движения в суставе... Маловероятно, что нейрон [моторной коры] знает, что такое Ньютон-метр или как рассчитать, сколько Ньютон-метров необходимо для создания определенного движения".

* * *

То, что вопрос "Что кодирует моторная кора?" был неправильным для понимания моторной коры, не означает, что ответ на него не имеет ценности. Действительно, попытка декодировать информацию из моторной коры может быть весьма полезной - но не для того, чтобы понять моторную систему, а для того, чтобы обойти ее вовсе.

Когда в небольшой комнате недалеко от Провиденса, штат Род-Айленд, 55-летняя женщина по имени Кэти Хатчинсон поднесла чашку с кофе ко рту и сделала глоток, она сделала это впервые за более чем 15 лет. Это также был первый случай, когда подобный подвиг совершил человек с тетраплегией. Хатчинсон стала парализованной от шеи вниз, когда ей было 39 лет, после инсульта, случившегося во время садовых работ в весенний день 1996 года. Согласно интервьюWired, она узнала о BrainGate - исследовательской группе при Университете Брауна, которая изучает возможности использования интерфейсов мозг-компьютер для восстановления подвижности пациентов - от друга, работавшего в больнице. Хатчинсон приняла участие в их клинических испытаниях.

В рамках своего исследования ученые из BrainGate имплантировали в мозг Кэти устройство - квадратный кусок металла размером меньше средней пуговицы рубашки, состоящий из 96 электродов, расположенных в области левой моторной коры головного мозга, контролирующей руки. Активность нейронов, регистрируемая с помощью этих электродов, по проводу выводится из ее головы и поступает в компьютерную систему. Эта машина соединяется с роботизированной рукой, установленной на подставке справа от Кэти. Сама рука выглядит инопланетно - пузатая, неуклюжая и блестящая, синяя, - но кисть на ее конце более узнаваема, с тонкими детализированными суставами матового серебристого цвета. Когда Кэти управляет ею, движения не отличаются плавностью. Рука замирает и движется назад, прежде чем в конце концов поднести кофе к ней. Но в конце концов она выполняет свою работу - и женщина, потерявшая способность двигать своими собственными конечностями, обрела способность двигать этой.

Даже этот простой и несовершенный контроль не пришел сразу. Чтобы машина научилась слушать моторную кору головного мозга Кэти, ее нужно было обучить. BrainGate добился этого, заставив Кэти представить, как она двигает рукой в разных направлениях. Затем паттерны нейронной активности можно соотнести с командами двигать рукой в разных направлениях. Таким образом, управление этим интерфейсом мозг-компьютер зависит от наличия настройки направления в моторной коре. Иными словами, если бы не было возможности считывать направление движения - и другие намерения, такие как схватить или отпустить - с популяции клеток моторной коры, интерфейсы мозг-компьютер не работали бы.

Эти устройства также зависят от множества тяжелых математических механизмов, которые работают за кулисами. В BrainGate используется алгоритм, который комбинирует данные о нейронной активности с информацией о направлении движения в прошлом. Кроме того, некоторые из тонких движений руки и запястья робота заранее запрограммированы в устройстве, так что пользователь может запустить полную, подробную двигательную последовательность, представив себе простую команду. Это практический выход из ситуации, когда сложно считать подробные двигательные команды из активности группы нейронов.

Такие кропотливые усилия по созданию моторных устройств, управляемых мозгом, хотя и дают некоторую надежду пациентам, подчеркивают, насколько мало мы понимаем роль моторной коры в здоровом движении.

* * *

Если декодирование более полезно для инженерии, чем понимание, то что мы можем использовать, чтобы разобраться с моторной корой?

Фокусировка на популяции остается популярной - и не без оснований. Нейроны моторной коры должны в какой-то степени работать вместе, чтобы генерировать движения; в конце концов, моторной коре человека отведены сотни миллионов нейронов для управления примерно 800 мышцами человеческого тела. Но это ставит ученых перед проблемой: как разобраться в активности сотен нейронов, которые обычно регистрируются в ходе эксперимента? В популяционно-векторном подходе, использованном Георгопулосом, были заложены убеждения о том, что делают нейроны: если нейроны кодируют направление, то направление и будет считываться. Но когда неврологи, изучающие двигательную активность, попытались перейти от вопроса о том, что кодирует моторная кора, к вопросу о том, чтоделает моторная кора, подходы, основанные на считывании конкретной информации, потеряли смысл. Им нужно было найти новый способ взглянуть на популяцию.

Фундаментальное различие между подходом к изучению моторной коры на основе одного нейрона и популяции заключается в размерности. В то время как пространство, в котором мы живем, трехмерно, многие системы, которые изучают ученые, имеют гораздо более высокую размерность. Например, активность популяции из 100 нейронов будет 100-мерной.

Как это абстрактное, высокоразмерное "нейронное пространство" соотносится с реальным, осязаемым, физическим пространством, может быть трудно понять. Но мы можем отталкиваться от наших интуитивных представлений о физическом пространстве, рассмотрев сначала популяцию, состоящую всего из трех нейронов. В частности, заменив метры или футы на количество спайков, испускаемых нейроном, можно описать активность этой популяции точно так же, как местоположение в пространстве. Например, при выполнении движения первый нейрон в популяции может выпустить пять шипиков, второй - пятнадцать, а третий - девять. Это дает координаты в нейронном пространстве, подобно тому как карта сокровищ описывает, сколько шагов нужно пройти вперед, потом направо, потом как глубоко копать. Иной паттерн нейронной активности будет указывать на другое место в нейронном пространстве. Изучая нейронную активность моторной коры при выполнении различных движений, ученые могут задать вопрос, соответствуют ли различные места в этом пространстве различным типам или компонентам движения.

Визуализация этой деятельности, однако, становится сложной для более широких слоев населения. Человеку, живущему в трехмерном мире , сложно мыслить шире. Как бы выглядело нейронное пространство, если бы к популяции добавился четвертый нейрон? А если бы нейронов было сто или тысяча? Здесь наши интуитивные представления рассыпаются. Компьютерный ученый Джеффри Хинтон предлагает лучший совет для решения этой проблемы: "Чтобы разобраться с гиперплоскостями в четырнадцатимерном пространстве, визуализируйте трехмерное пространство и очень громко скажите себе "четырнадцать"".

К счастью, существует другой способ решения проблемы слишком большого количества измерений: уменьшение размерности. Снижение размерности - это математическая техника, которая позволяет получить информацию в высокоразмерном пространстве и представить ее с помощью меньшего количества измерений. Она основана на предположении, что некоторые из этих исходных измерений являются избыточными - в данном случае это означает, что несколько нейронов говорят одно и то же. Если бы вы смогли выяснить, какие паттерны нейронной активности в 100-мерной популяции являются фундаментальными для этой популяции, а какие - просто переработанными комбинациями этих фундаментальных паттернов, вы могли бы объяснить эту нейронную популяцию с помощью меньшего количества измерений, чем 100.

Рассмотрим личность. Сколько существует измерений человеческой личности? В английском языке есть головокружительный список возможных описаний: покладистый, гибкий, самокритичный, добрый, прощающий, творческий, харизматичный, спокойный, умный, дисциплинированный, агрессивный, дотошный, серьезный, умный и так далее, и так далее, и так далее. Каждую из этих черт можно рассматривать как отдельное измерение, и каждый человек описывается местом в этом высокоразмерном пространстве личности в зависимости от того, какие баллы он набрал по ним. Но есть некоторые черты личности, которые, похоже, коррелируют между собой. "Умные" люди могут также часто считаться "быстро соображающими". Возможно, было бы правильнее рассматривать сообразительность и быстроту мышления как два показателя одной и той же базовой черты - возможно, мы назовем ее "интеллектом". Если это так, то два измерения, представляющие сообразительность и быстроту мышления в этом пространстве, можно заменить одним для интеллекта. Это уменьшит размерность. Если есть только случайные люди, которые умны, но не быстро соображают, или быстро соображают, но не умны, то это сокращение не принесет больших жертв. Для подавляющего большинства людей описание их по одному только интеллекту скажет нам все, что мы должны знать об этих аспектах их личности.

Действительно, большинство популярных тестов личности основаны на предпосылке, что всего несколько основных черт могут объяснить все человеческое разнообразие. Например, знаменитый тест Майерс-Бриггс утверждает, что личность имеет всего четыре оси: интуиция против чувствительности, чувства против мышления, интроверсия против экстраверсии и восприятие против суждения. Более научно обоснованный подход (известный как "Большая пятерка") определяет размерность личности по пяти осям: согласованность, невротизм, экстраверсия, добросовестность и открытость. Эти факторы называют "латентными", поскольку их можно рассматривать как основные базовые черты, которые порождают множество различных стилей личности, которые мы наблюдаем.

Исторически сложившаяся в нейронауке традиция рассматривать каждый нейрон как снежинку - уникальную и достойную индивидуального анализа - предполагает, что они в каком-то смысле являются базовой единицей мозга. То есть предполагается, что природа упаковала соответствующие измерения в аккуратную клеточную форму. Но точно так же, как наши народные представления о личности преувеличивают ее размерность, существует множество причин, по которым "истинная" размерность нейронной популяции, скорее всего, меньше, чем количество нейронов в ней. Например, избыточность - разумное свойство, которое должно присутствовать в любой биологической системе. Нейроны шумят и могут погибнуть, поэтому система с избыточными нейронами более надежна. Кроме того, нейроны, как правило, сильно взаимосвязаны. Вряд ли какой-либо из них может оставаться независимым, поскольку все они переговариваются друг с другом. Вместо этого их активность становится коррелированной, подобно тому, как сближаются мнения людей, принадлежащих к одному социальному кругу. По этим причинам нейронные популяции как нельзя лучше подходят для применения методов снижения размерности, которые помогут выявить скрытые факторы, действительно движущие ими.

Популярным методом снижения размерности нейронных данных является анализ главных компонент, или PCA (см. рис. 19). PCA был изобретен в 1930-х годах и широко использовался психологами для анализа психических свойств и способностей. Благодаря своей полезности для осмысления больших наборов данных он теперь применяется для всех видов данных во многих областях.

PCA работает за счет фокусировки на дисперсии. Дисперсия означает, насколько разбросаны различные точки данных. Например, если в течение трех ночей человек спит 8 часов, 8 часов и 5 минут и 7 часов и 55 минут, то он относится к категории людей с низкой дисперсией. Человек с высокой дисперсией сна тоже может спать в среднем 8 часов, но распределять их по трем ночам будет совсем по-другому - скажем, 6 часов, 10 часов и 8 часов.


Показатели с высокой дисперсией важны, потому что они могут быть весьма информативны. Например, легче определить эмоциональное состояние человека, который иногда молчит, а иногда кричит, чем стоика, у которого всегда одно и то же прямое лицо. Точно так же легче классифицировать людей по чертам, которые сильно различаются между собой, а не по тем, которые у всех общие. Признавая важность дисперсии, цель PCA - найти новые измерения, которые являются комбинацией исходных измерений, подобно тому как интеллект может быть комбинацией сообразительности и быстроты мышления, и которые отражают как можно большую дисперсию в данных. Это означает, что, зная, куда попадает точка данных в соответствии с этими новыми измерениями, мы сможем многое о ней узнать, даже если их будет меньше.

Например, рассмотрим популяцию из двух нейронов, активность которых мы хотели бы описать одним числом. Допустим, мы регистрировали активность этих двух нейронов во время различных движений, поэтому для каждого движения у нас есть пара чисел, представляющих количество спайков от каждого из них. Если мы построим график этих пар, используя ось x для одного нейрона и ось y для другого, мы увидим, что данные падают более или менее вдоль линии. Эта линия и будет нашим новым измерением. Теперь, вместо того чтобы описывать активность во время каждого движения как пару чисел, мы можем описать ее как одно число, которое относится к тому, где она падает на этой линии.

Рисунок 19

Уменьшая размерность таким образом, мы теряем часть информации. Мы не знаем, например, как далеко активность находится от этой линии, если мы только описываем, где она падает на нее - но смысл в том, чтобы выбрать линию, которая захватывает наибольшую дисперсию и, таким образом,теряет наименьшую информацию.

Если данные не ложатся вдоль линии - то есть активность двух нейронов совсем не похожа, - то это не очень хорошо работает. В этом случае мы бы сказали, что эта двумерная нейронная популяция действительно использует все свои два измерения и поэтому не может быть уменьшена. Но, как уже говорилось ранее, существует множество причин, по которым в среднем некоторая нейронная активность является избыточной и поэтому сокращение размерности возможно.

Редукция размерности успешно применяется ко всем видам нейронных данных на протяжении многих лет. Сам метод PCA был применен еще в 1978 году, когда с его помощью было показано, что активность восьми нейронов, отвечающих за кодирование положения колена, может быть хорошо представлена всего одним или двумя измерениями. А в последнее десятилетие использование PCA в исследованиях моторной коры только расширяется. Это связано с тем, что снижение размерности помогает ученым-мотористам увидеть то, что иначе было бы скрыто. Если свести подъемы и спады активности более сотни нейронов в одну линию, то их закономерности станут видны невооруженным глазом. Взгляд на эволюцию активности популяции как на форму, прорисованную в трех измерениях, позволяет ученым использовать свои интуитивные представления о пространстве , чтобы понять, что делают нейроны. Таким образом, наблюдение за этими траекториями может зародить новые истории о том, как работает двигательная система.

Например, в начале 2010-х годов в лаборатории Кришны Шеноя в Стэнфордском университете изучали, как моторная кора готовится к движениям. Для этого обезьян обучали выполнять стандартные движения руками, но вводили задержку между моментом, когда давалось указание на движение, и моментом, когда животное должно было начать движение. Это позволило записывать данные из моторной коры, пока она готовилась к движению.

Долгое время считалось, что при подготовке к движениям нейроны моторной коры головного мозга будут работать по схеме, аналогичной той, что они работают во время движения, только с меньшей общей частотой. То есть, по сути, они говорят то же самое, но тише. В пространстве нейронной активности это означало бы, что подготовительная активность идет в том же направлении, что и двигательная активность, но просто не так далеко. Однако, построив низкоразмерную версию нейронной активности, когда животное планировало, а затем выполняло движение, исследователи обнаружили, что это не так. Активность перед движением не была просто сдержанной версией активности во время движения; напротив, она занимала совершенно другую область пространства активности.

Этот вывод, хотя и удивительный, согласуется с более современным взглядом на моторную кору. Этот новый взгляд делает акцент на том, что моторная кора является динамической системой - нейроны в ней взаимодействуют таким образом, что способны создавать сложные паттерны активности с течением времени. Благодаря этим взаимодействиям между нейронами моторная кора способна принимать короткие, простые сигналы и производить ответ сложные и длинные сигналы. Это означает, что другая область мозга может решить, где должна быть рука, послать эту информацию в моторную кору, а моторная кора выработает полную траекторию нейронной активности, необходимую для того, чтобы рука оказалась там.

В этой системе подготовительная активность представляет собой "начальное состояние" этой динамической системы. Начальные состояния определяют местоположение в пространстве активности, с которого начинается популяция, но именно связи между нейронами определяют, куда она движется. Таким образом, начальные состояния немного напоминают входы на различные водные горки на вершине платформы: местоположение входа может иметь мало общего с ходом горки или тем, где она заканчивается. Поэтому нет причин, по которым подготовительная активность должна быть похожа на активность во время движения. Важно лишь, чтобы моторная кора достигла нужного начального состояния, а остальное сделают связи между ее собственными нейронами.

Такой взгляд на "динамические системы" может объяснить, почему попытки понять работу моторной коры были настолько запутанными. Если рассматривать эти нейроны как часть большого механизма, где одни части направляют движения мышц в данный момент, а другие планируют следующий шаг, то разнообразие и изменчивость их реакций становятся более ожидаемыми. Этот новый подход, как ни парадоксально, возвращает область к ее истокам. Модель, в которой простой вход может привести к сложному выходу, хорошо согласуется с выводами Феррье о том, что стимуляция приводит к расширенным натуралистичным движениям.И в начале 2000-х годов Феррьер действительно получил подтверждение, когда профессор Принстона Майкл Грациано показал - с помощью современных методов стимуляции - что полусекундная стимуляция моторной коры вызывает сложные и скоординированные естественные движения, такие как поднесение руки ко рту или изменение выражения лица

* * *

Ученые нередко признаются в том, чего они не знают. В конце концов, наука существует только в пробелах между знаниями, поэтому выявление и признание этих пробелов - важная часть процесса. Но исследователи двигательной системы кажутся особенно экстремальными в своих декларациях о невежестве. Они заполняют абзацы разговорами о "значительных дебатах" в своей области и о том, что "существует удивительно мало согласия относительно даже основных свойств реакции моторной коры". Они также быстро признают, что "глубокое понимание функции моторной коры все еще ускользает от нас" и что "остается открытым вопрос о том, как нейронные ответы в моторной коре связаны с движением". А в минуты отчаяния они даже спрашивают: "Почему на этот, казалось бы, простой вопрос так трудно ответить?

Несмотря на то, что эти слова выдержаны в сухом отстраненном академическом стиле, они свидетельствуют о честном признании прискорбной истины: несмотря на то, что моторная кора является одной из самых ранних областей коры головного мозга и одной из первых, где была зарегистрирована активность отдельных нейронов во время поведения, она по-прежнему остается глубоко и упрямо загадочной. Как мы видели, это, конечно, не из-за отсутствия попыток: героическая работа и энергичные дебаты были отмечены в истории этой области - и, конечно, было сделано много шагов вперед. Тем не менее, лишь немногие из основных противоречий были полностью разрешены - за исключением, предположительно, вопроса о том, существует ли моторная кора и что она вообще что-то делает.

 

Глава 9. От структуры к функции.

Теория графов и сетевая нейронаука

В 1931 году, за три года до своей смерти, Сантьяго Рамон-и-Кахаль передал Институту Кахаля в Мадриде коллекцию своих личных вещей. В коллекции были всевозможные научные безделушки: весы, слайды, фотоаппараты, письма, книги, микроскопы, растворы, реактивы. Но самыми примечательными предметами - теми, которые станут почти синонимом имени Кахаля, - были 1907 научных рисунков, которые он создал за свою карьеру.

Большинство этих рисунков представляли собой различные части нервной системы и были получены в результате трудоемкого процесса окрашивания клеток. Для этого использовалось живое животное, которое приносилось в жертву, а его ткани консервировались. Затем кусок мозга извлекался и замачивался в растворе на два дня, высушивался и замачивался в другом растворе - содержащем серебро, которое проникало в клеточные структуры, - еще на два дня. После этого ткань мозга промывали, снова высушивали и разрезали на кусочки, достаточно тонкие, чтобы поместиться на предметном стекле микроскопа. Кахаль рассматривал эти срезы в окуляр микроскопа и зарисовывал то, что видел. Начиная с карандаша, он очерчивал на куске картона каждый уголок формы нейрона, включая толстые тела клеток и тонкие придатки, выходящие из них. Затем он затемнил клетки индийскими чернилами, иногда используя акварель, чтобы добавить текстуру и размерность. В результате получился набор призрачных силуэтов черных паукообразных на бежевом и желтом фоне.1 Точные контуры и конфигурации зависели от животного и нервных волокон, о которых идет речь; на картонных холстах Кахаля изображены более 50 видов и почти 20 различных частей нервной системы.

Эти сотни портретов отражают увлеченность Кахаля строением нервной системы. Он искал просветления в основной единице мозга - нейроне. Он зациклился на том, как они сформированы и как устроены. Сосредоточение на физических основах было для Кахаля путем к пониманию того, как работает мозг. Он считал, что функция может быть найдена в структуре.

И он оказался прав. Кахаль смог установить важные факты о работе мозга, долго и тщательно изучая его строение. Одно из его важных открытий касалось того, как сигналы проходят по нейронам. Наблюдая за различными нейронами в разных органах чувств, Кахаль заметил, что клетки всегда расположены определенным образом. Многочисленные разветвленные дендриты клетки были направлены в ту сторону, откуда поступал сигнал. Длинный одиночный аксон, напротив, направлялся к мозгу. В обонятельной системе, например, нейроны с химическими рецепторами, способными улавливать молекулы запаха, находятся в слизистой оболочке внутри носа. Эти нейроны посылают свои аксоны в мозг и контактируют с дендритами клеток в обонятельной луковице. От этих нейронов отходят аксоны в другие части мозга.

Эта закономерность, которую Кахаль наблюдал снова и снова, наводила на мысль, что сигналы идут от дендритов к аксонам. Дендриты, заключил он, действуют как приемник сигналов для клетки, а аксоны - как отправитель сигналов для следующей клетки. Кахаль был настолько ясен в этом вопросе, что добавлял маленькие стрелки к своим рисункам схем, таких как обонятельная система, указывая предполагаемое направление потока информации. Кахаль, как мы теперь знаем, был абсолютно прав.

Кахаль был одним из отцов-основателей современной нейронауки. Его вера в связь между структурой и функцией вошла в ДНК этой области. Отголоски этой идеи встречаются во всей истории нейронауки. В статье 1989 года Питер Гетинг пишет, что исследователи 1960-х годов даже на основе своих ограниченных данных могли видеть, что "способности сети возникли из соединения простых элементов в сложные сети, таким образом, из связности возникла функция". К исследованиям 1970-х годов, продолжает он, "подходили с несколькими ожиданиями: во-первых, знание о связности объяснит, как работают нейронные сети". Такое отношение сохраняется. Обзор, написанный в 2016 году профессорами Сяо-Цзин Вангом и Генри Кеннеди, заканчивается следующим утверждением: "Установление прочной связи между структурой и функцией необходимо для понимания сложной нейронной динамики".

В мозге структура существует в разных масштабах. Неврологи могут посмотреть, как нейроны соединены между собой: связан ли нейрон A с нейроном B? Можно еще больше увеличить масштаб и спросить, как взаимодействуют небольшие популяции нейронов. Или можно изучить схемы связей в масштабах всего мозга, рассматривая толстые пучки аксонов, соединяющие отдаленные области мозга. Любая из этих структур более высокого уровня может хранить секреты о функциях.

Но чтобы раскрыть эти секреты, нейробиологам нужен способ четко видеть и изучать эти структуры. То, что можно было бы счесть ограничением метода окрашивания, использованного Кахалем, - то, что он окрашивал лишь небольшое количество нейронов за раз, - на самом деле оказалось преимуществом, которое сделало его революционным. Метод, при котором окрашивались бы все нейроны в поле зрения, привел бы к черному беспорядку без видимых структур; в этом случае деревья не были бы видны. Поскольку нейробиологи перешли от изучения структуры отдельных нейронов к более сложному изучению связей, сетей и схем, они могут подвергаться еще большему риску перегруженности данными и отвлечения на неверные детали.

Однако столь необходимый метод был найден в особой области математики - теории графов. Язык теории графов предлагает способ говорить о нейронных сетях, который избавляет от многих деталей. В то же время ее инструменты находят особенности нейронной структуры, которые практически невозможно увидеть без нее. Эти особенности структуры, как считают некоторые ученые, могут натолкнуть их на новые мысли о функциях нервной системы. Поглощенные перспективами методов теории графов, неврологи в настоящее время применяют их ко всему- от развития мозга до болезней. Хотя пыль еще не осела от этого нового подхода к мозгу, его свежий взгляд на старые проблемы волнует многих.

* * *

В столице Восточной Пруссии XVIII века Кенигсберге река, проходя через город, разветвлялась на две части, образуя посередине небольшой остров. Остров соединялся с частями города к северу, югу и востоку от него семью мостами. В какой-то момент у жителей Кенигсберга возник вопрос: существует ли способ передвижения по городу, при котором каждый из мостов пересекается один и только один раз? Когда этот игривый вопрос встретился со знаменитым математиком Леонгардом Эйлером, родилась теория графов.

Эйлер, эрудит, родившийся в Швейцарии, но живший в России, в 1736 году написал работу "Решение задачи о геометрии положения" (Solutio problematis ad geometriam situs pertinentis). В этой работе он дал однозначный ответ на вопрос: кёнигсбержец не может совершить прогулку по своему городу, проходя через каждый мост ровно один раз. Чтобы доказать это, ему пришлось упростить карту города до скелета ее полной структуры и работать с ней логически. Он показал, не используя слово, как превратить данные в граф и как выполнять на нем вычисления (см. рис. 20).

В контексте теории графов слово "граф" не означает график или диаграмму, как это принято в обычном языке. Скорее, граф - это математический объект, состоящий из узлов и ребер (в современном понимании).Узлы - это базовые единицы графа, а ребра представляют связи между ними. В примере с Кенигсбергом мосты служат ребрами, соединяющими четыре различных массива суши - узлы. Степень узла - это количество ребер, которые он имеет; таким образом, "степень" массива суши - это количество мостов, которые к нему подходят.

 

Рисунок 20

Эйлер подошел к вопросу о мостовых переходах, заметив, что путь через город можно записать в виде списка узлов. Если дать каждому массиву земли буквенное имя, то список "ABDC", например, будет представлять собой путь, который идет от острова в центре к земле внизу (через любой мост, соединяющий их), затем от него к массиву земли справа и далее к земле вверху. При таком пути через граф между каждой парой узлов проходит одно ребро. Таким образом, количество пересеченных мостов равно количеству букв в списке минус одна. Например, если вы пересекли два моста, то в вашем списке будет три земельных массива.

Затем Эйлер заметил нечто важное в количестве мостов, которые есть у каждого массива суши. Это число связано с тем, сколько раз этот массив должен появиться в списке путей. Например, у массива земли B есть три моста, а значит, "B" должен дважды появиться в любом пути, который пересекает каждый мост по одному разу - то есть нет способа пересечь эти три моста, не посетив B дважды. То же самое верно и для массивов C и D, поскольку у них тоже по два моста. А вот массив A с пятью мостами должен появиться в списке путей три раза.

Вместе взятые, любой путь, удовлетворяющий этим требованиям, будет состоять из девяти (2+2+2+3) букв. Однако список из девяти букв представляет собой путь, пересекающий восемь мостов. Поэтому невозможно построить путь, который пересекает каждый из семи мостов только один раз.

Используя эту зависимость между степенью узла и количеством раз, которое этот узел должен встретиться на пути, Эйлер вывел ряд общих правил о том, какие пути возможны. Теперь он мог сказать для любого набора мостов, соединяющих любые участки земли, существует ли путь, пересекающий каждый мост только один раз.

Более того, неважно, говорим ли мы вообще о земле и мостах. Та же процедура может быть использована для поиска путей для городского снегоуборщика, который должен очистить каждую улицу только один раз, или для того, чтобы узнать, можно ли обойти Википедию, нажимая на каждую гиперссылку между сайтами только один раз. Эта податливость - часть того, что придает теории графов ее силу. Отбрасывая детали любой конкретной ситуации, она находит структуру, которая похожа на все остальные. Этот абстрактный и чуждый способ взглянуть на проблему может открыть ее для новых и инновационных решений, подобно тому как Эйлеру помогло рассмотрение прогулки по городу как списка писем.

Учитывая эту особенность, теория графов нашла применение во многих областях. Химики XIX века бились над, как изобразить структуру молекул. К 1860-м годам была разработана система, которая используется и по сей день: атомы рисуются в виде букв, а связи между ними - в виде линий. В 1877 году английский математик Джеймс Джозеф Сильвестр увидел в этом графическом представлении молекул параллель с работой потомков Эйлера в математике. Он опубликовал работу, в которой проводил аналогию, и впервые использовал слово "граф" для обозначения этой формы. С тех пор теория графов помогла решить множество проблем в химии. Одно из самых распространенных ее применений - поиск изомеров - наборов молекул, которые состоят из одного и того же типа и количества атомов, но отличаются друг от друга тем, как эти атомы расположены. Поскольку теория графов предоставляет формальный язык для описания структуры атомов в молекуле, она также хорошо подходит для перечисления всех структур, которые возможны при определенном наборе атомов. Алгоритмы, которые это делают, могут помочь в разработке лекарств и других нужных соединений.

Подобно химическим соединениям, структура мозга хорошо поддается отображению в виде графа. В самом базовом варианте нейроны - это узлы, а связи между ними - ребра. В качестве альтернативы узлами могут быть области мозга, а нервные пути, которые их соединяют, - ребрами. Независимо от того, работаете ли вы с микромасштабом нейронов или макромасштабом областей мозга, если рассматривать мозг в терминах теории графов, он становится доступным для всех инструментов анализа, разработанных в этой области. Это способ формализовать неформальный поиск, которым всегда руководствовалась нейронаука. Чтобы говорить о том, как структура рождает функцию, сначала нужно уметь четко говорить о структуре. Теория графов предоставляет такой язык.


Конечно, есть разница между мозгом и прусским городом или химическим соединением. Связи в мозге не всегда являются двусторонними, как на мосту или в связке. Один нейрон может подключиться к другому, не получая ответной связи. Эта однонаправленность нейронных связей важна для того, как информация проходит по нейронным цепям. Самые простые структуры графов не отражают этого, но к концу 1800-х годов в арсенале математических описателей появилось понятие направленных графов. В направленном графе ребра - это стрелки, которые идут только в одну сторону. Таким образом, степень узла в направленном графе делится на две категории: степень вхождения (например, сколько связей получает нейрон) и степень выхода (сколько связей он посылает другим нейронам). Исследование, проведенное на нейронах в коре головного мозга обезьян, показало, что эти два типа степени примерно равны, то есть нейроны отдают столько же, сколько и получают.

В 2018 году математики Кэтрин Моррисон и Карина Курто построили модель нейронной цепи с направленными ребрами, чтобы ответить на вопрос, не слишком похожий на проблему Кёнигсбергского моста. Вместо того чтобы определять, какие прогулки по городу может поддерживать определенный набор мостов, они исследовали, какую последовательность нейронных импульсов может произвести данная схема. Привлекая инструменты из теории графов, Моррисон и Курто выяснили, как рассмотреть структуру из пяти нейронов-моделей и предсказать порядок их срабатывания. Упорядоченный порядок срабатывания нейронов важен для многих функций мозга, включая память и навигацию. Модель из пяти нейронов может быть лишь игрушечным примером, но она прекрасно отражает возможности, которые обещает привнести теория графов в изучение мозга

Однако для реальных мозговых сетей необходимо использовать более "глобальную" перспективу.

* * *

В течение нескольких месяцев в конце 1960-х годов биржевой маклер, живший в Шароне, штат Массачусетс, получил от владельца местного магазина одежды 16 коричневых папок. Как ни странно, папки не стали для биржевого маклера сюрпризом. Просто они были частью неортодоксального социального эксперимента, который проводил известный социальный психолог Стэнли Милгрэм. С помощью этого эксперимента Милгрэм хотел проверить, насколько велик - или мал - мир на самом деле.

Фразу "Мир тесен" обычно произносят, когда встречаются два незнакомых человека и по счастливой случайности обнаруживают, что у них есть общий друг или родственник. Милграм хотел узнать, как часто может происходить подобное: какова вероятность того, что у двух случайно выбранных людей есть общий друг? Или друг друга? Если бы мы могли увидеть всю сеть человеческих связей - граф, где каждый узел - это человек, а каждое ребро - отношения, - каким было бы среднее расстояние между людьми? Сколько ребер нужно пройти, чтобы найти путь между любыми двумя узлами?

В смелой попытке ответить на этот вопрос Милгрэм выбрал целевого человека (в данном случае биржевого маклера из Массачусетса) и несколько стартеров: не связанных между собой людей в другой части страны (в данном случае в основном в Омахе, Небраска). Стартерам вручили пакет с папкой и информацией о целевом человеке. Инструкции были просты: если вы знакомы с объектом, отдайте папку ему; в противном случае отправьте ее своему другу, который, по вашему мнению, имеет больше шансов узнать его. Следующий человек должен был следовать тем же инструкциям, и, надеюсь, в конце концов папка оказывалась у цели. Отправителей также просили вписать свое имя в журнал, который отправлялся вместе с посылкой, чтобы Милгрэм мог проследить путь, пройденный папкой.

Изучив 44 папки, которые попали к биржевому маклеру, Милгрэм обнаружил, что самый короткий путь состоял всего из двух промежуточных людей, а самый длинный - из 10. Медиана составила всего пять человек. Прохождение папки через пять человек между стартером и целью включало в себя шесть передач, и таким образом понятие "шести степеней разделения", уже выдвинутое наблюдательными учеными и социологами, было закреплено2.

Эта концепция просочилась в народное воображение. Однажды в конце 1990-х годов отец спросил аспиранта Дункана Уоттса, понимает ли он, что от президента его отделяет всего шесть рукопожатий. Уоттс, работавший в то время у математика Стивена Строгатца, высказал эту идею, когда они обсуждали, как могут общаться группы сверчков. После этого случайного разговора "маленький мир" превратился из причудливого выражения в математически определенное свойство сети.

В 1998 году Уоттс и Строгац опубликовали работу, в которой изложили, что нужно для того, чтобы граф функционировал как маленький мир. Ключевым компонентом было понятие короткой средней длины пути - идея о том, что любые две вершины разделяет всего несколько шагов. Один из способов получить короткую длину пути - сделать граф сильно взаимосвязанным, то есть таким, в котором каждый узел напрямую соединяется со многими другими. Однако этот трюк явно противоречит тому, что мы знаем о социальных сетях: по данным Милгрэма, у среднего жителя Америки - страны с населением около 200 миллионов человек в то время - было всего около 500 знакомых.

Поэтому Уоттс и Строгац ограничили моделирование сетей редкими связями, но при этом варьировали, как именно выглядят эти связи. Они заметили, что в сети с высокой степенью кластеризации можно иметь малую длину пути. Под кластером понимается подмножество узлов, которые сильно связаны между собой, как члены одной семьи. В таких сетях большинство узлов образуют ребра только с другими узлами в своем кластере, но иногда соединение отправляется на узел в удаленном кластере. Подобно тому, как поезд между двумя городами облегчает взаимодействие между их жителями, эти связи между различными кластерами в сети поддерживают низкую среднюю длину пути.

Выявив эти характеристики в своих моделях, Уоттс и Строгац отправились искать их в реальных данных - и нашли. Система электросетей Соединенных Штатов, превращенная в граф путем рассмотрения любого генератора или подстанции как узла, а линий электропередач как ребер, имеет низкую длину пути и высокую кластеризацию сети малого мира. Граф из актеров с ребрами между любыми парами, которые вместе снимались в кино, - то же самое. И последнее место, где они искали и нашли сеть малого мира, - это мозг.

Если говорить более конкретно, то структура, которую анализировали Уоттс и Строгац, представляла собой нервную систему крошечного круглого червя Caenorhabditis elegans. Игнорируя направленность нейронных связей, Уоттс и Строгац рассматривали любое соединение как ребро, а каждый из 282 нейронов в электрической схеме червя - как узел. Они обнаружили, что любые два нейрона могут быть соединены путем, между которыми в среднем находится всего 2,65 нейрона, и что сеть содержит гораздо больше кластеров, чем можно было бы ожидать, если бы эти 282 нейрона были соединены случайным образом.

Почему нервная система нематоды должна иметь ту же форму, что и социальная сеть человека? Самой главной причиной могут быть энергетические затраты. Нейроны голодны. Им требуется много энергии, чтобы оставаться в рабочем состоянии, и добавление новых или более длинных аксонов и дендритов только увеличивает счет. Таким образом, полностью взаимосвязанный мозг - это непомерно дорогой мозг. Если же связи становятся слишком редкими, то нарушается сама функция мозга - обработка и маршрутизация информации. Необходимо найти баланс между стоимостью проводов и пользой от обмена информацией. Маленькие миры именно так и поступают. В маленьком мире чаще всего встречаются относительно дешевые связи между клетками в локальном кластере. Дорогие связи между отдаленными нейронами встречаются редко, но их достаточно, чтобы поддерживать обмен информацией. Эволюция, похоже, сочла малый мир разумным решением.

Находка Уоттса и Строгатца, сделанная на круглом черве, впервые позволила описать нервную систему на языке теории графов. Изложение в этих терминах сделало очевидными некоторые ограничения, которые разделяет мозг и другие естественно возникающие сети. Связи могут быть дорогими для поддержания, будь то знакомства или аксоны, и если между круглым червем и социальными сетями есть сходство, то разумно ожидать, что структура других нервных систем также продиктована им.

Но чтобы говорить о строении нервной системы, необходимо знать что-то о строении нервной системы. Как оказалось, сбор этой информации - в лучшем случае неприятность, а в худшем - беспрецедентное техническое препятствие.

* * *

Коннектом" - это граф, описывающий связи в мозге. Хотя Уоттс и Строгац работали с неполной версией, полный коннектома круглого червя определяется полным набором из 302 нейронов червя и 7 286 связей между ними. Круглый червь стал первым животным, у которого был задокументирован полный коннектома взрослого организма, и на данный момент он является единственным.

Недостаток коннектомных данных во многом объясняется изнурительным процессом их сбора. Для составления полной карты коннектома на уровне нейронов необходимо поместить мозг в консервант, разрезать его на листы тоньше пряди волос, сфотографировать каждый из этих листов с помощью микроскопа и ввести эти фотографии в компьютер, который воссоздаст их в виде 3D-стека. Затем ученые проводят десятки тысяч часов, разглядывая эти фотографии, прослеживая отдельные нейроны по изображениями отмечая, где они соприкасаются друг с другом. Процесс обнаружения тонкой структуры нейронных связей таким образом так же кропотлив, как и палеонтологические раскопки. Цена всех этих нарезок, сшиваний и прослеживания делает маловероятным, что полные коннектомы будут доступны для всех видов, кроме самых маленьких. В настоящее время группа ученых собирает коннектомы плодовой мушки - животного с мозгом, размер которого в миллион раз меньше человеческого, - и в процессе собирается миллионы гигабайт данных. И хотя любые два круглых червя более или менее похожи друг на друга, у более сложных видов, как правило, больше индивидуальных различий, что делает коннектомы только одной мухи или млекопитающего всего лишь жеребьевкой из множества возможных коннектомов.

К счастью, существуют более косвенные методы, позволяющие составить приблизительную картину коннектомов у многих особей и видов. Один из подходов предполагает запись с нейрона при одновременной электрической стимуляции других нейронов вокруг него. Если стимуляция одного из близлежащих нейронов достоверно вызывает всплеск в регистрируемом нейроне, то между ними, скорее всего, есть связь. Другой вариант - трасеры: химические вещества, действующие подобно красителям, которые окрашивают нейрон. Чтобы понять, откуда поступают входы или куда идут выходы, достаточно посмотреть, где появляется краситель. Ни один из этих методов не может создать полный коннектома, но они позволяют получить представление о связности в определенной области.


Несмотря на то, что изучение связей проводилось задолго до этого, слово "коннектома" появилось лишь в 2005 году. В своей провидческой статье психолог Олаф Спорнс и его коллеги призвали коллег-ученых помочь в создании коннектома человеческого мозга, пообещав, что это "значительно расширит наше понимание того, как функциональные состояния мозга возникают из лежащего в их основе структурного субстрата". Получение данных о связях у человека - сложнейшая задача, поскольку многие инвазивные методы, используемые на животных, по понятным причинам недопустимы. Однако причуда биологии мозга позволяет найти разумную альтернативу.

Когда мозг устанавливает связи, защита груза имеет ключевое значение. Подобно воде, вытекающей из прохудившегося шланга, электрический сигнал, передаваемый аксоном, рискует исчезнуть. Для коротких аксонов, соединяющих соседние клетки, это не представляет особой проблемы, но аксоны, передающие сигналы из одной области мозга в другую, нуждаются в защите. Поэтому аксоны, идущие на большие расстояния, заворачивают в слои воскового одеяла. Это восковое вещество, называемое миелином, содержит много молекул воды. Магнитно-резонансная томография (та же технология, которая используется для получения снимков опухолей, аневризм и травм головы) позволяет обнаружить движение этих молекул воды - информация, которая используется для реконструкции путей аксонов в мозге. Благодаря этому можно увидеть, какие области мозга связаны друг с другом. После публикации статьи Спорнса был запущен проект Human Connectome Project, целью которого является составление карты мозга с помощью этой техники.

Выявление дальних аксонов таким способом не дает такого коннектома, как методы отслеживания одиночных клеток. Для этого ученым необходимо разбить мозг на грубые и, возможно, произвольные области, поэтому такое описание связности гораздо грубее. Кроме того, измерение молекул воды - не самый лучший способ выявить аксоны между этими областями, что может привести к ошибкам или двусмысленности. Даже Дэвид Ван Эссен, один из ключевых ученых проекта Human Connectome Project, в 2016 году предупредил сообщество нейробиологов о том, что у этого подхода есть серьезные технические ограничения, которые не стоит недооценивать. С другой стороны, это один из единственных способов, с помощью которого мы можем заглянуть в живой человеческий мозг, поэтому стремление продвигать его вполне логично. Как писал ван Эссен: "Будьте оптимистами, но критикуйте наполовину полные и наполовину пустые стаканы".

Несмотря на эти ограничения, нейробиологов начала 2000-х годов вдохновила работа Уоттса и Строгатца, заставившая их взглянуть на свою область через призму теории графов, и они с нетерпением устремили свои взоры на все доступные данные коннектома. Проанализировав их, они увидели маленькие миры во всех направлениях. Например, ретикулярная формация - древняя часть мозга, отвечающая за многие аспекты телесного контроля. Когда в 2006 году была составлена и проанализирована карта этой области на клеточном уровне у кошек, она стала первой нейронной цепью позвоночных, которую подвергли теоретико-графовой обработке. И оказалось, что это маленький мир. В исследованиях связей между областями мозга у крыс и обезьян также всегда обнаруживались короткие пути и множество кластеров. Люди окончательно вошли в клуб маленьких миров в 2007 году, когда исследователи из Швейцарии с помощью магнитно-резонансной томографии разделили мозг на тысячу различных областей - каждая высотой и шириной с лесной орех - и измерили связи между ними.


Универсальные выводы - редкое явление в нейронауке; не обязательно, что принципы, действующие на одном наборе нейронов, проявятся и на другом. Таким образом, вывод, который повторяется у разных видов и в разных масштабах, является удивительным. Как припев песни сирены, он также призывает к дальнейшим исследованиям. То, что малые миры встречаются в стольких местах, заставляет задуматься о том, как они туда попали и какую роль могут играть. Хотя ответы на эти вопросы все еще ищутся, без языка теории графов они не могли бы быть заданы с самого начала.

* * *

10 февраля 2010 года было отменено около 23 процентов всех рейсов, отправлявшихся из Соединенных Штатов. Этот исторически значительный сбой стал результатом снежной бури на северо-востоке страны, которая закрыла несколько аэропортов, включая Рональда Рейгана в Вашингтоне и Кеннеди в Нью-Йорке. Обычно закрытие нескольких аэропортов не приводит к такому значительному снижению уровня путешествий, но это были не просто аэропорты, а узловые центры авиационной сети.

Узлы - это узлы в графе, которые имеют высокую степень, то есть они сильно связаны между собой. Они находятся в хвостах распределения степеней: график, показывающий для каждого значения степени, сколько узлов в сети имеют эту степень (см. Рисунок 21).Для таких графиков, как авиационная сеть или структура серверов, составляющих интернет, этот график начинается с высокого уровня - это означает, что существует множество узлов, имеющих лишь небольшое количество соединений, - и затухает по мере увеличения количества соединений, приводя к длинному, низкому хвосту, который представляет собой небольшое количество узлов с очень высокой степенью, таких как аэропорт Кеннеди. Высокая степень узлов делает их мощными, но также и потенциально уязвимыми. Подобно удалению ключевого камня из каменной арки, целенаправленная атака на один из узлов может привести к разрушению сети.

Рисунок 21

В мозге есть центры. У человека они разбросаны по всем долям. Например, поясная кора, которая изгибается вокруг центра мозга, служит центром; также как и прекунеус, который находится на задней части поясной коры. В исследованиях сна, анестезии и людей в коме активность в этих областях коррелирует с сознанием. Размер другого узла - верхней лобной коры - коррелирует с импульсивностью и вниманием. Поражение четвертого узла, расположенного в теменной коре на боковой стороне мозга, приводит к тому, что пациенты теряют чувство направления. В целом, популяция узлов представляется разнообразной как по расположению, так и по функциям. Связующей нитью между ними, если таковая имеется, является то, насколько сложным является каждый из них. Такие области мозга, как зрительная кора, слуховая кора и обонятельная луковица, - области с четкими и идентифицируемыми функциями, представленными прямо в их названиях, - не попали в список хабов. Узловые области сложны; они получают информацию из множества источников и распространяют ее так же далеко. Их роль интеграторов является очевидным результатом их расположения в архитектуре сети.

Концентраторы, помимо того что интегрируют информацию особым образом, могут также отвечать за установку часов в мозге. В области CA3 (хранилище памяти в гиппокампе, о котором говорилось в главе 4) в первые дни развития после рождения по нейронной популяции прокатываются волны электрической активности. Эти волны обеспечивают правильное распределение активности нейронов и прочности их связей. Нейроны-концентраторы являются вероятными координаторами этой важной синхронизированной активности; они, как правило, начинают стрелять до начала этих волн, и их стимуляция может вызвать волну. Другие исследования даже предполагают роль узловых областей в синхронизации активности всего мозга. Благодаря их высокой степени выраженности, сообщение от узла слышно далеко и широко в сети. Кроме того, узлы в мозге, как правило, сильно связаны друг с другом, и это свойство сети называют "богатым клубом". Такие связи могут гарантировать, что все узлы, посылая свои синхронизирующие сигналы, находятся на одной странице.

Даже то, как развиваются нейроны-концентраторы, указывает на их особое место в мозге. Нейроны, которые в дальнейшем образуют богатый клуб у круглого червя, например, появляются одними из первых по мере роста нервной системы. Всего через восемь часов после оплодотворения яйцеклетки рождаются все эти нейроны-концентраторы; остальная часть нервной системы формируется только через сутки. Точно так же и у людей большая часть базовой структуры концентраторов присутствует в младенческом возрасте.

Если узлы играют столь важную роль в работе мозга, то какую роль они могут играть в его дисфункции? Даниэль Бассетт исследовала этот вопрос в рамках своей обширной карьеры на пересечении сетей и нейронаук.

В начале 2000-х годов, когда методы теории графов только зарождались в области нейронаук, Бассетт была студенткой колледжа, изучавшей физику. В то время для нее, возможно, было неожиданностью услышать, что в будущем известный нейробиолог назовет ее "дуэньей сетевой науки".5 Хотя, учитывая ее воспитание, работа над дипломом физика уже сама по себе была несколько удивительной: Бассет была одной из 11 детей, получивших домашнее образование в религиозной семье, где от женщин ожидали более традиционных ролей. Ее переход к нейронаукам произошел во время защиты докторской диссертации, когда она работала с Эдвардом Буллмором, нейропсихиатром из Кембриджского университета, который был частью первой волны нейробиологов, стремившихся применить теорию графов к мозгу. Одним из первых проектов Бассетт было изучение того, как структура мозга влияет на распространенное и калечащее психическое расстройство - шизофрению.

Шизофрения - это заболевание, характеризующееся галлюцинациями и беспорядочным мышлением. Сравнивая мозглюдей с этим заболеванием и людей без него, Бассетт обнаружил ряд различий в свойствах их сетей, в том числе в узлах. Например, области в лобной коре, которые образуют узлы у здоровых людей, не образуют их у шизофреников. Нарушение работы лобной коры и ее способности подчинять себе и контролировать другие участки мозга может быть связано с галлюцинациями и паранойей, которые вызывает шизофрения. И хотя мозг шизофреника - это все еще маленький мир, средняя длина пути и сила кластеризации выше, чем у здоровых людей, что, по-видимому, усложняет взаимодействие двух разрозненных областей.

Будучи первым исследованием, в котором к этому заболеванию подошли с точки зрения теории графов, эта работа помогла перенести старую идею о "синдромах разрыва связей" в век количественных показателей. Еще в конце XIX века неврологи выдвинули гипотезу о том, что нарушение анатомических связей может приводить к расстройствам мышления. Немецкий врач Карл Вернике, в частности, считал, что высшие когнитивные функции не связаны с какой-то одной областью мозга, а возникают в результате взаимодействия между ними. Как он писал в 1885 году: "Любой высший психический процесс ... основывается на взаимном взаимодействии ... фундаментальных психических элементов, опосредованном посредством их многообразных связей через ассоциативные волокна". Поражение этих "ассоциативных волокон", по его мнению, приведет к нарушению таких сложных функций, как язык, осознание и планирование.

Теперь, когда инструменты теории графов позволили изучить "синдромы разрыва связей", все больше заболеваний такого рода исследуются с помощью современных подходов. Одним из распространенных примеров является болезнь Альцгеймера. При сравнении связности мозга пожилых пациентов с болезнью Альцгеймера с пациентами без этой болезни было обнаружено, что у пациентов с болезнью Альцгеймера длина путей между областями мозга была больше. Спутанность сознания и когнитивные нарушения при болезни Альцгеймера могут быть отчасти результатом нарушения эффективной связи между удаленными друг от друга областями мозга. Подобные изменения в сетевых структурах мозга в меньшей степени наблюдаются при обычном старении.

Открыв в 2013 году собственную лабораторию в Пенсильванском университете, Бассетт перешла от простого наблюдения за структурой мозга в состоянии здоровья и болезни к поиску способов ее использования. Активность сложных сетей бывает трудно предсказать. Слух, переданный другу, может тут же угаснуть или распространиться по всей социальной сети, в зависимости от структуры этой сети и места вашего друга в ней. Эффекты стимуляции или глушения нейронов также трудно предугадать. Лаборатория Бассетта объединяет инженерные инструменты со знаниями о структуре мозговых сетей, чтобы сделать управление нейронной активностью более простым. В частности, модели, основанные на коннектомах всего мозга отдельных людей, были использованы дляопределения того, где именно следует проводить стимуляцию мозга, чтобы добиться желаемого эффекта. Цель состоит в том, чтобы с помощью такого индивидуального лечения взять под контроль такие заболевания, как болезнь Паркинсона и эпилепсия.

Надежда на то, что метрики теории графов могут служить маркерами заболеваний - возможно, даже ранними маркерами, которые могут привести к профилактике, - сделала их весьма популярными в медицинских исследованиях. На сегодняшний день заболеваний мозга, изучаемых с помощью сетевого анализа, - болезнь Альцгеймера, шизофрения, травматическое повреждение мозга, рассеянный склероз, эпилепсия, аутизм и биполярное расстройство. Результаты, однако, оказались неоднозначными. Как было отмечено, техника МРТ, с помощью которой собираются данные, имеет свои проблемы, и в одних исследованиях обнаруживаются признаки болезни, а в других - нет. В общем, когда столько ученых с энтузиазмом ищут различия между больным и здоровым мозгом, некоторые ложноположительные и ошибочные данные обязательно попадут в выводы. Но вне зависимости от того, насколько убедительны результаты, можно с уверенностью сказать, что этот новый набор инструментов уже появился на клинической арене.

* * *

Развивающийся мозг - это извержение. Нейроны с бешеной скоростью вырываются из питомника нейронов, называемого желудочковой зоной, и устремляются во все уголки растущего мозга. Оказавшись там, они начинают устанавливать связи. Эти беспорядочные нейроны образуют друг с другом синапс за синапсом, лихорадочно соединяя клетки вблизи и вдали. На пике строительства синапсов в человеческом мозге - во время третьего триместра беременности - каждую секунду образуется 40 000 таких связей. Развитие - это взрыв генезиса нейронов и синапсов.

Но как только они появляются, многие из этих клеток и связей исчезают. У взрослого человека гораздо меньше нейронов, чем было в утробе матери; до половины нейронов, образовавшихся в процессе развития, погибают. Количество связей, которые устанавливает нейрон в коре головного мозга, достигает максимума примерно на первом году жизни и в дальнейшем сокращается на треть. Таким образом, мозг строится через всплеск и откат, разбухание и сокращение. В процессе развития обрезка нейронов и синапсов происходит безжалостно: выживают только полезные. Синапсы, например, созданы для передачи сигналов между нейронами. Если сигнал не поступает, синапс должен исчезнуть. Из этой суматохи и оборота возникают действующие нейронные цепи. Это все равно что поощрять разрастание кустарника, чтобы потом вырезать из него изящные топиарии.

Именно такой способ построения мозга нашла биология. Но если вы спросите теоретика графов, как создать сеть, он даст прямо противоположный ответ. Например, проектировщик системы общественного транспорта не станет строить кучу вокзалов и автобусных остановок и соединять их между собой, просто чтобы посмотреть, что будет использоваться. Ни одно правительство не одобрит такую трату ресурсов. Скорее, большинство графов строятся снизу вверх. Например, одна из стратегий, которую используют теоретики графов, заключается в том, чтобы сначала построить граф, который, используя как можно меньше ребер, имеет путь между любыми двумя узлами. Это означает, что некоторые пути могут быть довольно длинными, но, наблюдая за тем, какие пути используются чаще всего (пассажиры в поезде или информация, перемещающаяся между серверами в Интернете), проектировщик сети может определить, где было бы полезно добавить короткий путь. Таким образом, сеть становится более эффективной за счет добавления хорошо расположенных ребер.

Однако у мозга нет дизайнера. Нет центрального планировщика, который мог бы посмотреть вниз и сказать: "Похоже, сигналы будут проходить лучше, если вон тот нейрон будет соединен с вот этим". Вот почему мозг нуждается в избыточном воспроизводстве и обрезке. Единственный способ, которым мозг может принимать решения о том, какие связи должны существовать, - это подсчет активности, проходящей через эти связи. Отдельные нейроны и синапсы оснащены сложными молекулярными механизмами, которые измеряют, насколько они используются, и в результате растут или сокращаются. Однако если связь не существует, то и активность по ней измерить невозможно.

Обрезка связей в мозге начинается очень активно, синапсы режутся направо и налево, но со временем она замедляется. В 2015 году ученые из Института Салка и Университета Карнеги-Меллон исследовали, почему такая модель обрезки может быть полезна для мозга. Для этого они смоделировали сети, которые начали зарастать и обрезались по принципу "используй или потеряешь". Важно, что они варьировали скорость обрезки. Они обнаружили, что сети, имитирующие процесс обрезки в мозге (с высокой скоростью обрезки вначале и снижающейся со временем), имеют короткую среднюю длину пути и способны эффективно передавать информацию, даже если некоторые узлы или ребра были удалены. В сетях, где скорость обрезки была постоянной или увеличивалась с течением времени, эта эффективность и устойчивость были не столь высоки. Похоже, что уменьшение скорости обрезки позволяет быстро устранить бесполезные связи, но при этом дает сети достаточно времени для тонкой настройки оставшейся структуры; скульптор, работающий с мрамором, может быстро вырезать основную форму человека, но вырезание мелких деталей тела - это медленный и тщательный процесс. В то время как большинство физических сетей, таких как дороги или телефонные линии, никогда не будут построены на основе обрезки, цифровые сети, которые не имеют затрат, связанных с построением краев - например, сети, образованные беспроводной связью между мобильными устройствами, - могли бы извлечь выгоду из алгоритмов, вдохновленных мозгом.

* * *

Сетевая нейронаука, так называется практика использования теории графов и сетевых наук для изучения структур мозга, - молодое направление. Network Neuroscience, первый академический журнал, посвященный исключительно этому направлению, был впервые опубликован в 2017 году. Новые инструменты для картирования коннектомов в различных масштабах совпали с вычислительной мощностью для анализа все больших и больших массивов данных. В результате мы имеем наэлектризованную среду, в которой каждый день проводится все больше и больше разнообразных исследований структуры.

Однако причину для осторожности можно найти в желудке омара.

Стоматогастральный ганглий - это цепь из 25-30 нейронов, расположенных в кишечнике омаров и других ракообразных. Благодаря своим связям эти нейроны выполняют простую, но крайне важную работу: производят ритмичные мышечные сокращения, которые управляют пищеварением. Ева Мардер, профессор Университета Брандейса в Массачусетсе, потратила полвека на изучение этой горстки нейронов. Мардер родилась и выросла в Нью-Йорке, но образование получила в Массачусетсе, а затем в Калифорнии. Хотя ее докторская работа в Калифорнийском университете в Сан-Диего была посвящена нейронаукам, Мардер всегда проявляла склонность к математике: в начальной школе она пролистала учебники по математике, предназначенные для учеников на два года старше ее. Этот эрудит проникает в ее науку. На протяжении всей своей карьеры она сотрудничала с исследователями из разных областей, в том числе с Ларри Эбботом (упоминавшимся в главе 1), когда он переходил от физики элементарных частиц к известному теоретическому нейробиологу. Сочетая экспериментальную точность с математическим мышлением, Мардер тщательно исследовала работу этой маленькой схемы омара как физически, так и с помощью компьютерного моделирования.

Коннектома стоматогастрального ганглия омара известна с 1980-х годов. 30 нейронов этого ганглия образуют 195 связей и посылают сигналы к мышцам желудка. В своей докторской диссертации Мардер выясняла, какие химические вещества используют эти нейроны для связи. Помимо стандартных нейротрансмиттеров - химических веществ, проходящих через маленькую синаптическую щель между нейроном, который их выделяет, и нейрономихпринимает, - Мардер обнаружила целый ряд нейромодуляторов

Нейромодуляторы - это химические вещества, которые изменяют настройки нейронной цепи. Они могут изменять силу связей между нейронами в большую или меньшую сторону, заставлять нейроны работать чаще, реже или по разным схемам. Нейромодуляторы вызывают эти изменения, цепляясь за рецепторы, встроенные в клеточную мембрану нейрона. Нейромодуляторы примечательны в первую очередь тем, откуда они берутся и как попадают в нейрон. В самом крайнем случае нейромодулятор может высвобождаться из другой части мозга или тела и через кровь добираться до места назначения. В других случаях нейромодулятор высвобождается локально из близлежащих нейронов - но независимо от того, откуда он поступает, нейромодуляторы имеют тенденцию омывать цепь без разбора, затрагивая множество нейронов и синапсов диффузным образом. Если обычная нейротрансмиссия похожа на письмо, отправленное между двумя нейронами, то нейромодуляция - это листовка, разосланная всему сообществу.

В 1990-х годах Мардер вместе с сотрудниками своей лаборатории и лаборатории Майкла Нусбаума, профессора Пенсильванского университета, экспериментировала с нейромодуляторами в цепи стоматогастрального ганглия. Обычно эта цепь вырабатывает устойчивый ритм, когда определенные нейроны в популяции срабатывают примерно раз в секунду. Но когда экспериментаторы ввели в схему нейромодуляторы, это поведение изменилось. Некоторые нейромодуляторы увеличивали ритм: те же нейроны стреляли, но чаще. Активируя нейроны, которые обычно молчали. Нейромодуляторы, вызывающие эти изменения, выделялись из нейронов, которые обычно обеспечивают вход в эту цепь. Это означает, что различные модели выходного сигнала могут возникать естественным образом в течение всей жизни животного. В более искусственных условиях нейромодуляторы, добавленные экспериментаторами, могут вызывать еще более значительные и разнообразные изменения.

Важно отметить, что на протяжении всех этих экспериментов базовая сеть не менялась. Нейроны не добавлялись и не удалялись, не сокращались и не наращивались связи. Заметные изменения в поведении происходили исключительно благодаря небольшому количеству нейромодуляторов в устойчивой структуре.

Масштабные усилия, затраченные на получение коннектома, предполагают определенную отдачу от его наличия, но отдача будет меньше, если связь между структурой и функцией окажется слабее, чем могло показаться. Если нейромодуляторы могут освободить активность нейронов в цепи от строгих ограничений их архитектуры, значит, структура - это не судьба. Возможно, это не вызывало бы такого беспокойства, если бы нейромодуляция была явлением, характерным только для стоматогастрального ганглия. Однако это далеко от истины. Мозг постоянно купается в модулирующих молекулах. У разных видов нейромодуляторы отвечают за все - от сна до обучения, от линьки до еды. Нейромодуляция - это правило, а не исключение.

С помощью математического моделирования схем, которые она изучает, Мардер изучила не только то, как различные формы поведения возникают на основе одной и той же структуры, но и то, как различные структуры могут вызывать одинаковые формы поведения. В частности, у каждого омара схема кишечника имеет несколько иную конфигурацию: связи могут быть построены сильнее или слабее у одного животного по сравнению с другим. Смоделировав 20 миллионов возможных ганглиозных схем, лаборатория Мардера обнаружила, что подавляющее большинство из них не способно создавать нужные ритмы, но некоторые специфические конфигурации - да. Каждый омар, благодаря определенной комбинации генов и развития, находит свой путь к одной из этих функционирующих конфигураций. Эта работа делает важный вывод об индивидуальных мозгах: разнообразие не всегда означает различие. То, что может выглядеть как отклонение от структурной нормы, на самом деле может быть совершенно правильным способом достижения тех же результатов. То, что эти разнообразные структуры создают одни и те же ритмы, добавляет еще один нюанс к взаимосвязи структуры и функции.

Работа Мардер не только показывает ограниченность структуры для понимания функций, но и свидетельствует о ее необходимости. Работа всей ее жизни - и все те открытия, которые она сделала, - построена на основе коннектома. Без этой подробной структурной информации невозможно исследовать взаимосвязь между структурой и функцией. Как писал Мардер в 2012 г.: "Подробные анатомические данные бесценны. Ни одна схема не может быть полностью понята без диаграммы связей". Однако далее она отмечает, что "диаграмма связности - это только необходимое начало, но не ответ на вопрос". Другими словами, когда речь идет о понимании мозга, знание структуры нервной системы одновременно и совершенно необходимо, и совершенно недостаточно.


Таким образом, возможно, не удастся воплотить в жизнь идею Кахаля об интуитивном понимании функций нервной системы на основе одних лишь размышлений о ее структуре. Но работа по поиску и формализации этой структуры по-прежнему является важной предпосылкой для дальнейшего понимания мозга. Инновационные методы сбора данных о коннектоме расцветают, а формализмы теории графов готовы принять и переварить эти данные.

 

Глава 10. Принятие рациональных решений.

Вероятность и правило Байеса

 

Когда Герман фон Гельмгольц был маленьким ребенком в Пруссии начала XIX века, он гулял с матерью по своему родному городу Потсдаму. Проходя мимо стойки с маленькими куклами, выстроенными в ряд, он попросил ее протянуть руку и взять одну для него. Однако его мать не согласилась, но не из-за пренебрежения или недисциплинированности. Скорее, она не могла дотянуться до кукол, потому что их не было. То, что переживал юный Гельмгольц, было иллюзией; "куклы", которых он видел рядом с собой, на самом деле были людьми, находящимися далеко, на вершине городской церковной башни. "Эти обстоятельства запечатлелись в моей памяти, - писал позже Гельмгольц, - потому что именно благодаря этой ошибке я научился понимать закон ракурса в перспективе".

Гельмгольц стал выдающимся врачом, физиологом и физиком. Одним из его величайших вкладов стала разработка офтальмоскопа - инструмента для осмотра глаза, который используется врачами и по сей день. Он также углубил понимание цветового зрения, разработав "трихроматическую теорию" - идею о том, что три различных типа клеток в глазу реагируют на разные длины волн света, - благодаря которой он пришел к выводу, что у пациентов с дальтонизмом должен отсутствовать один из этих типов клеток. За пределами глаз Гельмгольц опубликовал том об акустике - восприятии тонов, о том, как звук проходит через ухо и как он возбуждает нервы. Обратившись со свойственной ему вдумчивостью и точностью к изучению органов чувств, Гельмгольц неоднократно освещал физические механизмы, с помощью которых информация из окружающего мира поступает в сознание.

Но более глубокий вопрос о том, как разум использует эту информацию, всегда не давал ему покоя. Унаследовав от отца интерес к философии, Гельмгольц сформировал свое мировоззрение под влиянием работ немецкого философа Иммануила Канта. В философии Канта "Ding an sich", или "вещь в себе", относится к реальным объектам в мире - объектам, которые нельзя ощутить непосредственно, а только через впечатления, которые они производят на наши органы чувств. Но если два разных объекта в мире - например, близкая кукла или далекий человек - могут создавать одинаковую картину света, попадающего в глаз, как разум решает, какой из них правильно воспринимать? Как, хотел узнать Гельмгольц, может формироваться восприятие из двусмысленных или неопределенных сигналов?

Размышляя над этим вопросом, Гельмгольц пришел к выводу, что между моментом поступления сенсорной информации и моментом ее превращения в осознанное переживание должно пройти большое количество времени. Результат этой обработки, писал он, "эквивалентен заключению в той мере, в какой наблюдаемое действие на наши органы чувств позволяет нам сформировать представление о возможной причине этого действия". Эта идея стала известна как "бессознательное умозаключение", поскольку об объектах в мире можно судить по их воздействию на органы чувств. Вдохновляясь Кантом, Гельмгольц предложил, чтобы это умозаключение происходило путем интерпретации текущего сенсорного сигнала в свете ранее существовавших знаний о мире. В частности, подобно тому, как ошибка с куклами научила его видеть перспективу, Гельмгольц считал, что опыт прошлого может влиять на восприятие в настоящем1.

Несмотря на то, что Гельмгольц был одним из самых математически подкованных физиологов всех времен, он так и не дал математического определения бессознательному умозаключению. Его идеи на эту тему, хотя и были основательными, оставались качественными и в основном умозрительными. Они также были отвергнуты. Ученые того времени считали, что понятие "бессознательное умозаключение" является противоречием в терминах. Умозаключение, или принятие решений, по умолчанию является сознательным процессом; оно просто не может происходить на поверхности.

Но спустя почти 100 лет после смерти Гельмгольца психологи, использующие математику, разработанную более чем за 50 лет до его рождения, подтвердили свою правоту. Бессознательное умозаключение, облаченное в уравнения вероятности, стало воплощением основных механизмов восприятия, принятия решений и действий человека.

* * *

Нередко математические темы - даже самые абстрактные - берут свое начало в очень практичных профессиях. Инструменты геометрии возникли благодаря строительству и землеустройству; древние астрономы способствовали тому, что понятие нуля стало общепринятым; а область вероятности родилась из азартных игр.


Джироламо Кардано был итальянским врачом, но, в отличие от многих образованных людей XVI века, он с удовольствием занимался самыми разными предметами. По его собственным подсчетам, он написал более сотни книг - большинство из них утрачены временем - с такими разными названиями, как "О семи планетах", "О бессмертии души" и "О моче". По поводу одной из своих книг, которая останется для потомков, Кардано писал: "Книгу "Об азартных играх" я тоже написал; почему бы человеку, который является азартным игроком, копателем и в то же время автором, не написать книгу об азартных играх?". И Кардано был азартным игроком; книга больше похожа на руководство по азартным играм, основанное на личном опыте, чем на учебник. Тем не менее для своего времени это было самое подробное изложение правил вероятности.

Кардано посвящает большую часть своей математики бросанию игральных костей. Он быстро признает, что вероятность выпадения любой из шести сторон кости не меньше, чем у других, но на практике они не всегда будут выпадать одинаково: "При шести бросках каждая точка должна выпасть один раз; но поскольку некоторые из них повторяются, из этого следует, что другие не выпадут". Рассмотрев примеры того, чего можно ожидать при бросании одной, двух или трех костей, он заключает: "Есть одно общее правило, а именно: мы должны рассмотреть всю схему, число тех бросков, которые представляют, сколькими способами может произойти благоприятный результат, и сравнить это число с остальной частью схемы". Другими словами, вероятность того, что произойдет определенный результат, можно рассчитать как количество исходов, которые приведут к этому результату, деленное на общее количество возможных исходов.


Возьмем, к примеру, бросание двух игральных костей. Если при бросании одной кости есть шесть возможных исходов, то при бросании двух костей есть 6 x 6 = 36 возможных исходов. Если мы скажем, что наш желаемый результат состоит в том, чтобы после бросания двух костей их грани в сумме равнялись трем, то существует два возможных исхода, которые приведут к этому результату: 1) первая кость покажет единицу, а вторая - два; или 2) первая кость покажет два, а вторая - единицу. Таким образом, вероятность того, что мы получим желаемый результат, равна 2/36 или 1/18.

По словам Кардано, "азартные игры - это не что иное, как мошенничество, числа и удача". Поэтому, помимо обсуждения чисел, он постарался посвятить более двух глав теме мошенничества. В основном речь шла о том, как заметить мошенника: "Кость может быть нечестной либо потому, что она закруглена, либо потому, что она слишком узкая (недостаток, который хорошо виден)". В книге также давались советы, как справиться с шулером, если вы его заметили: "Если вы подозреваете мошенничество, играйте на маленькие ставки, приглашайте зрителей". Хотя стоит отметить, что автобиография Кардано предлагает совсем другой взгляд на реакцию. В главе под названием "Опасности, несчастные случаи и постоянные предательства" он вспоминает случай, когда заметил, что карты человека помечены, и "я порывисто, хотя и неглубоко, ударил его по лицу своим понтиардом".

Важно отметить, что Кардано ясно дал понять, что большинство его расчетов вероятностей справедливы только в том случае, если используемые кости были честными, а не если он играл "в доме профессионального шулера" (как он описал инцидент выше). В этом случае вероятности нужно было бы "сделать настолько больше или меньше, насколько это соответствует отклонению от истинного равенства".


Учет различных вероятностей при различных условиях - например, если игрок жульничает - впоследствии стал известен как условная вероятность. Условную вероятность можно представить как простое утверждение "если - то". Если вам известно, что X истинно, то какова вероятность того, что Y тоже истинно? Например, учитывая, что кубик честный, вероятность того, что при броске выпадет двойка, равна 1/6. В противном случае вероятность будет равна, скажем, 1/3, если вы играете с шулером, который изменил кубик так, чтобы он предпочитал двойки. Таким образом, вероятность события зависит от обстоятельств, которыми оно обусловлено.

Одной из тем, которая ставила математиков в тупик на протяжении столетий после Кардано, был вопрос об обратной вероятности. Стандартная вероятность может сказать, как разные кости создают разные шансы, но цель обратной вероятности заключалась в том, чтобы пойти другим путем - обратить рассуждения и найти причину, стоящую за следствиями.2 Например, если Кардано не знал, участвует ли он в игре с шулером или нет, он мог наблюдать за бросками кости, чтобы попытаться определить, была ли она предвзятой. Если выпадало слишком много двоек, он мог заподозрить неладное (хотя, надеюсь, держал бы свою пинаду при себе).

Французский математик Пьер-Симон Лаплас работал над проблемой обратной вероятности с перерывами на протяжении 40 лет своей карьеры. Кульминация наступила в 1812 году, когда была опубликована "Аналитическая теория вероятностей". Здесь Лаплас демонстрирует простое правило, которое впоследствии станет одним из самых важных и влиятельных открытий в математике

Правило гласит, что если вы хотите узнать вероятность того, что кубик взвешен, вам нужно объединить два разных понятия. Первое - это вероятность того, что броски, которые вы видели, могли быть сделаны взвешенным кубиком, а второе - вероятность того, что кубик вообще взвешен. Более технически это обычно выражается так: вероятность вашей гипотезы ("кубик взвешен") с учетом ваших доказательств (бросков, которые вы видели) пропорциональна вероятности ваших доказательств с учетом вашей гипотезы (вероятность того, что вы увидите эти броски, если кубик взвешен), умноженной на вероятность вашей гипотезы (насколько вероятно, что кубик взвешен изначально) (см. Рисунок 22).

Допустим, три раза подряд на кубике выпало "два", и вы хотите узнать, не хотят ли вас подвезти. Если кубик честный, то вероятность такой полосы равна 1/6 x 1/6 x 1/6 = 1/216. Это можно назвать вероятностью доказательства, если верить, что кубик честный. С другой стороны, кубик может быть взвешен так, чтобы бросать двойку, скажем, в одной трети случаев. Вероятность доказательства при гипотезе, что кубик взвешен таким образом, будет равна 1/3 x 1/3 x 1/3 = 1/27. Сравнивая эти числа, становится ясно, что вероятность выпадения трех двоек подряд на взвешенном кубике гораздо выше, чем на честном; похоже, вы играете с шулером.

Но этих цифр недостаточно. Чтобы сделать правильный вывод, согласно правилу, нам нужно объединить их с дополнительной информацией. В частности, нужно умножить эти числа на общую вероятность того, что кубик будет взвешен или нет.

Допустим, в этом случае ваш партнер по азартным играм - ваш самый близкий друг с многолетним стажем. Вы бы оценили вероятность того, что он использует взвешенный кубик, как 1 к 100. Умножив вероятность выпадения трех двоек при использовании взвешенного кубика на низкую вероятность того, что кубик взвешен, мы получим 1/27 x 1/100 = 1/2 700 или 0,00037. Проделав это для другой гипотезы - о том, что кубик невзвешенный, - мы получим 1/216 x 99/100 = 0,0045. Если второе число больше первого, то вы справедливо заключите, что ваш друг на самом деле не мошенник.

Этот пример демонстрирует силу предварительной оценки. Приор" - это название вероятности гипотезы, в данном случае вероятности того, что ваш друг подменил кубик. Если выполнить те же уравнения, но предположить, что вы играете с незнакомцем, который с такой же вероятностью может обмануть, как и нет (то есть вероятность обмана равна 0,5), результат будет другим: 0,019 против 0,0023 в пользу взвешенного кубика. Таким образом, сильная предварительная оценка может стать решающим фактором.

Другой термин - вероятность рулонов с учетом гипотезы - называется "вероятностью". Она показывает, насколько вероятно, что вы увидите то, что увидели, если ваша гипотезао мире окажется верной. Его роль в обратной вероятности отражает тот факт, что для определения причины любого следствия необходимо сначала узнать вероятные следствия каждой причины.

И вероятность, и предшествующее значение сами по себе неполны. Они представляют собой разные источники знаний: доказательства, которые вы имеете здесь и сейчас, и понимание, накопленное со временем. Когда они согласны, результат прост. В противном случае они оказывают свое влияние пропорционально своей уверенности. При отсутствии четких предварительных знаний вероятность доминирует над решением. Когда влияние предшественника сильно, он может заставить вас не верить собственным глазам. При наличии сильного предшествующего фактора в экстраординарные утверждения можно поверить только при наличии экстраординарных доказательств.

"Когда вы слышите стук копыт, думайте о лошадях, а не о зебрах" - этот совет часто дают студентам-медикам. Он призван напомнить им, что из двух заболеваний со схожими симптомами первым следует предположить более распространенное. Это также отличный пример правила обратной вероятности в действии. Независимо от того, находитесь ли вы в присутствии лошади или зебры, у вас одинаковые шансы услышать стук копыт; говоря техническим языком, вероятность в этих двух случаях одинакова. При таких неоднозначных данных решение принимается на основе предварительных знаний, и в данном случае предварительные знания говорят, что лошади встречаются чаще, а значит, это лучшее предположение.

Рисунок 22

За 200 лет, прошедших с момента публикации его работы, в газетах, учебниках и на классных досках уравнение для обратной вероятности, которое записал Лаплас, стало называться "правилом Байеса". Томас Байес был пресвитерианским священником в Англии XVIII века. Будучи также математиком-любителем, Байес проделал работу над проблемой обратной вероятности и смог решить ее конкретную версию. Но все его размышления и вычисления так и не привели его к той форме правила Байеса, которую мы знаем сегодня. Более того, сам Байес так и не опубликовал эту работу. Эссе, содержащее его мысли о "проблеме в учении о шансах", было в конце концов отправлено в Королевское общество его другом, другим священником по имени Ричард Прайс, в 1763 году, через два года после смерти Байеса. Прайс приложил значительные усилия, чтобы превратить заметки Байеса в полноценное эссе; он написал введение, мотивирующее проблему, и добавил обширное техническое приложение (к сожалению, все эти усилия не помешали назвать эссе "одной из самых трудных для чтения работ в истории статистики"). Несмотря на то что Лаплас был жив во время публикации эссе Байеса, он, похоже, узнал о нем только после того, как сам добился значительного прогресса.

 

Можно сказать, что преподобный Байес не вполне заслужил посмертно подаренную ему империю. Не факт, что он вообще хотел бы ее получить. Правило Байеса не всегда пользовалось успехом среди ученых и философов. Подобно работе Гельмгольца о бессознательном умозаключении, это уравнение в разной степени недоиспользовалось и неправильно понималось. Изначально это было связано с трудностью его применения. Сам Лаплас смог использовать это правило для решения некоторых задач по измерению в астрономии, а также для поддержки давней гипотезы о том, что в среднем рождается чуть больше детей мужского пола, чем женского. Однако, в зависимости от задачи, применение правила Байеса могло включать в себя сложные вычисления, что делало этот подход обременительным до появления современных компьютеров.

Но настоящая борьба за правило Байеса началась позже - и была более глубокой. В то время как достоверность уравнения Лапласа не вызывала сомнений, вопрос о том, как интерпретировать это уравнение, занимал и разделял статистиков на протяжении десятилетий. По словам философа науки Дональда Гиллиса: "Спор между байесовцами и антибайесовцами был одним из главных интеллектуальных противоречий двадцатого века". Самой большой мишенью в прицеле антибайесовцев был предшественник. Откуда, - хотели они знать, - берется эта информация? Теоретически, это мировое знание. На практике - это чьи-то знания. Как сказал гигант статистики двадцатого века Рональд Фишер, предположения, которые используются при выборе предшественника, "совершенно произвольны, и не было предложено ни одного метода, с помощью которого такие предположения могли бы быть сделаны даже с последовательной уникальностью". Не предоставляя беспристрастной, повторяемой процедуры для получения заключения, правило Байеса не было правилом вообще. Из-за этого метод был отброшен в сторону и заклеймен - так, чтобы наверняка отпугнуть серьезных ученых, - как "субъективный".

Однако концептуальные проблемы имеют обыкновение меркнуть, когда их выставляют на свет практических доказательств. И во второй половине двадцатого века правило Байеса доказало свою состоятельность. Актуарии, например, осознали, что их ставки лучше рассчитывать, используя принципы обратной вероятности. В эпидемиологии Байес помог разобраться между курением и раком легких. А в борьбе с нацистами специалист по взлому кодов Алан Тьюринг использовал принципы Байеса, чтобы раскрыть сообщения, записанные с помощью "несокрушимой" машины Enigma. Правило Байеса становилось укротителем неопределенности везде, где она появлялась. С практической точки зрения, предварительная оценка представляла собой лишь небольшую проблему. Его можно инициализировать с помощью обоснованной догадки и обновлять в свете новых доказательств (или, при отсутствии каких-либо знаний вообще, каждой гипотезе просто дается равный шанс). Благодаря своему постоянному успеху, несмотря на активное движение против него, правило Байеса, безусловно, заслуживает титула, присвоенного ему в книге Шэрон МакгрэйнТеория, которая не умирает".

* * *

Когда правило Байеса вошло в психологию, это произошло не на ура, а наперегонки. Ни одна публикация не принесла его в психологию. Напротив, начиная с теории принятия решений в 1960-х годах, множество различных направлений исследований использовали и изучали его, пока в конце концов на рубеже XXI века не расцвела идея о том, что мозг - это Байес.

Некоторые из первых работ по изучению байесовских принципов в мозге появились в маловероятном месте: в космосе. Выполняя свою миссию по запуску космических путешествий, Национальное управление по аэронавтике и исследованию космического пространства (NASA) знало, что ему придется разрабатывать не только летные костюмы и реактивные двигатели. Оно также изучало "человеческие факторы" полета - например, как пилоты читают бортовое оборудование, чувствуют окружающую обстановку и взаимодействуют с органами управления. Исследуя эту проблему в 1972 году, инженер-авиаконструктор Ренвик Карри написал одну из первых работ, в которой человеческое восприятие рассматривалось в байесовских терминах. В частности, он использовал правило Байеса для объяснения закономерностей в восприятии человеком движения. Однако академические границы таковы, каковы они есть, что мало кто из психологов услышал об этом.

Экономика предложила еще один способ проникновения Байеса. Стремясь отразить человеческое поведение в компактной математической форме, экономисты обратились к правилу Байеса еще в 1980-х годах. В работе "Принимают ли люди решения по Байесу?", написанной Уильямом Вискоуси в 1985 году, было показано, что работники либо переоценивают, либо недооценивают рискованность конкретной работы, поскольку полагаются на свои предварительные убеждения о том, насколько рискованна работа в целом.

Психологи также заметили появление Байеса на горизонте через один из своих прежних источников вдохновения. Как мы видели в главе 3, на изучение мозга оказала влияние область формальной логики. К концу двадцатого века вероятность во многих отношениях стала новой логикой - усовершенствованным способом оценки мышления человека. Вместо жесткой дихотомии "истина-ложь", свойственной булевой логике, вероятность предлагает оттенки серого. Таким образом, она лучше согласуется с нашими собственными интуитивными представлениями о наших убеждениях. Как писал сам Лаплас: "Теория вероятностей - это не что иное, как здравый смысл, сведенный к вычислениям".

Конечно, вероятность немного лучше, чем это, потому что математически выработанные правила являются лучшей формой здравого смысла - и правило Байеса, в частности, является рецептом того, как лучше рассуждать.

Именно на этих основаниях Джон Андерсон официально представил байесовский подход к психологии в рамках метода, который он назвал "рациональным анализом". Эта идея пришла к нему в 1987 году, когда он находился в Австралииотпуске от работы в качестве профессора психологии и информатики в Университете Карнеги-Меллон. Рациональный анализ, по мнению Андерсона, основан на вере в то, что "существует причина того, как устроен разум". В частности, он утверждает, что понимание того, как работает разум, лучше всего вырастает из понимания того, откуда он взялся. Когда речь заходит о Байесе, рассуждения начинаются с того, что люди живут в беспорядочном, неопределенном мире. Тем не менее, - утверждает Андерсон, - люди эволюционировали в этом мире, чтобы вести себя как можно более рационально. Правило Байеса - это описание того, как рационально рассуждать в условиях неопределенности. Следовательно, люди должны использовать правило Байеса. Проще говоря, если эволюция выполнила свою работу, мы должны увидеть правило Байеса в мозге.

Детали того, как правило будет применяться и к каким проблемам, зависят от более конкретных особенностей окружающей среды. В качестве примера Андерсон предлагает байесовскую теорию запоминания. Она гласит, что вероятность того, что конкретное воспоминание окажется полезным в определенной ситуации, определяется путем комбинирования: 1) вероятности того, что вы окажетесь в этой ситуации, если это воспоминание окажется полезным; и 2) предварительного условия, которое предполагает, что более недавние воспоминания с большей вероятностью окажутся полезными. Такой выбор приоритета призван отразить тот факт, что люди живут в мире, где информация имеет срок годности; поэтому более свежие воспоминания с большей вероятностью будут иметь ценность.

Важно отметить, что в рамках рационального анализа "рациональное" может быть далеко не идеальным. Например, память, конечно, может нас подвести. Но, согласно этой точке зрения, если мы забываем факт из начальной школы спустя 20 лет, мы не поступаем нерационально. Учитывая ограниченные возможности памяти и постоянно меняющийся мир, в котором мы живем, имеет смысл забыть старую и малоиспользуемую информацию. Таким образом, приоритет в байесовской модели можно рассматривать как хранилище коротких путей. Это кодировка основных статистических данных о мире, которая позволяет принимать решения быстрее, проще и - в большинстве случаев - точнее. Однако если мы оказываемся в мире, который отличается от того, в котором мы развивались и эволюционировали, наши предубеждения могут ввести в заблуждение. Совет "Думай о лошадях" хорош только там, где лошадей больше, чем зебр.

* * *

В начале 1993 года группа исследователей встретилась в гостинице Chatham Bars Inn в Чатеме, штат Массачусетс. В группу входили психологи Дэвид Книлл (профессор Пенсильванского университета, выступавший в роли организатора) и Уитман Ричардс (профессор Массачусетского технологического института, входивший в первую группу аспирантов факультета психологии в 1960-х годах). На встрече также присутствовали ученые, занимавшиеся физиологией и неврологией, такие как Генрих Бюльтхофф, работавший над зрительной системой плодовых мушек, а также инженеры и математики, такие как Алан Юилль, ученик Стивена Хокинга.

На повестке дня этой эклектичной группы стоял поиск новой формальной теории восприятия - в идеале такой, которая могла бы отразить всю сложность органов чувств и одновременно предложить новые, проверяемые гипотезы. Особую озабоченность вызывало то, что на органы чувств влияет не только то, что бросается в глаза, уши или нос. То есть поступающая сенсорная информация сочетается с богатым набором фоновых знаний, прежде чем восприятие будет завершено. По словам Книлла, ни одна теория в то время не могла точно сказать, "как предварительные знания должны быть использованы при интерпретации сенсорных данных".

На этой встрече была написана книга, опубликованная в 1996 году, название которой раскрывает решение, к которому пришли участники: "Восприятие как байесовское умозаключение". Семена этой идеи, как мы видели, были разбросаны по всему миру в течение некоторого времени, прорастая разными способами в разных областях. Это была возможность собрать их воедино. В книге представлен единый и ясный подход к байесовскому исследованию восприятия, сфокусированный в основном на зрении. Ее успех породил бесчисленное количество исследовательских работ в последующие годы. Если работа Андерсона по "рациональному анализу" нанесла Байеса на карту психологии, то эта книга дала ему собственную страну.

Чтобы понять основы байесовского восприятия, рассмотрим пример. Свет отражается от цветка и попадает в глаз. Длина волны света составляет около 670 нанометров (нм). Задача мозга, учитывая длину волны, которую он получает, определить, что представляет собой "вещь в себе" или что на самом деле происходит в мире. В байесовских терминах это будет вероятность гипотезы о наличии определенного цветка, учитывая, что на глаз падает волна длиной 670 нм.

Правило Байеса подсказывает нам, что делать. Сначала нужно выяснить, насколько вероятно увидеть эту длину волны в разных условиях. Вероятность увидеть свет длиной 670 нм, если цветок синий и освещен белым светом, очень мала (синий свет находится в диапазоне 450-480 нм). Вероятность увидеть свет 670 нм, если цветок красный и освещен белым светом, довольно высока: 670 нм находится в середине красного спектра. Однако вероятность увидеть свет 670 нм, если цветок белый и освещен красным светом, также достаточно высока. Поскольку оба эти сценария с одинаковой вероятностью дают 670-нм свет, если мы остановимся на этом, мы можем не знать, какая из интерпретаций лучше.

Но, как хорошие байесианцы, мы помним о важности предварительной оценки. Вероятность того, что мир освещен красным светом, по большинству показателей довольно мала. Однако белый свет встречается очень часто. Поэтому сценарии, предполагающие белый свет, гораздо более вероятны. Умножив предварительную вероятность различных сценариев на вероятность увидеть свет длиной 670 нм в этом сценарии, мы видим, что только один из них имеет высокие показатели по обоим этим параметрам. Поэтому мы делаем вывод, что перед нами находится красный цветок, освещенный обычным белым светом.

Конечно, на самом деле "мы" не приходим к такому выводу. Этот процесс, как и предполагал Гельмгольц, происходит бессознательно. Шансы взвешиваются вне нашего поля зрения, и мы знаем только конечный результат. Таким образом, это бесконечная процедура производства восприятия - подземная производственная линия в сознании. В каждый момент времени вероятности вычисляются и сравниваются, каждое восприятие - это вычисление по правилу Байеса.

Учитывая всю ту работу, которая проделывается над восприятием, неудивительно, что мозг иногда выдает странные результаты. В 2002 году группа исследователей из США и Израиля составила каталог ряда распространенных иллюзий, которые возникают у людей при попытке оценить движение объекта . В их числе - тот факт, что форма объекта влияет на направление, в котором, как нам кажется, он движется, что два предмета, движущиеся в разных направлениях, могут казаться одним и что более тусклые объекты движутся медленнее.

Это может показаться простым перечислением наших недостатков, но исследователи обнаружили, что все эти промахи можно объяснить с помощью простой байесовской модели. В частности, эти привычки выпадают из расчета, если мы принимаем определенное предварительное предположение: что движение с большей вероятностью будет медленным, чем быстрым. Возьмем, к примеру, последнюю иллюзию. Когда объект трудно разглядеть,доказательства, которые он дает о своем движении, слабы. В отсутствие доказательств правило Байеса опирается на предварительное суждение, а оно говорит, что предметы движутся медленно. Этот математический прием может объяснить, почему водители склонны превышать скорость в тумане: имея слабую информацию о собственном движении, они полагают, что их скорость слишком мала. Важно, что байесовский подход переосмысливает эти уловки разума как черты рационального расчета. Он показывает, что некоторые ошибки на самом деле являются разумными предположениями в неопределенном мире.

Однако в процессе восприятия есть и другая сторона. До сих пор мы просто предполагали, что восприятие, которое мы испытываем, должно быть тем, которое имеет наибольшую вероятность. Это разумный выбор, но тем не менее это выбор, и его можно сделать по-другому.

Рисунок 23

Рассмотрим кубик Неккера. Эта знаменитая иллюзия (см. рис. 23) допускает более одной интерпретации: нижний квадрат может быть виден выходящим вперед, как у коробки, обращенной немного вниз, или он может быть позади плоскости страницы, что предполагает коробку, наклоненную вверх. Вероятность того, что оба ящика дают такой рисунок линий, одинакова, поэтому решение о том, какое состояние является истинным, будет сильно зависеть от предшествующего. Скажем, коробки, наклоненные вниз, в целом более вероятны. Таким образом, после применения правила Байеса вероятность того, что при виде этих линий мы увидим коробку, наклоненную вниз, равна 0,51, а коробку, наклоненную вверх, - 0,49. Применяя стандартный подход к отображению этого на восприятие, мы бы сказали, что побеждает большая из двух вероятностей - мы видим коробку, наклоненную вниз, и точка.

С другой стороны, вместо того чтобы выбирать одну интерпретацию и придерживаться ее, мозг может чередовать их. В один момент коробка может оказаться внизу, а в другой - вверху, неоднократно переключаясь туда-сюда. В этом случае вероятности говорят нам не о том, какой интерпретации придерживаться, а о том, сколько времени проводить в каждой из них.

Именно такое переключение наблюдали исследователи из Рочестерского университета (в том числе Дэвид Книлл) в ходе эксперимента, проведенного в 2011 году. Экспериментаторы наложили два визуальных паттерна таким образом, что было непонятно, находится ли первый поверх второго или наоборот - то есть изображение можно было интерпретировать двумя разными способами. Попросив людей указать, когда их восприятие изображения переключается с одного вида на другой, они смогли определить количество времени, потраченного на восприятие каждого из них. Если предположить, что любой из узоров с одинаковой вероятностью окажется наверху (то есть предварительные вероятности одинаковы), то, согласно правилу Байеса, люди должны тратить 50 процентов своего времени на восприятие каждого из вариантов. Именно это и было обнаружено. Но чтобы действительно проверить предсказательную силу правила Байеса, ученым нужно было отойти от сценария 50 на 50. Для этого они изменили изображение так, чтобы один узор оказался немного выше другого. Это изменило вероятность - то есть вероятность увидеть это изображение, учитывая, что один или другой узор действительно находится сверху. Чем больше они изменяли изображение в этом направлении, тем больше времени зрители тратили на то, чтобы увидеть предпочитаемый узор сверху - в точном соответствии с правилом Байеса.

Как показывает это исследование, набор вероятностей может быть сопоставлен с восприятием интересным образом - такое сопоставление ученые называют функцией принятия решения. Само правило Байеса не говорит нам, какую функцию принятия решения использовать; оно лишь предоставляет вероятности. Восприятие может быть сведено к интерпретации с наибольшей вероятностью, а может и нет. Восприятие может быть выборкой из различных интерпретаций с течением времени в соответствии с их вероятностями, а может и не быть. В целом, восприятие может быть результатом любой сложной комбинации вероятностей. Таким образом, вывод правила Байеса обеспечивает богатое представление сенсорной информации, которое мозг может использовать любым способом, который кажется наиболее разумным. Таким образом, вероятности означают возможности.

Еще одно преимущество представления о разуме как об оперировании вероятностями заключается в том, что оно открывает возможность количественно оценить потенциально неуловимое понятие: уверенность. Уверенность интуитивно связана с доказательствами и уверенностью. Когда мы идем по темной комнате, где визуальные свидетельства слабы, мы двигаемся медленно, потому что не уверены, что не наткнемся на стену или стол. Однако в ярко освещенной комнате сильное влияние четких визуальных свидетельств устраняет подобные сомнения. Гипотеза уверенности Байеса формализует эту интуицию, утверждая, что степень уверенности человека в своей интерпретации мира напрямую связана с вероятностью этой интерпретации с учетом имеющихся доказательств - то есть с результатом правила Байеса. В темной комнате, где доказательств мало, вероятность любой интерпретации комнаты низка, а значит, и уверенность тоже.

В 2015 году исследователи из Великобритании проверили, насколько хорошо эта байесовская гипотеза соответствует данным. Для этого они попросили людей искать определенный паттерн в двух разных изображениях, которые быстро мелькали одно за другим. Затем испытуемые сообщали, на каком из двух изображений был узор, и, что немаловажно, насколько они были уверены в своем решении. Решения и уверенность испытуемых сравнивались с предсказаниями байесовской модели и с предсказаниями двух более простых математических моделей. Правило Байеса обеспечило лучшее соответствие для большинства данных, что подтверждает гипотезу уверенности Байеса.

* * *

В лаборатории нам нравится упрощать огромную задачу - понять, как работает мозг", - сказала Дора Ангелаки в интервью в 2014 году. Традиционно нейронаука изучает по одной сенсорной системе за раз. Но в реальном мире все происходит иначе".


Ангелаки, родом с Крита, является профессором нейронаук в Нью-Йоркском университете. Своим желанием докопаться до глубинных принципов работы вещей она объясняет свое образование в области электротехники. В рамках своих исследований она исправляет предубеждение нейронауки к простоте, изучая взаимодействие органов чувств.

Ангелаки стремится объединить зрительные и вестибулярные органы чувств. Вестибулярная система обеспечивает малоизвестное шестое чувство равновесия. Расположенная глубоко в ухе, она состоит из множества крошечных трубок и заполненных камнями мешочков. Благодаря движению жидкостей в трубках и перемещению камней система, подобно жидкости в уровне, измеряет наклон и ускорение головы. Эта система работает в тандеме со зрительной системой, обеспечивая общее ощущение места, ориентации и движения. Когда эти две системы не работают, могут возникнуть неприятные ощущения, такие как укачивание.

Пытаясь понять работу вестибулярной системы, Ангелаки заимствовала методы из необычного источника: обучения пилотов. Испытуемые в ее экспериментах пристегиваются к сиденью на движущейся платформе, подобной тем, что используются в летных симуляторах. Платформа может давать им короткие импульсы ускорения в разных направлениях. В то же время экран перед ними дает визуальное ощущение движения в виде точек света, проносящихся мимо них - визуальное ощущение, не похожее на прыжок со скоростью света в "Звездных войнах". В то время как при обучении пилотов физические и визуальные движения обычно согласовываются, Ангелаки использует эту установку, чтобы посмотреть, что делает мозг, когда они расходятся.

Правило Байеса позволяет догадаться об этом. Если рассматривать зрительные и вестибулярные сигналы как отдельные потоки данных об одном и том же внешнем мире, то математика вероятности дает простое средство для их объединения. Вместо одного члена вероятности - как в стандартном правиле Байеса - две вероятности (по одной от каждого чувства) умножаются вместе. Допустим, ваша задача - определить, движетесь ли вы влево или вправо. Чтобы рассчитать вероятность того, что вы действительно двигаетесь вправо, учитывая некоторые вестибулярные и зрительные сигналы, вы умножите вероятность того, что вы увидите этот зрительный сигнал, если будете двигаться вправо на вероятность того, что вы получите этот вестибулярный сигнал, если будете двигаться вправо. Чтобы завершить процесс, это значение затем умножается на предварительную вероятность движения вправо. То же самое можно сделать и для движения влево, после чего эти два показателя сравниваются.

Подобно тому как слух превращается в факт, когда вы слышите его от разных людей, в правиле Байеса получение одной и той же информации от нескольких органов чувств усиливает веру в эту информацию. Если движущаяся платформа и экран дисплея соответствуют правостороннему движению, то и визуальная, и вестибулярная вероятности будут высокими, а значит, и результат их перемножения будет выше. Это способствует уверенному выводу о правостороннем движении. Если же они противоречат друг другу - платформа движется вправо, а точки говорят, что влево, - то вестибулярное правдоподобие по-прежнему будет говорить о высокой вероятности движения вправо, а зрительное - о низкой. Умножение этих показателей приводит к среднему результату и лишь к умеренной уверенности в том или ином случае.

Но, как и в случае со слухами, надежность источника имеет значение. В своих экспериментах Ангелаки может снизить степень доверия испытуемых к тому или иному сенсорному входу. Чтобы сделать визуальные данные менее надежными, она просто делает их более беспорядочными. То есть вместо того, чтобы все точки двигались вместе, создавая сильное ощущение направленного движения, некоторые точки двигаются беспорядочно. Чем больше случайных точек, тем менее надежной становится визуальная информация.

Если посмотреть, как это происходит с вероятностями, мы увидим, что правило Байеса естественным образом определяет, насколько следует полагаться на источник в зависимости от его надежности. Если бы точки двигались совершенно случайно, визуальный сигнал не давал бы никакой информации о направлении движения. В этом случае вероятность того, что визуальный сигнал будет выдавать движение вправо, была бы равна вероятности того, что он будет выдавать движение влево. При равной вероятности с обеих сторон визуальный сигнал не будет влиять на решение в ту или иную сторону. Решение будет приниматься вестибулярными сигналами (и предварительными). Если же 90 % точек двигались случайным образом, а 10 % указывали на движение вправо, то вероятность того, что зрительный сигнал поддержит движение вправо, будет немного выше, чем вероятность того, что движение влево. Теперь зрительный сигнал действительно влияет на принятие решения - но лишь незначительно. По мере того как зрительный сигнал становится все более надежным, его вес в принятии решения растет. Таким образом, правило Байеса автоматически увеличивает долю источника в зависимости от степени его достоверности.

Исследуя выводы, которые люди делают о своем движении в этих экспериментах, Ангелаки и ее лаборатория еще раз показали, что в большинстве случаев люди ведут себя как хорошие байесовцы. Когда визуальные данные слабы, они больше полагаются на свою вестибулярную систему. Но есть одна оговорка: хотя визуальная информация становится более надежной, они все равно используют ее не так часто, как предсказывает правило Байеса. Вестибулярная информация постоянно переоценивается - эффект, обнаруженный и у обезьян. Это может быть результатом того, что визуальный вход всегда немного неоднозначен: если вы видите точки, движущиеся мимо, это может быть эффектом вашего собственного движения, или это могут быть просто движущиеся точки. Таким образом, вестибулярный сигнал в целом является более надежным источником и поэтому заслуживает большего внимания.

* * *

Как только байесовский подход к восприятию был обнародован, он быстро распространился по всем уголкам психологии. Подобно иллюзии волшебного глаза, если долго смотреть на любые данные, из них может выплыть структура правила Байеса. В результате в изучении разума появилось множество приор и вероятностей.

Как мы уже видели, правило Байеса было использовано для объяснения восприятия движения, переключения двусмысленных иллюзий, таких как кубик Неккера, уверенности и сочетания зрительных и вестибулярных сигналов. Оно также было адаптировано для объяснения того, как нас могут обмануть чревовещатели, нашего ощущения хода времени и нашей способности замечать аномалии. Ее можно даже растянуть и расширить, чтобы охватить такие задачи, как обучение двигательным навыкам, понимание языка и способность к обобщению. Такая объединяющая основа для описания столь значительной части умственной деятельности кажется безусловным успехом. Действительно, по словам философа ума Майкла Рескорла, байесовский подход - это "наша лучшая современная наука о восприятии".

Однако не все психологи могут считаться преданными учениками преподобного Байеса.

По мнению некоторых, теория, которая объясняет все, рискует не объяснить вообще ничего. Оборотной стороной гибкостибайесовского подхода является то, что его также можно обвинить в том, что у него слишком много свободных параметров. Свободные параметры модели - это все ее подвижные части - все варианты, которые исследователь может выбрать при ее использовании. Точно так же, как при достаточном количестве ударов даже самый плохой гольфист может в конце концов попасть мячом в чашку, при достаточном количестве свободных параметров любая модель может соответствовать любым данным. Например, если результаты нового эксперимента противоречат результатам старого, то модель с избыточными параметрами легко подстроится под них. Если заставить модель соответствовать данным так же просто, как банку внести изменения, ее успех не очень интересен. Модель, которая может сказать все, что угодно, никогда не может ошибаться. Как пишут психологи Джеффри Бауэрс и Колин Дэвис в своей критике байесовского подхода в 2012 году: "Эта способность точно описывать данные достается ценой фальсифицируемости".

Действительно, существует множество способов втиснуть части восприятия в байесовский пакет. Возьмем, к примеру, вычисление вероятности. Вычисление такой величины, как "вероятность увидеть свет длиной 670 нм при наличии красного цветка", требует определенных знаний и предположений о том, как свет отражается от различных материалов и как глаз его поглощает. Не обладая совершенным пониманием физического мира, создатель модели должен внести в нее некоторые собственные предположения. Поэтому они могут немного вилять этими предположениями, чтобы соответствовать данным. Еще одним источником выбора является функция принятия решений. Как мы видели ранее, вывод правила Байеса может быть сопоставлен с восприятием и принятием решения животным любым количеством способов. Этот вариант тоже способен сделать любое действие теоретически байесовским. И, конечно же, есть эти досадные приор.


Подобно тому, как в двадцатом веке они не давали покоя статистикам, в двадцать первом приоры стали вызовом для психологов. Если предположение об определенном приоритете - например, о том, что движение, скорее всего, будет медленным, - помогает объяснить психологические явления, это можно считать хорошим доказательством того, что мозг действительно использует этот приоритет. Но что, если другое явление лучше всего объясняется другим приоритетом - скажем, тем, который предполагает, что движение быстрое? Следует ли считать, что приоритеты в нашем сознании постоянны в зависимости от времени и задачи? Или они гибкие и изменчивые? И как мы можем это узнать?

В результате этих опасений некоторые исследователи занялись изучением свойств суждений. Французский когнитивист Паскаль Мамассиан работал над исследованием особенно распространенного из них: предположения о том, что свет приходит сверху. На протяжении более двух столетий эксперименты и иллюзии показали, что люди держат в уме это неявное убеждение об источнике освещения, когда разбираются с тенями в сцене. Это разумное предположение, учитывая расположение нашего основного источника света - солнца. Недавно в ходе экспериментов этот вывод был несколько изменен, и выяснилось, что люди на самом деле считают, что свет исходит сверху и немного слева. Мамассиан провел тесты, выявившие это предубеждение в лаборатории, но он также нашел более творческий способ его исследовать. Проанализировав 659 картин из парижского музея Лувр, он обнаружил, что в 84 процентах портретов и 67 процентах непортретных картин источник света действительно смещен в левую сторону. Возможно, художники предпочитают такое положение именно потому, что оно соответствует нашей интуиции, создавая более приятную и легко интерпретируемую картину.


Еще один открытый вопрос, связанный с примерами, - их происхождение. Приоры могут служить эффективным способом запечатления фактов о мире в нашем сознании; но передаются ли эти факты нам от предыдущих поколений через наши гены, или же мы сами развиваем их в течение жизни? Чтобы проверить это, в исследовании, проведенном в 1970 году, цыплят выращивали в условиях, когда весь свет падал снизу. Если бы предположение о том, что свет падает сверху, было усвоено в течение жизни, то у этих птиц его бы не было. Однако то, как животные взаимодействовали с визуальными стимулами, показало, что они все же считали, что свет должен быть сверху. Это говорит в пользу наследственного предположения.

Люди, конечно, не цыплята, и развитие нашей нервной системы может позволить нам быть немного более гибкими. Исследуя предубеждения детей разного возраста, психолог Джеймс Стоун в 2010 году обнаружил, что дети в возрасте четырех лет проявляют предубеждение к верхнему свету, хотя оно слабее, чем у взрослых. С годами это предубеждение неуклонно растет и достигает взрослой силы, что говорит о том, что частично врожденное предубеждение может быть откорректировано опытом. В поддержку этой гибкости в 2004 году команда из Великобритании и Германии показала, что наше представление о том, откуда должен исходить свет, может быть ослаблено. С помощью тренировки участники смогли изменить свои предварительные убеждения об источнике света на несколько градусов.

Выбор конкретного приоритета и его изучение с разных сторон в ходе множества экспериментов помогает проверить его как устойчивый и надежный эффект. Каждое такое предварительное условие становится менее свободным параметром в модели и более фиксированным.


Другой вопрос, который должны решить сторонники байесовской гипотезы мозга, - это "как?".

Хотя есть основания полагать, что мозг должен использовать правило Байеса, и есть доказательства того, что он это делает, вопрос о том, как это происходит в нейронах, остается оживленной областью исследований.

Когда речь заходит о суждениях, ученые ищут, в каком шкафу мозга хранятся эти кусочки фоновых знаний и как они попадают в нейронный процесс принятия решений. Согласно одной из гипотез, это простая игра с числами. Если группе нейронов поручено представлять что-то об окружающем мире - скажем, откуда доносится звук, - то каждый нейрон может иметь свое собственное предпочтительное местоположение. Это означает, что он больше всего реагирует на звук, исходящий оттуда. Если мозг определяет местоположение звука путем суммирования активности всех нейронов, предпочитающих одно и то же место, то места с большим количеством нейронов будут иметь преимущество. Таким образом, если заранее известно, что звук с большей вероятностью будет исходить из центральных мест, чем с периферии, это можно реализовать, просто увеличив количество нейронов, предпочитающих центр. Как выяснилось, в 2011 году нейробиологи Брайан Фишер и Хосе Луис Пенья обнаружили именно такую схему в мозге сов. Выявление нейронных признаков приоритетов таким образом может дать представление о том, откуда они берутся и как работают.

Теоретики строят - а экспериментаторы проверяют - все новые гипотезы о том, как правило Байеса работает в мозге. Существует множество способов, с помощью которых нейроны могут объединять вероятности и приоритеты. Эти различные гипотезы не следует рассматривать в соревновании, как и не следует ожидать, что в конце будет выявлен какой-то один победитель. Напротив, если правило Байеса может быть универсальным для отражения результатов восприятия, то физические основы этого правила могут иметь самые разные формы и стили.

 

Глава 11. Как вознаграждение руководит действиями.

Временные различия и обучение под креплением

 

Большую часть своей жизни Иван Петрович Павлов был ученым и имел одну страсть - пищеварение. Он начал свою научную деятельность в 1870 году с диссертации о нервах поджелудочной железы. В течение 10 лет, будучи профессором фармакологии в Санкт-Петербурге, он разрабатывал способы измерения желудочного сока у животных в процессе их жизнедеятельности, чтобы показать, как изменяется секреция различных органов в ответ на пищу или голод. А в 1904 году ему была присуждена Нобелевская премия "в знак признания его работ по физиологии пищеварения, благодаря которым знания о жизненно важных аспектах этого предмета были преобразованы и расширены".

Неудивительно, что, учитывая все его успехи в изучении кишечника, Павлов вошел в историю как одна из самых влиятельных фигур в психологии.

Переход Павлова к изучению разума был в некотором роде случайным. В ходе эксперимента, призванного измерить слюноотделение у собак в ответ на различные виды пищи, он заметил, что их рты разинуты еще до появления еды - достаточно было услышать звук шагов помощника, вносящего миски. В этом не было ничего необычного. Большая часть предыдущих работ Павлова была посвящена изучению влияния нервной системы на пищеварительную систему, но обычно это были более очевидные взаимодействия, такие как влияние запаха пищи на секрецию желудка - взаимодействия, которые, как можно предположить, были врожденными для животного. Слюнотечение при звуке шагов - это не реакция, жестко заложенная в генах. Этому нужно научиться.

Павлов был строгим и неумолимым ученым. Когда из-за публичных расстрелов, связанных с русской революцией, один из коллег опоздал на встречу, Павлов ответил: "Какая разница, какая революция, когда у вас есть эксперименты, которые нужно делать в лаборатории? Однако такая интенсивность способствовала кропотливой работе, и когда он решил продолжить наблюдения за слюноотделением, то сделал это тщательно и исчерпывающе.

Павлов неоднократно подавал собаке нейтральный сигнал - например, тиканье метронома или звук зуммера (но не колокольчика, как принято считать; Павлов полагался только на стимулы, которые можно было точно контролировать). За нейтральным сигналом следовала еда. После этих пар он наблюдал за тем, как сильно у собак выделяется слюна в ответ на один только сигнал. Он писал в характерных деталях: "Когда звуки бьющего метронома попадают на ухо, через девять секунд начинается выделение слюны, а в течение 45 секунд выделяется 11 капель".

Варьируя специфику этой процедуры, Павлов каталогизировал многие особенности процесса обучения. Он задавал такие вопросы, как: "Сколько пар "сигнал - пища" требуется для надежного обучения?" (около 20); "Имеет ли значение время между сигналом и пищей?" (да, сигнал должен начинаться до появления пищи, но не слишком сильно); "Должен ли сигнал быть нейтральным?" (нет, животные могли научиться выделять слюну в ответ на слегка негативные сигналы, например, на раздражение кожи); и многое другое.


Этот процесс - многократное сопряжение предстоящего вознаграждения с чем-то, обычно не связанным с ним, до тех пор, пока эти два фактора не становятся связанными - известен как классическое или (что неудивительно) "павловское" обусловливание, и он стал основным в ранних исследованиях в области психологии. Рецензенты книги Павлова, вышедшей в 1927 году и описывающей его методологию и результаты, назвали его работу "представляющей жизненный интерес для всех, кто изучает разум и мозг" и "замечательной как с точки зрения точности его методов, так и научной проницательности, проявившейся в масштабном характере его выводов".

Работы Павлова в конечном итоге стали основой одного из крупнейших течений в науке XX века - бихевиоризма. Согласно бихевиоризму, психологию следует определять не как изучение разума, а скорее как изучение поведения. Поэтому бихевиористы предпочитают описания наблюдаемой внешней активности любому теоретизированию о внутренней психической активности, такой как мысли, убеждения или эмоции. Для них поведение людей и животных может быть понято как сложный набор рефлексов - то есть сопоставлений между входными сигналами из мира и выходными сигналами, производимыми животным. Эксперименты по обусловливанию, такие как эксперимент Павлова, предложили чистый способ количественной оценки этих входов и выходов, что послужило толчком для развития бихевиоризма.

Поэтому после публикации его книги многие ученые стремились повторить и развить работу Павлова. Американский психолог Б. Ф. Скиннер, например, узнал о Павлове из рецензии на книгу известного писателя-фантаста Г. Г. Уэллса. Чтение этой статьи пробудило интерес Скиннера к психологии и направило его на путь становления ведущей фигурой бихевиористского движения, проведя бесчисленное количество точных исследований поведения крыс, голубей и людей.1

Когда в какой-либо области науки накапливается достаточно количественных данных, она в конце концов обращается к математическому моделированию, чтобы придать им смысл. Модели находят структуру в грудах цифр; они могут объединить разрозненные результаты и показать, как они возникают в результате единого процесса. В течение десятилетий после Павлова количество данных, получаемых в ходе поведенческих экспериментов по обучению, сделало их готовыми для моделирования. Как писал в 1950 году Уильям Эстес, выдающийся американский психолог, работавший над математикой обучения, данные по обучению "достаточно упорядочены и воспроизводимы, чтобы поддерживать точные количественные предсказания поведения".

В другой работе, опубликованной в 1951 году, говорится: "Среди отраслей психологии немногие так богаты количеством и разнообразием доступных данных, необходимых для построения моделей, как обучение". Эта работа, "Математическая модель простого обучения", была написана Робертом Бушем и Фредериком Мостеллером в Лаборатории социальных отношений Гарвардского университета. Буш был физиком, ставшим психологом, а Мостеллер - статистиком. Вместе, под влиянием работ Эстеса, они вывели формулу обучения ассоциациям между сигналами и вознаграждением, которая стала отправной точкой для целого ряда все более сложных моделей. В течение десятилетий обучение, которое отражают эти модели, стало известно как "обучение под креплением". Обучение с подкреплением - это объяснение того, как возникает сложное поведение, когда единственными сигналами обучения являются простые вознаграждения и наказания. Это, во многом, искусство учиться делать то, что нужно, без подсказок.

* * *

В своей модели Буш и Мостеллер сосредоточились на конкретной мере выученной ассоциации между сигналом и вознаграждением: вероятности реакции. Для собак Павлова это вероятность слюноотделения в ответ на звуковой сигнал. Буш и Мостеллер использовали простое уравнение, чтобы объяснить, как эта вероятность меняется каждый раз, когда награда дается - или не дается - после сигнала.

Допустим, вы берете любую случайную собаку с улицы (ходят слухи, что Павлов получал своих подопытных, воруя их на улицах). Вероятность того, что эта собака пустит слюну при звуке зуммера, равна нулю; у нее нет причин подозревать, что зуммер означает еду. Теперь вы нажимаете на зуммер, а затем даете собаке кусок мяса. Согласно модели Буша-Мостеллера, после этой встречи вероятность того, что собака пустит слюну в ответ на зуммер, возрастает (см. рис. 24). Точная величина этого увеличения зависит от параметра в формуле, называемого скоростью обучения. Скорость обучения контролирует скорость всего процесса. Если скорость обучения очень высока, одной пары может быть достаточно, чтобы закрепить в сознании собаки связь между звуковым сигналом и едой. Однако при более разумных показателях вероятность появления слюноотделения остается низкой после первого сопряжения - возможно, она достигает 10 процентов - и повышается каждый раз, когда за звуковым сигналом следует пища.


Однако независимо от значения скорости обучения, когда во второй раз после звукового сигнала подается пища, вероятность появления слюноотделения возрастает меньше, чем в первый раз. Так, если после первой пары она увеличилась с 0 до 10 процентов, то после второй пары она увеличится еще на девять процентных пунктов, до 19 процентов. И только на восемь процентных пунктов после третьего. Это говорит о том, что в модели Буша-Мостеллера (и в модели собак) изменение вероятности при каждом спаривании зависит от значения самой вероятности. Другими словами, обучение зависит от того, что уже усвоено.

С определенной точки зрения это интуитивно понятно. Нет ничего нового в том, чтобы каждый день видеть восход солнца. В той степени, в какой мы верим, что что-то произойдет, его фактическое наступление мало на нас влияет. Ожидаемое вознаграждение ничем не отличается от этого. Например, мы не изменим своего мнения о начальнике, если получим ту же самую премию к празднику, которую получали последние пять лет. А собаки меняют свою реакцию на звуковой сигнал только в той степени, в какой последующая еда отличается от того, что они ожидают. Изменить ожидания можно только нарушив их.

 

Рисунок 24

Это нарушение может быть как к лучшему, так и к худшему. Для собаки первый кусок мяса после "жужжания" - это приятный сюрприз, который сильно влияет на ее ожидания. Однако после многократных спариваний ожидания меняются, и слюнотечение при звуке зуммера становится второй натурой. В этот момент самое неприятное, что может произойти, - это услышать звуковой сигнал и не получить еду. Такое лишение привело бы к значительному снижению вероятности слюноотделения в будущем - такому же значительному, как и увеличение, произошедшее при первой паре. Эта обратная сторона обучения на основе вознаграждения, когда животное учится не связывать сигнал с вознаграждением, называется угасанием. С каждым предъявлением сигнала без ожидаемой награды процесс угасания разрушает ассоциацию, в итоге полностью уничтожая выученную реакцию. Буш и Мостеллер постарались показать, что их модель точно отражает этот процесс.

В то время как Буш и Мостеллер превращали информацию о слюноотделении в уравнения, другой человек на противоположном конце страны работал над применением математики для решения самых сложных проблем в бизнесе и промышленности. Глубокие и важные связи между этими работами не были осознаны еще несколько десятилетий.

* * *

Корпорация RAND - американский аналитический центр, основанный в 1948 году. Некоммерческое подразделение компании Douglas Aircraft Company, главной целью которого было расширение сотрудничества между наукой и военными, расцветшего в результате необходимости во время Второй мировой войны. Название корпорации является уместно общим (RAND буквально означает Research ANd Development)спектра исследовательских проектов, которыми она занимается. За годы своего существования сотрудники RAND внесли значительный вклад в такие области, как освоение космоса, экономика, вычислительная техника и даже внешние отношения.

Ричард Беллман работал в RAND в качестве математика-исследователя с 1952 по 1965 год. Будучи поклонником этого предмета еще в подростковом возрасте, Беллман неоднократно прерывал свой путь к профессии математика из-за Второй мировой войны. Сначала, чтобы поддержать военные действия, он оставил аспирантуру в Университете Джона Хопкинса, чтобы преподавать военную электронику в Университете Висконсина. Позже он перешел в Принстонский университет, где преподавал в рамках программы специализированной подготовки армии и занимался собственными исследованиями. В конце концов он защитил докторскую диссертацию в Принстоне, но не раньше, чем его призвали на работу в Лос-Аламос в качестве физика-теоретика для Манхэттенского проекта. Эти вторжения, похоже, не сильно повлияли на его карьеру. Уже через три года после войны, в возрасте всего 28 лет, он стал профессором Стэнфордского университета.

Уход из академического мира в RAND в 32 года стал, по словам Беллмана, разницей между "традиционным интеллектуалом или современным интеллектуалом, использующим результаты своих исследований для решения проблем современного общества". В RAND его математические навыки применялись для решения реальных проблем. К таким проблемам, как составление расписания приема пациентов, организация производственных линий, разработка долгосрочных инвестиционных стратегий или определение плана закупок для универмагов. Однако Беллману не нужно было ступать в больницу или на заводской цех, чтобы помочь в решении этих проблем. Все эти проблемы - и многие другие - объединены под одним абстрактным математическим зонтиком. И в глазах математика решить любую из них - значит решить их все.

Все эти проблемы объединяет то, что все они представляют собой "последовательные процессы принятия решений". В последовательном процессе принятия решений есть что-то, что нужно максимизировать: прием пациентов, производство товаров, получение денег, отправка заказов. И для этого можно предпринять различные шаги. Задача состоит в том, чтобы определить, какой набор шагов следует предпринять. Как достичь максимума? Как лучше всего подняться на гору?

Не имея особых наработок в этой области, Беллман обратился к проверенной стратегии в математике: он формализовал интуицию.2 Математический вывод, к которому он пришел, теперь известен как уравнение Беллмана, а простая интуиция, которую оно отражает, заключается в том, что лучший план действий - это тот, в котором все шаги являются наилучшими из возможных. Как бы очевидно это ни казалось, но, будучи сформулированным в математике, даже банальные утверждения могут иметь силу.

Чтобы понять, как Беллман использовал эту интуицию, нам нужно понять, как он сформулировал проблему. Сначала Беллман решил определить, насколько хорош тот или иной план, с точки зрения того, какое вознаграждение - деньги, виджеты, поставки и т. д. - он, скорее всего, принесет. Допустим, у вас есть план из пяти шагов. Общее вознаграждение - это сумма вознаграждений, которые вы получаете на каждом из этих пяти шагов. Но после того как вы сделали первый шаг, у вас теперь есть план из четырех шагов. Поэтому можно сказать, что общее вознаграждение по первоначальному пятишаговому плану - это вознаграждение, полученное за первый шаг, плюс общее вознаграждение по четырехшаговому плану. А общая награда от четырехшагового плана - это награда от первого шага плюс награда от результирующего трехшагового плана. И так далее, и так далее.

Определяя вознаграждение одного плана в терминах вознаграждения другого, Беллман сделал свое определение рекурсивным. Рекурсивный процесс - это процесс, который содержит сам себя. Рассмотрим, например, алфавитную систему. Если вы хотите составить список имен в алфавитном порядке, то начните с сортировки всех имен по первой букве. После этого вам нужно будет снова применить тот же процесс сортировки ко всем именам, начинающимся на одну и ту же букву, чтобы отсортировать их по второй букве, и так далее. Таким образом, алфавитная система становится рекурсивной.

Рекурсия - распространенный прием в математике и информатике отчасти потому, что рекурсивные определения гибкие: их можно сделать длинными или короткими, как это необходимо. Например, формулу для расчета общего вознаграждения по плану можно с одинаковым успехом применить как к плану из пяти шагов, так и к плану из 500 шагов. Рекурсия - это еще и концептуально простой способ добиться чего-то потенциально сложного. Подобно поворотам винтовой лестницы, каждый шаг в рекурсивном определении знаком, но не идентичен, и нам нужно только следовать по ним один за другим до конца.

В формулировке Беллмана есть еще две идеи, которые помогли сделать его стратегию эффективной для применения в реальных проблемах. Первая заключается в том, что он включил в свою стратегию тот весьма убедительный факт, что вознаграждение, которое вы получаете немедленно, стоит больше, чем вознаграждение, которое вы получаете позже. Для этого он ввел в рекурсивное определение коэффициент дисконтирования. Таким образом, если в первоначальной формуле вознаграждение от пятишагового плана было равно вознаграждению от первого шага плюс полное вознаграждение от четырехшагового плана, то в уравнении с дисконтированием оно будет равно вознаграждению от первого шага плюс, возможно, 80 процентов от вознаграждения от четырехшагового плана. Дисконтирование - это способ соизмерять немедленное удовлетворение с отложенным; это "птица в руке стоит двух в кустах", кодифицированное в математике.

Второе понимание было более концептуальным и более радикальным. Это был переход от фокусировки на вознаграждениях к фокусировке на ценностях.

Чтобы понять эту подмену, давайте рассмотрим владельца малого бизнеса - очень малого бизнеса. Анжела - бродяга в нью-йоркском метро. Она знает, что может играть на своей электрической скрипке в течение 20 минут на определенных станциях метро, прежде чем ее прогонят власти, и тогда ей не разрешат вернуться. На разных станциях, однако, выплачиваются разные суммы. Туристические районы могут быть очень прибыльными, в то время как остановки для коренных ньюйоркцев приносят гораздо меньше пожертвований. Она выходит из своего дома на Гринпойнт-авеню в Бруклине и хочет оказаться рядом с домом подруги на Бликер-стрит. Какой путь ей выбрать, чтобы заработать больше всего денег по дороге к месту назначения?

До сих пор мы замечали, что, начав с одной позиции и сделав шаг по плану, мы оказываемся в обстоятельствах, в целом схожих с теми, с которых начинали, - только начинаем мы с другой позиции и имеем другой план. В последовательном принятии решений различные позиции, через которые мы можем пройти, называются состояниями, а шаги в плане часто называют действиями. В случае с Анжелой состояния - это различные станции метро , на которых она может оказаться. Каждый раз, когда Анжела совершает действие (например, переходит со станции А на станцию Б), она оказывается в новом состоянии (станция Б), которое одновременно приносит ей определенное вознаграждение (количество пожертвований, которые получает ее игра) и предоставляет ей новый набор возможных действий (другие станции, на которые можно перейти). Таким образом, состояния определяют, какие действия доступны (например, вы не можете сразу отправиться с Гринпойнт-авеню на Таймс-сквер), а действия определяют, какими будут следующие состояния.

Это взаимодействие - когда действия, предпринятые в рамках плана, влияют на то, какие действия будут доступны в будущем, - является частью того, что делает последовательные процессы принятия решений такими сложными. Что сделал Беллман, так это взял это созвездие состояний, действий и вознаграждений и перевернул его с ног на голову. Вместо того чтобы говорить о вознаграждении, ожидаемом от серии действий, он сосредоточился на ценности, которую имеет любое данное состояние.

Ценность, в разговорном смысле, - понятие туманное. Оно вызывает мысли о деньгах и стоимости, а также о более глубоких понятиях смысла и пользы, которые бывает трудно определить. Уравнение Беллмана, однако, дает точное определение ценности. Используя ту же рекурсивную структуру, которая была представлена ранее, Беллман определил ценность состояния как вознаграждение, которое вы получаете в этом состоянии, плюс дисконтированная стоимость следующего состояния. Заметьте, в этом определении нет явного понятия плана; ценность определяется другими ценностями.

Тем не менее, это уравнение опирается на знание следующего состояния. Без плана, в котором указано, какое действие будет предпринято, как мы узнаем, каким будет следующее состояние? Именно здесь в игру вступает первоначальная интуиция - идея о том, что лучший план складывается из лучших действий. Чтобы рассчитать стоимость в следующем состоянии, достаточно предположить, что будет предпринято наилучшее возможное действие. А наилучшее возможное действие - это то, которое ведет к состоянию с наибольшей ценностью! Если говорить языком ценности, то сам план исчезает.

Как же это поможет Анжеле? Учитывая карту возможных станций метро (см. рис. 25) и соответствующие пожертвования, которые она ожидает получить от каждой из них, мы можем рассчитать "функцию ценности". Функция ценности - это просто ценность, связанная с каждым состоянием (в данном случае с каждой станцией). Мы можем рассчитать ее, начав с конца и работая в обратном направлении. Как только Анжела дойдет до Бликер-стрит, она сразу же отправится домой к своему другу и не будет заниматься букингом, поэтому вознаграждение, которое она получит в конечном пункте назначения, составит 0 долларов. Поскольку с этой точки не существует других состояний, ценность Бликер-стрит также равна нулю. Возвращаясь назад, можно вычислить ценности Юнион-сквер и 34-й улицы в терминах ожидаемого там вознаграждения и ценности Бликер-стрит. Этот процесс продолжается до тех пор, пока не будет вычислена стоимость каждой станции.

class="book">Рисунок 25

Имея на руках эти значения, Анжела теперь может планировать свое путешествие. Отправившись с Гринпойнт-авеню, она может сесть на поезд до Корт-Сквер или Метрополитен-авеню. Что ей выбрать? Если смотреть только на возможное вознаграждение от каждого из них, то Метрополитен-авеню кажется более выгодным выбором, поскольку предлагает 10 долларов против 5 долларов на Корт-Сквер. Но если посмотреть на функцию ценности, то Корт-Сквер - правильный выбор. Это происходит потому, что функция ценности заботится о том, в какие состояния вы можете попасть в будущем, а с Корт-Сквер Анджела может попасть прямо в джекпот, на Таймс-сквер. С Корт-сквер Анжела также может отправиться на Квинс-плаза, но это не имеет значения, потому что функция ценности предполагает, что Анжела умна.Она предполагает, что с Корт-сквер она пойдет на Таймс-сквер, потому что Таймс-сквер - лучший выбор. В целом, следуя функции ценности, Анжела пройдет через Корт-Сквер на Таймс-сквер, затем на 34-ю улицу и, наконец, доберется до места назначения на Бликер-стрит. В общей сложности она заработает 65 долларов - больше, чем может предложить любой путь на этой карте.

Переход Беллмана на функцию ценности был важен, потому что он исправил недостаток в первоначальной постановке задачи. Мы начали с того, что пытались вычислить общее вознаграждение, которое мы могли бы получить от данного плана. На самом деле, план - это именно то, что мы пытаемся найти! Как только мы узнаем функцию ценности, план становится простым: следуйте ему. Подобно хлебным крошкам, оставленным на лесной тропинке, функция ценности указывает вам, куда идти. Тому, кто ищет наибольшую награду, нужно лишь жадно искать следующее состояние с наибольшей ценностью. Все действия могут быть выбраны на основе этого простого правила.

В результате дисконтирования, которое является частью определения стоимости, происходят интересные вещи. Например, посмотрите на варианты, которые есть у Анжелы с Таймс-сквер. Она может либо пойти на 34-ю улицу, получить 20 долларов и закончить на Бликер-стрит, либо пойти на 14-ю улицу, получить 8 долларов, затем пойти на Юнион-сквер, получить 12 долларов и закончить на Бликер-стрит. Оба маршрута принесут ей в общей сложности 20 долларов. Но ценность 34-й улицы равна 20, в то время как ценность 14-й улицы равна 17,6 (вычисляется как 8 + 0,8 x 12), что указывает на то, что 34-я улица - лучший вариант. Это демонстрирует, как дисконтирование будущих вознаграждений может привести к планам с меньшим количеством шагов; если есть только столько вознаграждений, которые можно получить, лучше получить их быстрее, чем медленнее. Дисконтирование также означает, что даже большие вознаграждения будут игнорироваться, если они слишком далеки. Если на железнодорожной станции в Нью-Джерси Анжела получит 75 долларов, это все равно не повлияет на ее выбор, когда она будет выходить из дома. Влияние вознаграждения на функцию ценности подобно ряби от камня, упавшего в воду. Сильнее всего она ощущается в близлежащих штатах, но ее сила ослабевает, чем дальше вы удаляетесь.3


Это техническое определение стоимости - с учетом состояний, рекурсии и коэффициентов дисконтирования - может показаться далеким от того, что мы используем в повседневном языке. Но эти разговорные коннотации в значительной степени присутствуют в этом уравнении. Почему мы ценим деньги? Не потому, что бумажка или монета доставляют нам удовольствие, а потому, что мы можем представить себе будущее, когда у нас будет эта бумажка или монета. Деньги стоят только того, что они могут дать нам позже, а то, что мы можем получить позже, заложено в определении стоимости Беллмана.

Работа Беллмана по формулированию последовательных процессов принятия решений таким образом действительно позволила ему стать "современным интеллектуалом", которым он стремился стать, перейдя в RAND. В годы после его первых публикаций, описывающих это решение, бесчисленные компании и правительственные организации начали применять его в мире. К 1970-м годам идеи Беллмана использовались для решения таких разнообразных задач, как проектирование канализационных систем, составление расписания авиаперевозок и даже управление исследовательскими отделами в таких крупных компаниях, как Monsanto. Техника получила название "динамическое программирование" - довольно банальное словосочетание, которое Беллман придумал для того, чтобы отгородиться от некоторых математически фобизированных военных. 1950-е годы были не самыми удачными для математических исследований", - написал Беллман в своей автобиографии. Корпорация RAND работала на ВВС, а начальником ВВС был [Чарльз] Уилсон. Поэтому я чувствовал, что должен сделать что-то, чтобы оградить Уилсона и ВВС от того факта, что я действительно занимаюсь математикой в корпорации RAND. ... Таким образом, я решил, что динамическое программирование - это хорошее название. Это было то, против чего не мог возразить даже конгрессмен. Поэтому я использовал его как зонтик для своей деятельности".

Применяя метод в каждой из этих ситуаций, инженеры должны были найти способ вычислить функцию стоимости. В некоторых случаях, как в примере с метро, приведенном выше, ландшафт проблемы достаточно прост, и расчеты не представляют сложности. Но простые проблемы редко бывают реалистичными. Реальный мир имеет большое количество потенциальных состояний; эти состояния могут соединяться друг с другом сложными и даже неопределенными способами; и они могут делать это посредством множества возможных действий. Много усилий было потрачено на поиск функции стоимости в этих сложных ситуациях. Однако даже при использовании хитроумных методов применение динамического программирования обычно упиралось в предел вычислительных мощностей того времени. Вычисление функции ценности всегда было узким местом в процессе. А без способа нахождения функции стоимости весь потенциал вклада Беллмана оставался бы нераскрытым.

* * *

В наследии Павлова есть своя ирония. Его непосредственным следствием стало возникновение бихевиоризма - религиозного движения, стремящегося игнорировать разум и сосредоточиться только на непосредственно измеряемом поведении. Однако порожденная им линия математических моделей добилась успеха в другом направлении, все больше углубляясь в сознание; чтобы отразить обучение с подкреплением в уравнениях, потребовалось использовать термины, обозначающие скрытые ментальные понятия.

Одно из известных расширений модели Буша-Мостеллера появилось 20 лет спустя, в 1972 году, и было разработано другим дуэтом, психологами из Йельского университета Робертом Рескорлой и Алланом Вагнером. Рескорла и Вагнер обобщили модель Буша-Мостеллера, сделав ее применимой к более широкому кругу экспериментальных условий и способной охватить большее количество результатов. Первое изменение, которое они внесли, касалось самого показателя, который модель пыталась объяснить.

Вероятность реакции" Буша и Мостеллера была слишком конкретной и ограниченной. Рескорла и Вагнер вместо этого стремились зафиксировать более абстрактную величину, которую они назвали "ассоциативной силой". Сила ассоциации между подсказкой и вознаграждением - это то, что существует в сознании участника, что не позволяет измерить ее напрямую, но в разных экспериментах ее можно попытаться определить разными способами. Это может включать измерение вероятности ответа, например, вероятности слюноотделения, а также другие показатели, такие как количество слюны или поведение, например, лай или движение. Таким образом, Рескорла и Вагнер включили модель Буша-Мостеллера в более широкую структуру.

Модель Рескорла-Вагнера также расширилась, включив в себя известную особенность экспериментов по обучению, называемую "блокированием". Блокирование происходит, когда первоначальная подсказка сопряжена с вознаграждением, а затем вместе с первой подсказкой дается вторая, и обе они сопряжены с вознаграждением. Например, после того как собака научилась ассоциировать звук зуммера с едой, экспериментатор одновременно со звуком зуммера включал свет, а затем давал еду. В модели Буша и Мостеллера сигналы рассматривались совершенно отдельно. Таким образом, если свет и зуммер были сопряжены с едой достаточное количество раз, собака должна была ассоциировать свет с едой так же, как она усвоила ассоциацию со зуммером. Тогда можно было бы ожидать, что показ одного только света вызовет у собаки слюноотделение. На самом деле все обстоит иначе: у собак не возникает слюноотделения в ответ на один только свет. Присутствие зуммера блокирует способность света ассоциироваться с едой.

Это служит еще одним доказательством того, что обучение происходит благодаря ошибкам. В частности, ошибки, связанные с прогнозируемым вознаграждением. Когда животное слышит звуковой сигнал, оно знает, что скоро будет еда. Поэтому, когда пища прибывает, нет никакой ошибки в предсказании вознаграждения. Как мы уже видели, это означает, что животное не обновляет свои убеждения относительно зуммера. Но это также означает, что он не обновляет свои убеждения ни о чем другом. Был ли свет включен одновременно со звуковым сигналом или нет, не имеет значения. Свет никак не влияет на предсказанное вознаграждение, полученное вознаграждение или разницу между ними, которая определяет ошибку предсказания - а без ошибки все остается как есть. Ошибка предсказания - это смазка, которая смазывает колеса обучения.

Таким образом, Рескорла и Вагнер сделали так, что обновление ассоциативной силы между одной подсказкой и вознаграждением зависело не только от текущей ассоциативной силы этой подсказки, но и от суммы ассоциативных сил всех присутствующих подсказок. Если одна из этих ассоциаций имеет высокую силу (например, если присутствует зуммер), то присутствие награды не изменит ни одну из них (ассоциация со светом не будет усвоена). Такое суммирование по нескольким сигналам также должно происходить внутри животного, что еще больше отражает отказ от бихевиоризма и переход к разуму.

Но переломный момент в обучении с подкреплением наступил в середине 1980-х годов благодаря работе канадского компьютерщика с хвостиком по имени Ричарди его советника по докторской диссертации Эндрю Барто. Саттон получил образование в области психологии и информатики, а Барто проводил много времени за чтением литературы по психологии. Это оказалось мощной комбинацией, так как их совместная работа использовала достижения обеих областей и приносила пользу.

В работе Саттона был удален последний материальный элемент модели - само вознаграждение. До этого момента момент обучения был связан с моментом получения или отказа от вознаграждения. Если вы почувствуете запах дыма от затушенной свечи, а затем вам вручат кусок праздничного торта, то ассоциация между этими двумя понятиями усилится. Но свеча, погасшая в конце религиозной церемонии, скорее всего, не сопровождается тортом, и поэтому ассоциация ослабевает. Однако в любом случае важной переменной является сам торт. Его присутствие или отсутствие является ключевым фактором. В качестве сигнала может выступать что угодно, но награда должна быть первобытной - еда, вода, секс. Но как только мы начинаем ассоциировать дым с праздничным тортом, мы можем заметить и другие закономерности. Например, дыму обычно предшествует пение, а пению могут предшествовать люди, надевающие глупые шляпы. Ни одна из этих вещей сама по себе не является вознаграждением (особенно пение, на большинстве вечеринок), но они образуют цепочку, которая в той или иной степени связывает каждую из них с основным вознаграждением. Знание этой информации может быть полезным: если мы хотим торт, то, возможно, нам помогут глупые шляпы.

Рескорла и Вагнер никак не могли допустить такого подкрепления ассоциаций - по сути, не было способа, чтобы подсказка, связанная с вознаграждением в одних обстоятельствах, играла роль вознаграждения в других. Но Саттону это удалось. В алгоритме Саттона, известном как "обучение временной разницей", убеждения обновляются в ответ на любое нарушение ожиданий. Например, когда вы идете по офисному коридору к своему столу, ожидания относительно вознаграждения могут быть довольно низкими. Но когда вы слышите, как ваши коллеги в конференц-зале начинают первый куплет песни "С днем рождения", это означает, что произошло нарушение. Убеждения должны быть обновлены; теперь вы находитесь в состоянии, когда вознаграждение уже на горизонте. Именно здесь происходит обучение временным различиям. Вы можете выбрать войти в конференц-зал, допеть песню, понюхать свечи и съесть торт. При выполнении этих действий не произойдет никаких дальнейших нарушений, а значит, не произойдет и дальнейшего обучения. Таким образом, не само получение вознаграждения вызывает какие-либо изменения. Единственное обучение произошло в коридоре, за много шагов до награды.

Чему именно здесь учат? Какая ментальная концепция была обновлена в коридоре? Это не ассоциация подсказки с вознаграждением - по крайней мере, не напрямую. Скорее, это сигнал, указывающий вам путь к вознаграждению, если вы сделаете правильные шаги в этом направлении.

Это может показаться знакомым, потому что обучение временным различиям помогает вам узнать функцию ценности. В каждый момент времени, согласно этой функции, у нас есть ожидания - по сути, ощущение того, как далеко мы находимся от вознаграждения, - которые определяют ценность состояния, в котором мы находимся. По мере того, как проходит время или мы совершаем действия в мире, мы можем оказаться в новых состояниях, которые имеют свои собственные связанные с ними ценности. Если мы правильно предвидели ценность этих новых состояний, то все в порядке. Но если ценность текущего состояния отличается от того, что мы предсказывали, когда находились в этом состоянии раньше, то это означает, что мы допустили ошибку. А ошибки побуждают к обучению. В частности, если значение текущего состояния больше или меньше, чем мы ожидали, когда находились в предыдущем состоянии, мы изменяем значение предыдущего состояния. То есть мы берем сюрприз, который произошел сейчас, и используем его для изменения наших представлений о прошлом. Таким образом, в следующий раз, когда мы окажемся в предыдущем состоянии, мы сможем лучше предсказать будущее.

Подумайте о поездке в парк аттракционов. Здесь ценность вашего местоположения измеряется тем, как далеко вы находитесь от этого полезного места. Выходя из дома, вы рассчитываете добраться туда за 40 минут. Вы едете прямо пять минут и выезжаете на шоссе. Теперь вы рассчитываете добраться до места через 35 минут. Через 15 минут езды по шоссе вы сворачиваете с него. Теперь ваше расчетное время прибытия составляет 20 минут. Но, выехав на съезд и свернув на боковую улицу, вы попадаете в пробку. Сидя в своем еле двигающемся автомобиле, вы понимаете, что будете в парке только через 30 минут. Теперь ваше ожидаемое время прибытия увеличилось на 10 минут - значительная ошибка.

Что следует извлечь из этой ошибки? Если бы у вас было точное представление о мире, то в момент съезда с дороги вы бы ожидали еще 30 минут езды. Таким образом, обучение по временной разнице говорит, что вы должны обновить значение состояния, связанного с этим выездом. То есть вы используете информацию, полученную в одном состоянии (пробка на обочине), чтобы обновить свои убеждения о ценности предыдущего состояния (выезд). И это может означать, что в следующий раз, когда вы поедете в этот парк развлечений, вы избежите этого выезда и выберете другой. Но для того, чтобы извлечь уроки из этой ошибки, не обязательно приезжать в парк развлечений на 10 минут позже; достаточно было ожидать, что это произойдет при виде пробки.


Алгоритм Саттона показывает, что путем простого исследования - методом проб и ошибок - люди, животные или даже искусственный интеллект могут в конце концов узнать правильную функцию ценности для тех состояний, которые они исследуют. Все, что для этого нужно, - обновлять ожидания, когда они меняются, - "учиться угадывать на основе угадывания", как описывает это Саттон.

Являясь продолжением работы Беллмана по динамическому программированию, обучение на основе временных разностей имело потенциал для решения реальных проблем. Простое правило обучения "момент за моментом" делало его привлекательным с точки зрения вычислительной техники: оно не требовало такого объема памяти, как программы, которым нужно было хранить весь набор действий, предшествовавших получению вознаграждения, прежде чем учиться на его основе. Кроме того, оно работало. Одним из самых ярких проявлений его возможностей стала TD-Gammon - компьютерная программа, обученная с помощью обучения временным различиям играть в настольную игру нарды. Настольные игры являются особенно полезными тестами для обучения с подкреплением, поскольку вознаграждение часто приходит только в самом конце игры, в виде выигрыша или проигрыша. Использование такого грубого и отдаленного сигнала для управления стратегией на самом первом ходу - сложная задача, но временное разностное обучение может ее решить. Созданная в 1992 году Джеральдом Тесауро, ученым из IBM, система TD-Gammon сыграла сотни тысяч партий против самой себя и в итоге достигла уровня игрока среднего уровня, ни разу не получив инструкций от человека. Поскольку он учился в изоляции, он также разрабатывал стратегии, не опробованные людьми (которые, как правило, под влиянием игрового процесса друг друга придерживаются определенного набора ходов). В итоге необычные ходы TD-Gammon повлияли на теорию и понимание самой игры в нарды.


В 2013 году в прессе появилось еще одно применение метода обучения временным различиям, на этот раз в видеоиграх. Ученые из компании DeepMind, занимающейся исследованиями в области искусственного интеллекта, создали компьютерную программу, которая научила себя играть в несколько игр из аркадной системы Atari 1970-х годов. Этот искусственный геймер получил полный опыт игры в Atari. Единственными входными данными для алгоритма были пиксели на экране - ему не было дано никаких специальных знаний о том, что некоторые из этих пикселей могут представлять собой космические корабли, биты для пинг-понга или подводные лодки. Действия, которые он мог выполнять, включали в себя стандартные кнопки: вверх, вниз, влево, вправо, A, B; а наградой для модели служила оценка, которую давала игра, в которую она играла. Поскольку в этом случае перед алгоритмом ставилась более сложная задача, чем в нардах, где, по крайней мере, понятия фигур и расположения заложены в исходные данные модели, исследователи объединили обучение временной разности с глубокими нейронными сетями (метод, с которым мы уже сталкивались в главе 3). Одна из версий этой глубокой нейронной сети насчитывала около 20 000 искусственных нейронов и после нескольких недель обучения достигла производительности на уровне человека в 29 из 49 протестированных игр. Поскольку этот алгоритм Atari также обучался асоциально, в итоге у него появились некоторые интересные причуды, в том числе он обнаружил хитроумный трюк для прохода сквозь стену в игре Breakout, где нужно разрушать кирпичи.

Игры - это яркий и забавный способ продемонстрировать возможности такого подхода, но на этом его применение не закончилось. После того как в 2014 году компания Google приобрела DeepMind, она поставила перед алгоритмами обучения с подкреплением задачу минимизировать энергопотребление в своих огромных центрах обработки данных. В результате было достигнуто 40-процентное снижение потребления энергии для охлаждения центров и, вероятно, экономия в сотни миллионов в течение нескольких лет. Алгоритмы обучения с подкреплением, ориентированные на достижение поставленной цели, находят творческие и эффективные решения сложных задач. Таким образом, эти инопланетные разумы могут помочь разработать планы, до которых человек никогда бы не додумался.

Пути последовательного принятия решений и павловского обусловливания представляют собой победу конвергентной научной эволюции. Пути Беллмана и Павлова начинаются с отдельных и существенных проблем, каждая из которых кипит своими требовательными деталями. Как больнице составить график работы медсестер и врачей, чтобы обслужить наибольшее количество пациентов? Что заставляет собаку выделять слюну, когда в ее ушах раздается звук зуммера? Казалось бы, эти вопросы не имеют ничего общего. Но если отбросить груз конкретики, оставив лишь голые кости проблемы, становится понятна их взаимосвязь. В этом и заключается одна из задач математики: поместить вопросы, не связанные между собой в физическом мире, в одно и то же концептуальное пространство, в котором может проявиться их глубинное сходство.

Таким образом, история обучения с подкреплением - это история успешного междисциплинарного взаимодействия. Она показывает, что психология, инженерия и информатика могут работать вместе, чтобы добиться прогресса в решении сложных проблем. Она демонстрирует, как математика может быть использована для понимания и воспроизведения способности животных и людей учиться у окружающей среды. Эта история и так была бы замечательной, если бы на этом закончилась. Но она на этом не заканчивается.

* * *


Октопамин - это молекула, содержащаяся в нервной системе многих насекомых, моллюсков и червей. Он назван так из-за того, что был обнаружен в слюнных железах осьминога в 1948 году. В мозге пчелы октопамин высвобождается при попадании нектара. В начале 1990-х годов Терри Сейновски, профессор Института Солка в Сан-Диего (Калифорния), и два сотрудника его лаборатории, Рид Монтегю и Питер Даян, задумались об октопамине. В частности, они построили модель - компьютерную симуляцию поведения пчел, - в центре которой находился нейрон в мозге пчелы, выделяющий октопамин. Они предположили, что выбор пчелы, на какие цветы садиться или избегать, можно объяснить с помощью модели обучения Рескорла-Вагнера, а нейронная цепь, включающая октопаминовый нейрон, может быть аппаратным обеспечением, реализующим эту модель. Но пока они решали эту октопаминовую головоломку, команда узнала о другом исследовании, проведенном примерно в 6000 миль от них немецким профессором по имени Вольфрам Шульц, посвященном химическому родственнику октопамина - дофамину.

Возможно, вы знакомы с допамином. В популярной культуре он пользуется определенной репутацией. В бесчисленных новостных статьях его называют "химическим веществом нашего мозга, связанным с удовольствием и вознаграждением" или рассказывают о том, что такие повседневные действия, как поедание кекса, вызывают "всплеск химического вещества допамина, способствующего вознаграждению, в области мозга, где принимаются решения". Его называют "молекулой удовольствия", и нередко под этим мощным названием продаются товары. Поп-звезды называют в его честь альбомы и песни. Дофаминовые диеты" утверждают (без доказательств), что продукты, повышающие уровень дофамина, помогают сохранить стройность. А технологический стартап Dopamine Labs пообещал повысить вовлеченность пользователей в телефонные приложения за счет нейротрансмиттера. Это бедное химическое вещество знаменитостей также очень сильно задело - его называют источником всех зависимостей и дезадаптивных форм поведения. Появились онлайн-сообщества вроде The Dopamine Project, цель которых - обеспечить "лучшую жизнь через осознание дофамина". А некоторые жители Силиконовой долины даже пытались устраивать "дофаминовые голодания", чтобы отдохнуть от постоянного переизбытка стимуляции.

Хотя это правда, что выброс дофамина может сопровождать вознаграждение, это далеко не вся история. В частности, в исследовании Шульца был показан случай, когда нейроны, выделяющие дофамин, молчали, когда получали вознаграждение.

В частности, Шульц обучал обезьян протягивать руку вперед, чтобы получить немного сока. Во время обучения он регистрировал активность группы дофамин-выделяющих нейронов, расположенных в нижней части мозга. Шульц заметил, что в конце обучения - когда животные знали, что получат сок, протянув руку, - эти нейроны вообще никак не реагировали на выдачу вознаграждения в виде сока.

Когда Шульц впервые опубликовал эти результаты, у него не было четкого объяснения, почему дофаминовые нейроны ведут себя именно так, но у членов лаборатории Сейновски оно было. И они обратились к Шульцу, чтобы начать сотрудничество, в ходе которого была бы проверена гипотеза о том, что дофаминовые нейроны кодируют ошибки предсказания, необходимые для обучения по временной разнице. Это стало началом того, что Сейновски назвал "одним из самых захватывающих научных периодов в моей жизни

Даян и Монтегю попытались проанализировать данные Шульца через призму алгоритмов обучения. Они сосредоточились на простейшем эксперименте Шульца, который заключался в том, что в нужном месте включался свет, и если животное тянулось к нему, то через полсекунды подавалась капля сока. Их интересовало, как изменяется реакция дофаминовых нейронов по мере того, как животное усваивает эту ассоциацию. Но их также интересовало особое обстоятельство после обучения: что происходит, когда сок не следует за светом. Если животные усвоили ассоциацию "свет-сок", они должны были знать, что ожидать этого, и если сок не появлялся, это было бы значительной ошибкой предсказания. Отразили ли это дофаминовые нейроны?

Нейроны, выделяющие дофамин, обычно производят около пяти всплесков в секунду, когда ничего особенного не происходит. В начале процесса обучения, сразу после того, как животное, сделав движение рукой, получило, как казалось, неожиданную порцию сока, этот показатель ненадолго подскочил примерно до 20 шипиков в секунду. Однако свет, предшествующий движению, ничего не вызывал. Но после достаточного количества пар, когда животное поняло, как связаны между собой свет, достижение и сок, эта картина изменилась. Нейроны дофамина перестали реагировать на сок. Это изменение полностью соответствует представлению о том, что они сигнализируют об ошибке предсказания, поскольку, как только животное может правильно предсказать появление сока, ошибки больше нет. И они начали реагировать на свет. Почему? Потому что свет стал ассоциироваться с вознаграждением, но - что очень важно - они не знали, когда он включится. Когда он появился, это была ошибка. Точнее, это ошибка в предсказанном значении состояния животного. Сидя в экспериментальном кресле и занимаясь своими делами, обезьяна ожидает, что следующий момент будет более или менее похож на текущий. Когда включается свет, это ожидание нарушается. Как если бы вы услышали первые несколько тактов песни "С днем рождения" в коридоре своего офиса - приятный сюрприз, но тем не менее сюрприз.

Последний анализ, проведенный при спорадическом отказе от сока после достижения, был направлен на то, чтобы увидеть, как кодируются неприятные сюрпризы. Если дофамин кодирует ошибки, то он должен указывать и на то, когда ситуация хуже, чем ожидалось. И когда сок отсутствовал, нейроны именно это и делали. У них наблюдался спад в стрельбе как раз в то время, когда сок должен был быть доставлен. Точнее, в ответ на свет нейроны сбрасывали от пяти до 20 импульсов в секунду; затем, когда животное протягивало руку, их количество возвращалось к пяти. Но примерно через полсекунды после протягивания руки, когда становилось ясно, что сок не поступает, они полностью отключались. Ожидание было нарушено, и дофаминовые нейроны давали об этом знать.

Это исследование показало, что срабатывание дофаминовых нейронов может сигнализировать об ошибках - как положительных, так и отрицательных - относительно прогнозируемых значений, которые необходимы для обучения. Таким образом, оно стало важным моментом в изменении понимания дофамина от молекулы удовольствия до педагогического.

Однако если смысл кодирования ошибки заключается в том, чтобы извлечь из нее уроки, то где происходит это обучение? Оказывается, это не так просто определить, потому что дофамин-выделяющие нейроны выделяют дофамин во многих уголках мозга; их проекции пронизывают мозг, как трубы, затрагивая близкие и далекие области.Тем не менее,сайте есть место, которое кажется особенно важным, - это стриатум. Стриатум - это группа нейронов, которая служит первичным входом для целого ряда областей мозга, участвующих в управлении движениями и действиями. Нейроны в стриатуме способствуют формированию поведения, связывая сенсорные сигналы с действиями или действия с другими действиями.

Как мы видели в главе 4, гебистское обучение - это простой способ закодировать ассоциации между идеями в связях между нейронами. По правилам Хеббиана, если один нейрон регулярно срабатывает раньше другого, вес связи от первого ко второму усиливается. Однако в обучении с подкреплением нам нужно не просто знать, что два события произошли в близкое время. Нам нужно знать, как эти события связаны с вознаграждением. В частности, мы хотим обновить вес связи между сигналом и действием (например, увидеть свет и потянуться к нему) только в том случае, если эта пара окажется связанной с вознаграждением.

Таким образом, нейроны в стриатуме не следуют базовому гебистскому обучению. Вместо этого они следуют модифицированной форме, при которой срабатывание одного нейрона перед другим укрепляет их связь только в том случае, если это происходит в присутствии дофамина. Таким образом, дофамин, который кодирует сигнал об ошибке, необходимый для обновления значений, также требуется для физических изменений, необходимых для обновления, которые происходят в синапсе. Таким образом, дофамин действительно действует как смазка для обучения.

Появление языка изучения временных различий, на котором можно говорить о работе мозга, изменило разговор на такие клинические темы, как зависимость. Одна из теорий, выдвинутая в 2004 году нейробиологом Дэвидом Редишем, пытается объяснить вызывающие зависимость свойства таких наркотиков, как амфетамин и кокаин, с точки зрения их влияния на высвобождение дофамина. Он утверждает, что эти наркотики вызывают выброс дофамина, который не зависит от истинной ошибки предсказания. Точнее, перегружая дофаминовые нейроны, эти наркотики посылают в остальной мозг ложный сигнал о том, что наркотический опыт всегда лучше, чем ожидалось. Этот ошибочный сигнал об ошибке все еще стимулирует обучение, подталкивая оценочную стоимость состояний, связанных с употреблением наркотиков, все выше и выше. Подобная деформация функции ценности гарантированно оказывает пагубное влияние на поведение, подобное тому, что наблюдается при наркомании.6

* * *

Дэвид Марр - британский нейробиолог с математическим образованием. Его книга "Видение: A Computational Investigation into the Human Representation and Processing of Visual Information" была опубликована в 1982 году, через два года после его смерти. В первой главе он излагает компоненты, необходимые для успешного анализа нейронной системы. По мнению Марра, чтобы понять любой кусочек мозга, мы должны быть в состоянии объяснить его на каждом из трех уровней: вычислительном, алгоритмическом и реализационном. На вычислительном уровне спрашивается, какова общая цель этой системы, то есть что она пытается сделать? На алгоритмическом уровне спрашивается, как, то есть с помощью каких шагов, она достигает этойцели. И наконец, уровень реализации спрашивает, какие именно части системы - какие нейроны, нейротрансмиттерыи т. д. - выполняют эти шаги.

Объяснение, охватывающее все уровни Марра, - это стремление, к которому стремятся многие нейробиологи. Системы, осуществляющие обучение с подкреплением, - редкий случай, когда они могут приблизиться к этой высокой планке. На вычислительном уровне у обучения с подкреплением есть простой ответ: максимизировать вознаграждение. Это то, что Беллман считал целью последовательных процессов принятия решений, и то, чего вы должны достичь, следуя функции ценности. Но как узнать функцию ценности? Вот тут-то и приходит на помощь обучение временным различиям. Работы Буша, Мостеллера, Резорлы, Вагнера и Саттона превратили стопки данных, полученных в ходе экспериментов по обучению, в строки символов, которые могли бы описать алгоритм, необходимый для выполнения обучающей части обучения с подкреплением. На уровне реализации дофаминовые нейроны берут на себя задачу вычисления ошибки предсказания, а сигналы, которые они посылают в другие области мозга, управляют усвоенными там ассоциациями. Таким образом, удовлетворительное понимание фундаментальной способности - учиться на вознаграждениях - было достигнуто благодаря тому, что мы подошли к этой теме с разных сторон.

 

Глава 12. Великие единые теории мозга.

Принцип свободной энергии, теория тысячи мозгов и интегральная теория информации

 

Один из самых сильных толчков в истории науки произошел в физике в середине девятнадцатого века. Джеймс Клерк Максвелл, шотландский математик, опубликовал свою работу из семи частей "Динамическая теория электромагнитного поля" в 1865 году. С помощью этого марафона проницательных аналогий и уравнений Максвелл продемонстрировал глубокую и важную взаимосвязь между двумя и без того важными формами физического взаимодействия: электричеством и магнетизмом. В частности, определив теорию электромагнитного поля, Максвелл создал математическую инфраструктуру, необходимую для того, чтобы рассматривать уравнения электричества и магнетизма как две стороны одной медали. В процессе работы он пришел к выводу, что третий важный объект - свет - является волной в этом электромагнитном поле.

Ученые, конечно, изучали электричество, магнетизм и свет на протяжении столетий до Максвелла. И они многое узнали о них, о том, как они взаимодействуют и как их можно использовать. Но объединение Максвелла дало нечто принципиально иное - совершенно новый способ интерпретации физического мира. Оно стало первой доминошкой в череде эпохальных открытий в основополагающей физике и проложило путь для многих современных технологий. Например, работа Эйнштейна была построена на теории электромагнитного поля, и он, как сообщается, приписывал свой успех тому, что стоял "на плечах Максвелла".

Однако теория Максвелла не только оказала непосредственное влияние на исследования, но и заронила в умы будущих физиков мысль о том, что между физическими силами могут существовать более глубокие связи. Раскрытие этих связей стало главной целью теоретической физики. В двадцатом веке начался явный поиск так называемых больших единых теорий (GUT). На первом месте в списке задач стоял поиск ГУТ, которая могла бы объединить электромагнетизм с двумя другими силами: слабой силой (которая управляет радиоактивным распадом) и сильной силой (которая удерживает атомные ядра вместе). Большой шаг в этом направлении был сделан в начале 1970-х годов с открытием того, что слабые силы и электромагнетизм становятся единым целым при очень высоких температурах. Но, несмотря на это, при объединении сильных и слабых сил остается еще одна большая сила - гравитация. Поэтому физики продолжают поиски полного ГУТ.

ГУТ учитывают эстетические предпочтения многих физиков: простота, элегантность, целостность. Они демонстрируют, как целое может стать больше, чем сумма его частей. До определения ГУТ ученые подобны слепцам, ощупывающим слона в старой притче. Каждый из них полагается на те крохи информации, которые он может ухватить из хобота, ноги или хвоста. Благодаря этому они придумывают отдельные и неполные истории о том, что делает каждый кусочек. Однако, увидев слона целиком, все части становятся на свои места, и каждая из них становится понятной в контексте других. Глубокая мудрость, полученная в результате нахождения GUT, не может быть приближена изучению частей по отдельности. Поэтому, как бы трудно их ни было найти, физическое сообщество считает поиск ГУТ достойным занятием. Как писал физик Димитри Нанопулос в 1979 году, вскоре после того, как он помог придумать эту фразу, "великие единые теории дают очень хорошее и правдоподобное объяснение целому ряду различных и на первый взгляд не связанных между собой явлений, и они определенно имеют достоинства и право на то, чтобы их воспринимали серьезно".

Но стоит ли воспринимать ГУТ мозга всерьез? Идея о том, что небольшое количество простых принципов или уравнений сможет объяснить все, что касается формы и функций мозга, привлекательна по тем же причинам, по которым ГУТ желанны в физике. Однако большинство ученых, изучающих мозг, сомневаются в возможности их существования. Как пишут психологи Майкл Андерсон и Тони Чемеро: "Есть все основания полагать, что не может существовать большой единой теории функционирования мозга, потому что есть все основания полагать, что такой сложный орган, как мозг, функционирует по разным принципам". GUT для мозга, каким бы замечательным он ни был, многие считают фантазией.

С другой стороны, многое из того, что было привнесено из физики в нейронауку, - модели, уравнения, образ мышления - помогло продвинуть эту область в том или ином направлении. ГУТ, являющиеся ядром современной физики, трудно игнорировать. Они могут быть манящими для тех, кто изучает мозг, даже если они кажутся маловероятными, а для некоторых ученых они просто слишком соблазнительны, чтобы их пропустить.

Поиск ГУТ в мозге - это работа с высоким риском и высокой наградой. Поэтому для его ведения, как правило, требуется крупная личность. У большинства кандидатов на ГУТ мозга есть своего рода фронтмен - ученый, обычно тот, кто первым разработал теорию, который выступает в качестве ее публичного лица. Чтобы добиться успеха ГУТ, также требуется преданность делу: сторонники теории будут работать над ее совершенствованием годами, даже десятилетиями. Они постоянно ищут новые способы применить свою теорию ко всем аспектам мозга, которые только могут найти. Пропаганда тоже важна: даже самая грандиозная ГУТ не сможет многого объяснить, если о ней никто не слышал. Поэтому было написано множество работ, статей и книг, чтобы донести информацию о GUT не только до научного сообщества, но и до всего мира. Однако энтузиастам GUT лучше иметь толстую кожу. Продвижение таких теорий может быть встречено с презрением со стороны массы ученых, выполняющих более надежную работу по изучению мозга по частям.

Социолог Мюррей С. Дэвис предложил свои размышления о теориях в статье 1971 года под названием "Это интересно!". В ней он сказал: "Долгое время считалось, что теоретик считается великим, потому что его теории верны, но это неверно. Теоретик считается великим не потому, что его теории истинны, а потому, что они интересны... На самом деле истинность теории имеет очень мало общего с ее влиянием, поскольку теория может оставаться интересной, даже если ее истинность оспаривается - даже опровергается! Великие единые теории мозга, какова бы ни была их истинность, несомненно, интересны.

* * *

В целом веселый и мягкий, британский нейробиолог Карл Фристон не совсем подходит на роль лидера амбициозного и противоречивого научного движения. Тем не менее у него есть преданные последователи. Ученые - от студентов до профессоров, в том числе и те, кто находится далеко за пределами традиционных границ нейронауки, - ритуально собираются по понедельникам, чтобы получить несколько минут его озарений. Они приходят за его уникальной мудростью в основном по одной теме. Это всеобъемлющая основа, на которой Фристон уже более 15 лет строит понимание мозга, поведения и других процессов: принцип свободной энергии.

Свободная энергия" - это математический термин, определяемый различиями между распределениями вероятностей. Однако его значение в системе Фристона можно сформулировать довольно просто: свободная энергия - это разница между предсказаниями мозга о мире и фактической информацией, которую он получает. Принцип свободной энергии гласит, что все, что делает мозг, можно понимать как попытку минимизировать свободную энергию - то есть сделать так, чтобы предсказания мозга как можно больше соответствовали реальности.

Вдохновленные таким способом понимания, многие исследователи занялись поиском того, где в мозге могут делаться предсказания и как они могут сверяться с реальностью. Небольшая отрасль исследований, построенная на идее "предиктивного кодирования", изучает, как это может происходить, в частности, в сенсорной обработке. В большинстве моделей предиктивного кодирования информация проходит через систему сенсорной обработки в обычном режиме. Например, слуховая информация поступает из ушей, сначала проходит через области ствола и среднего мозга, а затем последовательно проходит через несколько областей в коре головного мозга. Этот прямой путь широко признан решающим для превращения сенсорной информации в восприятие даже теми исследователями, которые не слишком доверяют теории предиктивного кодирования.

Уникальность предиктивного кодирования заключается в том, что оно утверждает об обратном пути - связях, идущих от более поздних областей к более ранним (например, от второй слуховой области в коре головного мозга обратно к первой). В целом ученые выдвинули множество гипотез о различных ролях этих проекций. Согласно гипотезе предиктивного кодирования, эти связи несут в себе предсказания. Например, когда вы слушаете любимую песню, ваша слуховая система может иметь очень точное представление о предстоящих нотах и тексте. В соответствии с моделью предиктивного кодирования эти предсказания отправляются назад и объединяются с поступающей вперед информацией о том, что на самом деле происходит в мире. Сравнивая эти два потока, мозг может вычислить ошибку между предсказанием и реальностью. Фактически, в большинстве моделей кодирования предсказаний особые нейроны "ошибки" наделены именно этой задачей. Таким образом, их активность указывает на то, насколько мозг ошибся: если они часто стреляют, значит, ошибка в предсказании была высокой, если молчат - низкой. Таким образом, активность этих нейронов является физическим воплощением свободной энергии. И, согласно принципу свободной энергии, мозг должен стремиться к тому, чтобы эти нейроны работали как можноменьше.

Существуют ли такие ошибочные нейроны в сенсорных путях? И учится ли мозг их заглушать, делая более точные прогнозы о мире? Ученые ищут ответы на эти вопросы уже много лет. Например, исследование, проведенное учеными из Франкфуртского университета имени Гете, показало, что некоторые нейроны в слуховой системе действительно снижают свою активность, когда слышится ожидаемый звук. В частности, исследователи научили мышей нажимать на рычаг, издающий шум. Когда мыши слышали ожидаемый звук после нажатия на рычаг, их нейроны реагировали меньше, чем если бы этот же звук воспроизводился случайным образом или если бы рычаг издавал неожиданный звук. Это говорит о том, что у мышей в голове было предсказание, и нейроны их слуховой системы срабатывали чаще, когда это предсказание нарушалось. В целом, однако, доказательства предиктивного кодирования неоднозначны. Не все исследования, направленные на поиск нейронов с ошибками, находят их, и даже если находят, эти нейроны не всегда ведут себя именно так, как предсказывает гипотеза предиктивного кодирования.

Сделать мозг более совершенной предсказательной машиной может показаться самым очевидным способом минимизации свободной энергии, но это не единственный способ. Поскольку свободная энергия - это разница между предсказаниями мозга и опытом, ее также можно минимизировать, контролируя опыт. Представьте себе птицу, которая привыкла летать по определенному лесу; она может предсказать, какие деревья подойдут для строительства гнезда, где находится лучшая пища и так далее. Однажды она вылетает за пределы своего обычного ареала и оказывается в городе. Впервые столкнувшись с высокими зданиями и автомобильным движением, он теряет способность предсказывать практически все, что касается окружающего его мира. Такое большое расхождение между предсказаниями и опытом означает, что свободная энергия высока. Чтобы снизить свободной энергии, птица может остаться здесь и надеяться, что ее сенсорные системы адаптируются, чтобы быть в состоянии предсказывать особенности городской жизни. Или же она может просто улететь обратно в лес, откуда прилетела. Наличие второго варианта - выбора действий, которые приводят к предсказуемым сенсорным ощущениям, - делает принцип свободной энергии кандидатом на роль ГУТ мозга. Этот принцип не просто объясняет особенности сенсорной обработки, он может охватывать и решения о поведении.

Принцип свободной энергии действительно использовался для объяснения восприятия, действия и всего, что между ними. Он включает в себя такие процессы, как обучение, сон и внимание, а также такие расстройства, как шизофрения и зависимость. Также утверждается, что этот принцип может объяснить анатомию нейронов и областей мозга, а также детали их взаимодействия. На самом деле Фристон даже не ограничивает свободную энергию мозгом. Он утверждал, что она является руководящим принципом всей биологии и эволюции и даже способом понимания основ физики.

Эта склонность пытаться упаковать сложные темы в простые пакеты не покидала Фристона на протяжении всей его жизни. В статье, опубликованной в 2018 году в журнале Wired, он вспоминает мысль, которая пришла ему в голову в подростковом возрасте: "Должен быть способ понять все, начав с нуля... Если мне позволено начать только с одной точки во всей Вселенной, могу ли я вывести из нее все остальное, что мне нужно?". В мире принцип свободной энергии - это почти ничто, которое может объяснить почти все.

Однако за пределами мира Фристона возможности принципа свободной энергии не всегда столь очевидны. Учитывая его грандиозные обещания, бесчисленные ученые пытались разобраться во всех тонкостях теории Фристона. Лишь немногие (даже те, кто считает себя поклонниками этого принципа) считают свои попытки полностью успешными. Дело не в том, что уравнения слишком сложны - многие ученые посвятили свою жизнь постижению математики разума. Скорее, для того чтобы экстраполировать и применить принцип свободной энергии ко всем закоулкам и закоулкам работы мозга, требуется интуиция, которая, похоже, сильнее всего развита у самого Фристона. Не имея четкого и объективного способа интерпретации свободной энергии в каждом конкретном случае, Фристон вынужден играть роль шептуна свободной энергии, излагая свою точку зрения на ее последствия в бесчисленных статьях, выступлениях и понедельничных встречах.

Путаница вокруг принципа свободной энергии, скорее всего, вызвана его особенностью, которую Фристон охотно признает: он не поддается фальсификации. Большинство гипотез о том, как функционирует мозг, поддаются фальсификации - то есть выдвигают утверждения, ошибочность которых можно доказать с помощью экспериментов. Однако принцип свободной энергии - это скорее способ взглянуть на мозг, чем сильное или конкретное утверждение о том, как он работает. Как сказал Фристон: "Принцип свободной энергии - это то, чем он является, - принцип... С ним мало что можно сделать, если только не спрашивать, соответствуют ли измеряемые системы этому принципу". Другими словами, вместо того чтобы пытаться делать чистые предсказания о мозге на основе принципа свободной энергии, ученые должны спросить, помогает ли им этот принцип увидеть вещи в новом свете. Пытаетесь понять, как работает та или иная часть мозга? Спросите, не минимизирует ли он каким-то образом свободную энергию. Если это приведет к прогрессу - отлично; если нет - тоже хорошо. Таким образом, принцип свободной энергии - это в лучшем случае строительные леса, на которые можно повесить факты о мозге. В той мере, в какой он может связать множество фактов, он грандиозен и в некоторой степени объединяющий; однако без фальсифицируемости его статус как теории более сомнителен.

* * *

Numenta - небольшая технологическая компания, базирующаяся в Редвуд-Сити, штат Калифорния. Она была основана Джеффом Хокинсом, предпринимателем, который ранее основал две компании, выпускавшие предшественников современных смартфонов. Numenta, с другой стороны, производит программное обеспечение. Компания разрабатывает алгоритмы обработки данных, помогающие биржевым брокерам, дистрибьюторам энергии, IT-компаниям и т. п. выявлять и отслеживать закономерности в потоках поступающих данных. Однако главная цель Numenta - реинжиниринг мозга.

Даже сделав блестящую карьеру в сфере технологий, Хокинс всегда интересовался мозгом. Несмотря на то что сам он так и не получил степень в этой области, в 2002 году он основал Redwood Neuroscience Institute. Впоследствии этот институт стал частью Калифорнийского университета в Беркли, а Хокинс в 2005 году перешел в компанию Numenta. Работа Numenta основана в основном на идеях, изложенных в книге 2004 года "Об интеллекте", написанной Хокинсом в соавторстве с Сандрой Блейксли. В книге кратко изложена теория Хокинса о том, как неокортекс - тонкий слой мозговой ткани, покрывающий поверхность мозга млекопитающих, - работает для создания ощущений, познания, обучения, движения и многого другого. Это набор идей, который теперь проходит под названием "Теория интеллекта тысячи мозгов".

В центре теории тысячи мозгов находится часть нейроархитектуры, известная как кортикальная колонка. Кортикальные колонки - это небольшие участки клеток, меньше кончика карандаша в диаметре и примерно в четыре раза больше в длину. Они названы так потому, что образуют цилиндры, идущие от верхней части неокортекса к нижней, подобно множеству параллельных нитей спагетти. Если посмотреть на колонку в продольном направлении, она напоминает листы осадка: нейроны разделены на шесть хорошо различимых слоев. Нейроны в разных слоях взаимодействуют друг с другом, посылая связи вверх или вниз. Как правило, все нейроны в колонке выполняют одну и ту же функцию: например, они могут одинаково реагировать на сенсорный сигнал. Однако разные слои, по-видимому, служат разным целям: некоторые слои, например, получают входные сигналы из других областей мозга, а другие посылают выходные сигналы.

Вернон Маунткасл, специалист по сенсорной нейронауке, который впервые выделил эти колонки в середине XX века, считал, что они представляют собой фундаментальную анатомическую единицу мозга. Хотя это противоречило догмам того времени, Маунткэсл видел потенциал в идее единой повторяющейся единицы, которая покрывает весь неокортекс, - единой единицы, способной обрабатывать все разнообразие информации, получаемой корой головного мозга. Хокинс с этим согласен. В своей книге он называет работу Маунткэсла "Розеттским камнем нейронауки", потому что это "единая идея, которая объединила все разнообразные и удивительные возможности человеческого разума

Чтобы понять, чем, по мнению Хокинса, занимаются эти мини-процессоры, нужно рассмотреть и время, и пространство. Если принять тот факт, что разумные машины будут работать по принципам неокортекса, - сказал Хокинс в интервью 2014 года, - то "время - это все". Входы в мозг постоянно меняются, и это делает статичную модель работы мозга крайне неполной. Более того, результаты работы мозга - поведение, производимое телом, - распространяются как в пространстве, так и во времени. По мнению Хокинса, активное перемещение тела в пространстве и получение в ответ динамичных потоков сенсорных данных помогает мозгу глубоко понять мир.

Неврологи знают немного о том, как животные перемещаются по миру. Это во многом связано с типом нейронов, называемых "клетками сетки" (см. рис. 26).3 Клетки сетки - это нейроны, которые активны, когда животное находится в определенных местах. Представьте себе мышь, бегущую по открытому полю. Одна из ее решетчатых клеток будет активна, когда мышь окажется прямо в центре поля. Эта же клетка будет активна, когда мышь переместится на несколько длин тела к северу от центра, а затем снова на несколько длин к северу от него. Та же картина активности будет наблюдаться, если мышь переместится на 60 градусов к западу от севера. В самом деле, если составить карту всех мест, где активна эта клетка, то она будет представлять собой горошек по всему полю . Все эти точки будут равномерно распределены по вершинам треугольной сетки (отсюда и название). Различные ячейки сетки различаются по размеру и ориентации этой сетки, но все они имеют одну общую особенность.

 

Рисунок 26

Впечатленный их способностью представлять пространство, Хокинс сделал ячейки сетки неотъемлемой частью своей теории о том, как неокортекс познает мир. Однако существует проблема: клетки решетки не находятся в неокортексе. Вместо этого они находятся в эволюционно более древней части мозга, известной как энторинальная кора. Несмотря на отсутствие доказательств существования клеток решетки за пределами этого региона, Хокинс предположил, что на самом деле они прячутся в шестом слое каждой колонки неокортекса.

Что именно они там делают? Чтобы объяснить это, Хокинс любит использовать пример, когда вы проводите пальцем по кофейной чашке (Хокинс на самом деле приписывает возникновение своей теории моменту эврики, который он пережил, созерцая кофейную чашку, и даже приносит чашку на переговоры для демонстрации). Колонки в сенсорной части неокортекса будут получать сигналы от кончика пальца. Согласно теории Хокинса, клетки решетки в нижней части этих колонок также будут отслеживать местоположение кончика пальца. Комбинируя информацию о том, где находится палец и какова на ощупь чашка, колонка может узнать форму объекта, перемещаясь вокруг него. В следующий раз, когда встретится тот же объект, колонка сможет использовать эти накопленные знания для его распознавания.

Поскольку эти корковые колонки существуют во всем неокортексе, этот процесс может происходить параллельно повсюду. Например, колонки, представляющие другие части руки, будут строить свои собственные модели кофейной чашки по мере соприкосновения с ней. А участки зрительной системы, объединяя визуальную информацию с расположением глаз, тоже строили бы свое представление о чашке. В общем, целостное понимание мира строится благодаря этим распределенным вкладам, как будто тысячи мозгов работают в унисон.

Теория Хокинса постоянно развивается, и многие детали еще не проработаны, но он возлагает на нее большие надежды. По его мнению, как колонки могут изучать формы буквальных объектов, так и они могут изучать формы абстрактных объектов. Навигация в пространстве мысли или языка может осуществляться с помощью тех же механизмов, что и навигация в реальном, физическом мире. Если это правда, то это объясняет, как повторяющийся паттерн в неокортексе может использоваться для выполнения стольких различных действий - от зрения до слуха, от движения до математики.

Однако то, насколько идентичны эти колонки, является предметом споров. С первого взгляда неокортекс может показаться однородной мозаикой, но при ближайшем рассмотрении обнаруживаются различия. Некоторые исследования показали, что размер колонок, количество и тип содержащихся в них нейронов, а также их взаимодействие друг с другом в разных областях неокортекса различаются. Если эти колонки не анатомически идентичны, то они могут отличаться и по функциям. Это означает, что каждая область мозга может быть более специализированной для выполнения тех задач, которые ей приходится решать, чем предполагает теория тысячи мозгов. Если это так, то надежда на универсальный алгоритм интеллекта может рухнуть.

Как видно из этой книги, математические модели мозга обычно строятся путем выделения из огромного количества имеющихся данных нескольких фактов, которые кажутся релевантными. Затем эти факты упрощаются и собираются воедино таким образом, чтобы продемонстрировать, как теоретически может работать часть мозга. Кроме того, выясняя, как именно собрать воедино эту игрушечную версию биологии, можно сделать несколько новых и удивительных предсказаний. Если сравнивать с этой схемой, то "Теория тысячи мозгов" - это модель, подобная любой другой в нейронауке. Действительно, многие из составляющих ее концепций - колонки, ячейки сетки, распознавание объектов - уже были подробно изучены как экспериментально, так и с помощью вычислений. Таким образом, теория не является уникальной; это предположение, которое может быть правильным, может быть неправильным или может - как и многие теории - быть немного и тем, и другим.

Возможно, работу Хокинса и Numenta отличает просто неослабевающий оптимизм в отношении того, что этот случай - другой, что впервые ключ, который откроет все двери коры головного мозга, действительно находится в пределах досягаемости. Когда в интервью 2019 года Хокинса спросили, насколько далеко еще до полного понимания неокортекса, он ответил: "Я чувствую, что уже прошел один этап. Так что если я смогу правильно выполнять свою работу в течение следующих пяти лет - то есть я смогу проповедовать эти идеи, убеждать других людей в их правильности, мы сможем показать, что другим специалистам по машинному обучению стоит обратить внимание на эти идеи, - то мы определенно окажемся в промежутке до 20 лет". Такая уверенность не часто встречается у ученых, а поскольку у Хокинса есть частное финансирование для поддержки, эта уверенность не сдерживается обычным научным давлением.

Хокинс известен своей самоуверенностью в своих утверждениях о мозге. Однако в прошлом его способность выполнять обещания по созданию прорывных алгоритмов на основе мозга вызывала сомнения. Джеффри Хинтон, один из лидеров в области исследований искусственного интеллекта, назвал вклад Хокинса в эту область "разочаровывающим". А в 2015 году профессор психологии Гэри Маркус сравнил работу Numenta с другими методами искусственного интеллекта, заявив: "Я не видел ни одного убедительного аргумента в пользу того, что они дают лучшую производительность в любой важной проблемной области". Каковы шансы "Теории тысячи мозгов" когда-нибудь предоставить в распоряжение специалистов набор действительно универсальных механизмов интеллекта? Только время - концепция, занимающая центральное место в мышлении Хокинса, - покажет это.

* * *

По некоторым оценкам, ни одна теория мозга не может быть полной без объяснения его самой большой и долговечной загадки - сознания. Слово на букву "С" может быть сложной темой для ученых, поскольку оно отягощено многовековым философским багажом. Однако в глазах некоторых исследователей точное научное определение, которое можно было бы использовать не только для идентификации, но и для количественной оценки сознания, где бы оно ни существовало, является святым Граалем их работы. Это также обещание "интегральной теории информации".


Интегральная теория информации (или ИТИ) - это попытка определить сознание с помощью уравнения. Изначально она была предложена итальянским нейробиологом Джулио Тонони в 2004 году, и с тех пор он и другие исследователи продолжают ее развивать. IIT предназначена для измерения сознания в чем угодно: в компьютерах, камнях и инопланетянах так же легко, как и в мозге. Выдвигая универсальное утверждение о том, что такое сознание, он отличается от более биологически ориентированных теорий, разработанных некоторыми нейробиологами.

IIT способен освободиться от специфических физических особенностей мозга, потому что его вдохновение исходит из другого источника: интроспекции. Размышляя о сознательном опыте от первого лица, Тонони пришел к пяти важным характеристикам, фундаментальным для сознания; это "аксиомы", на которых строится IIT. Первая аксиома - это основной факт существования сознания. Другие включают в себя наблюдение, что сознательный опыт состоит из множества различных ощущений, опыт специфичен, он предстает перед нами как единое целое и является уникальным - ни больше, ни меньше - тем, что он есть.

Тонони рассмотрел, какие виды систем обработки информации могут породить эти аксиомы опыта. Благодаря этому он смог перевести аксиомы в математические термины. В итоге получилась единая мера так называемой "интегрированной информации", которую Тонони обозначил греческой буквой phi. В целом phi показывает, насколько перемешана информация в системе. Предполагается, что правильное смешение дает богатство и целостность опыта. Согласно IIT, чем выше phi у системы, тем более осознанной она является.


Как оказалось, вычислить phi для системы любой разумной степени сложности практически невозможно. В случае с человеческим мозгом это потребовало бы проведения практически бесконечного количества экспериментов, чтобы выяснить, как взаимодействуют различные подструктуры мозга. Даже если это удастся сделать, начнется долгая и изнурительная серия вычислений. Чтобы преодолеть это препятствие, были разработаны многочисленные приближения к phi. Благодаря этому можно сделать обоснованное предположение о значении phi в системе. Это было использовано для объяснения того, почему определенные состояния мозга приводят к более осознанному опыту, чем другие. Например, во время сна способность нейронов к эффективной коммуникации прерывается. Это делает мозг менее способным интегрировать информацию, что приводит к снижению phi. Согласно теории Тонони, подобные рассуждения могут объяснить и бессознательное состояние, возникающее при припадках.

Теория также делает некоторые, возможно, удивительные предсказания. Например, phi среднего термостата невелик, но все же не равен нулю. Это означает, что устройство, регулирующее температуру в вашей комнате, обладает определенным сознательным опытом. Более того, некоторые очень простые устройства - если их правильно собрать - могут иметь значение phi гораздо выше, чем предполагаемое phi человеческого мозга. Эти контр интуитивные выводы заставляют некоторых ученых и философов скептически относиться к IIT.

Другая критика теории направлена на ее аксиоматическую основу. Согласно этому аргументу, аксиомы, выбранные Тонони, не являются единственными, на которых можно построить теорию сознания. И его способ отображения этих аксиом на математику, очевидно, тоже не единственный и не лучший. Проблема в том, что если основы IITпроизвольны, то как мы можем доверять выводам, которые из них следуют, особенно если они нас удивляют

Неофициальный опрос ученых, изучающих сознание, проведенный в 2018 году, показал, что IIT не является предпочтительной теорией среди экспертов (она заняла четвертое место после двух других теорий и общей категории "другое"). Но в том же опросе выяснилось, что среди неспециалистов IIT оказалась лучше: фактически, она заняла первое место среди той части неспециалистов, которые посчитали, что обладают достаточными знаниями, чтобы ответить. Некоторые авторы опроса подозревают, что это может быть результатом пиара IIT. Со стороны теория выглядит вполне обоснованной хотя бы потому, что за ней стоит авторитет строгой математики. И больше, чем большинство научных теорий сознания, IIT была представлена в популярной прессе. В том числе в работах Кристофа Коха, выдающегося нейробиолога, который стал соратником Тонони и публичным защитником IIT. В своей книге "Сознание: Confessions of a Romantic Reductionist" Кох описывает свой личный путь в научном изучении сознания, включая работу с лауреатом Нобелевской премии Фрэнсисом Криком, и свои взгляды на IIT. Такие популярные статьи могут быть эффективны для донесения теории до широкой аудитории, но не обязательно убедят знающих ученых.

Даже те ученые, которые не верят в силу IIT, все равно склонны аплодировать этой попытке. Сознание, как известно, трудноуправляемая концепция, поэтому попытка IIT подчинить его упорядоченному научному исследованию - это шаг в правильном направлении. Как написал в своем блоге ярый критик IIT физик Скотт Ааронсон: "Тот факт, что интегральная теория информации неверна - явно неверна, по причинам, которые лежат в ее основе, - ставит ее примерно в 2 процента от всех когда-либо предложенных математических теорий сознания. Почти все конкурирующие теории сознания, как мне кажется, были настолько расплывчатыми, пушистыми и податливыми, что они могут только стремиться к ошибочности".

* * *

ГУТ могут быть скользкой штукой. Чтобы быть великими и объединяющими, они должны делать простые утверждения о невероятно сложном объекте. Почти любое утверждение о "мозге" гарантированно содержит исключения. Поэтому, если сделать ГУТ слишком грандиозным, он не сможет объяснить много конкретных данных. Но если слишком сильно привязать ее к конкретным данным, она перестанет быть великой. Будучи непроверяемыми, непроверенными или проверенными и провалившимися, ГУТ мозга, пытаясь объяснить слишком много, рискуют не объяснить вообще ничего.

В то время как для нейробиологов, стремящихся к GUT, это представляет собой нелегкую задачу, в физике это не так сложно. Причина такого различия может быть проста: эволюция. Нервные системы развивались на протяжении веков, чтобы удовлетворить потребности ряда конкретных животных в конкретных местах, сталкивающихся с конкретными проблемами. Изучая такой продукт естественного отбора, ученые не имеют права на простоту. Биология выбрала любой путь, необходимый для создания функционирующих организмов, не обращая внимания на то, насколько понятной будет та или иная их часть. Поэтому нет ничего удивительного в том, что говорится о том, что мозг - это просто сборная солянка из различных компонентов и механизмов. Это все, что нужно для его функционирования. В общем, нет никаких гарантий - и, возможно, даже нет убедительных причин ожидать, - что мозг можно описать простыми законами.

Некоторые ученые предпочитают принять этот беспорядок. Вместо того чтобы сократить мозг до самых простых элементов, они строят некую "большую единую модель", которая соединяет все части воедино. В то время как традиционные модели GUT по простоте напоминают стейк, приготовленный с добавлением соли, эти модели больше похожи на большую кастрюлю супа. И хотя они не такие изящные и элегантные, как GUT, они могут быть лучше оснащены для выполнения работы.

Одним из примеров такого более инклюзивного подхода является сверхдетальное моделирование, созданное в рамках проекта Blue Brain Project, о котором говорилось в главе 2. Эти исследователи извлекли бесчисленное количество деталей о нейронах и синапсах с помощью серии кропотливых экспериментов. Затем они собрали все эти данные в сложную вычислительную модель небольшого участка мозга. Такой подход предполагает, что каждая деталь ценна и что мозг не понять, если их отбросить. Это искреннее принятие всех нюансов биологии в надежде, что, собрав все воедино, мы получим более полное представление о том, как работает мозг. Однако проблема здесь заключается в масштабах. При восходящем подходе к восстановлению мозга можно работать только с одним нейроном за раз, а значит, до создания полной модели еще далеко.

Семантическая архитектура указателей (Semantic Pointer Architecture Unified Network), более известная как SPAUN, подходит к делу с совершенно другой стороны. Вместо того чтобы фиксировать все тонкости нейробиологии, SPAUN, разработанная командой под руководством Криса Элиасмита в Университете Ватерлоо (Онтарио, Канада), направлена на создание работающей модели мозга. Это означает, что мы получаем те же сенсорные входы и имеем те же двигательные выходы. В частности, SPAUN получает на вход изображения и управляет симулированной рукой для создания выходных данных. Между этими входами и выходами находится сложная сеть из 2,5 миллионов простых модельных нейронов, расположенных таким образом, чтобы в общих чертах имитировать структуру всего мозга. Благодаря этим нейронным связям SPAUN может выполнять семь различных когнитивных и моторных задач, таких как рисование цифр, запоминание списков объектов и составление простых узоров. Таким образом, SPAUN отказывается от элегантности в пользу функциональности. Конечно, человеческий мозг содержит в десятки тысяч раз больше нейронов и может выполнять гораздо больше, чем семь задач. Смогут ли принципы утилитарности и масштабирования, благодаря которым SPAUN достигла своей цели, довести ее до полноценной модели мозга - или нужно будет добавить еще больше нюансов работы нейронов - пока неизвестно.

Истинные ГУТ стремятся к конденсированию. Они переплавляют разнообразную информацию в компактную и легко усваиваемую форму. Благодаря этому GUT кажутся удовлетворительными, потому что они дают ощущение, что работу мозга можно полностью охватить одним взглядом. Такие модели, как SPAUN и симуляция Blue Brain Project, однако, являются экспансивными. Они привлекают множество источников данных и используют их для построения сложной структуры. Таким образом, они жертвуют интерпретируемостью ради точности. Их цель - объяснить все, включив в себя все, что можно объяснить.


Хотя, как и в случае со всеми другими моделями, даже эти, более обширные, все равно не являются идеальными копиями. Создателям этих моделей все равно приходится выбирать, что включать, а что не включать, что объяснять, а что игнорировать. Если стремиться к чему-то сродни ГУТ, всегда хочется найти простейший набор принципов, способный объяснить наибольший набор фактов. С таким плотным и запутанным объектом, как мозг, этот простой набор может оказаться довольно сложным. Заранее знать, какой уровень детализации и какой масштаб потребуется для отражения соответствующих особенностей работы мозга, невозможно. Прогресс в этом вопросе возможен только благодаря построению и тестированию моделей.

В целом, нейронаука поддерживает очень плодотворные отношения с более "тяжелыми", количественными науками. Она получила множество подарков от таких наук, как физика, математика и инженерия. Эти аналогии, методы и инструменты изменили представление обо всем - от нейронов до поведения. А изучение мозга дало ответную отдачу, став источником вдохновения для искусственного интеллекта и полигоном для испытания математических методов.

Но нейронаука - это не физика. Она не должна играть роль младшего брата или сестры, пытаясь в точности следовать по стопам этой более старой дисциплины. Принципы, которыми руководствуется физика, и стратегии, которые привели ее к успеху, не всегда будут работать, если применить их к биологии. Поэтому вдохновение следует воспринимать с осторожностью. При создании моделей разума эстетика математики не является единственным путеводным маяком. Скорее, это влияние должно всегда взвешиваться с уникальными реалиями мозга. При правильном балансе хитросплетения биологии можно свести к математике таким образом, чтобы получить истинное понимание и не подвергнуться чрезмерному влиянию других областей. Таким образом, изучение мозга прокладывает свой собственный путь к использованию математики для понимания мира природы.

 

Математическое приложение

 

Глава 2: Как нейроны получают спайки

Лапик разработал уравнение, описывающее, как напряжение на мембране клетки меняется с течением времени. Уравнение основано на тех, которые используются для описания электрических цепей. В частности, напряжение, V(t), определяется в соответствии с уравнением для цепи с параллельно включенными сопротивлением (R) и емкостью (C):

где t = RC. Внешний вход в клетку (от экспериментатора или воздействия другого нейрона) представлен I(t). Таким образом, клеточная мембрана интегрирует этот внешний входной ток с некоторой утечкой.

Уравнение Лапика не отражает того, что происходит с мембранным потенциалом во время потенциала действия. Однако мы можем добавить простой механизм, который указывает, когда мембрана клетки достигла своего порога и вызовет спайк. В частности, чтобы превратить это уравнение в модель нейрона, который стреляет, напряжение сбрасывается в состояние покоя (Vrest ), как только оно достигает порога спайка (Vthresh ):

 


Это не имитирует сложную динамику потенциала действия (для которой нужна модель Ходжкина-Хаксли), но обеспечивает простой способ вычисления времени спайка.

 

Глава 3: Учимся вычислять

Перцептрон - это однослойная искусственная нейронная сеть, которая может обучаться выполнению простых задач классификации. Обучение происходит за счет обновления весов между входными и выходными нейронами, которые рассчитываются на основе конкретных примеров входных и выходных сигналов.

Алгоритм обучения начинается с набора случайных весов, по одному для каждого из N двоичных входов, xn. Выходная классификация, перцептрона рассчитывается как:

где b - смещение, сдвигающее порог. При обучении каждая запись w обновляется в соответствии с правилом обучения:

где - правильная классификация, а - скорость обучения. Если xn равно единице, то знак разности между правильной классификацией и выходом перцептрона будет определять способ обновления. Если xn или разница равны нулю, обновление не происходит.


Глава 4: Создание и сохранение воспоминаний

Сеть Хопфилда представляет воспоминания как паттерны нейронной активности. Связи между нейронами позволяют сети реализовать ассоциативную память - то есть полное воспоминание можно получить, активировав его подмножество.

Сеть состоит из N ячеек, взаимодействия между которыми определяются в соответствии с симметричной матрицей весов (W). Каждая запись (nm ) в этой матрице определяет силу связи между ячейками n и m. В каждый момент времени состояние активности для каждой ячейки (cn для n=1...N) обновляется в соответствии с:

где 𝜃n - пороговое значение.

Каждая память, 𝝐i, представляет собой вектор длины N, определяющий состояние активности каждого нейрона. Если активность сети изначально установлена на зашумленную, частичную версию памяти, она будет развиваться до состояния аттрактора этой памяти (определяемого 𝝐i), и в этот момент активность сети c перестанет меняться.

Весовая матрица определяется хранящимися в сети воспоминаниями.


Поэтому пары нейронов с одинаковой активностью во многих воспоминаниях будут иметь сильные положительные связи; пары с противоположной активностью будут иметь сильные отрицательные связи.

 

Глава 5: Возбуждение и торможение

Сети с соответствующим балансом между возбуждением и торможением могут создавать стабильную, не зашумленную нейронную активность. Такие сети можно анализировать с помощью среднеполевого подхода, который упрощает математику полной сети до нескольких уравнений.

Уравнения среднего поля для сбалансированной сети начинаются с сети из N нейронов (как возбуждающих, так и тормозящих), причем нейроны получают как внешний, так и рекуррентный вход. Для рекуррентного входа каждый нейрон получает K возбуждающих и K тормозящих входов. Предполагается, что K намного меньше N:

 

Если рассматривать случай большого K и постоянного внешнего входа в сеть, то средний вход в клетку типа j (возбуждающий или тормозной) определяется следующим образом:

И дисперсия этого входа составляет:


Термины Xj и x представляют силу связи внешнего входа с популяцией j и скорость ее возбуждения соответственно; 𝜃j - порог для возникновения спайков. WjI - мера общей силы связи тормозной популяции с популяцией j (соответствующее значение возбуждающей популяции определено как единица). WjI определяется как сила одной связи, умноженная на √K.

j - средняя активность j-й популяции, определяемая в диапазоне от нуля до единицы. Эти значения определяются средним значением и квадратным корнем из дисперсии входных данных в соответствии с:

где H - дополнительная функция ошибки.

Чтобы убедиться, что ни возбуждающий, ни тормозной вход в клетку не подавляет ее выход, первый член в уравнении для mj должен быть того же порядка, что и порог, который равен единице. Для этого сила отдельных связей должна быть равна 1/√K.

 

Глава 6: Этапы развития зрения

Конволюционные нейронные сети обрабатывают изображения, повторяя некоторые из основных особенностей зрительной системы мозга. Они состоят из нескольких основных операций. Начиная с изображения I, первым шагом является свертка этого изображения с фильтром F. Результат этой свертки пропускается через элементарную нелинейность (𝜙), чтобы получить активность для простого слоя, похожего на клетку:

Наиболее распространенной нелинейностью является положительное выпрямление:

 

Если предположить, что изображение и фильтр являются двумерными матрицами, то AS также является двумерной матрицей. Чтобы воспроизвести сложные клеточные реакции, к простой клеточной активности применяется операция 2D max-pooling. Каждый элемент матрицы сложной клеточной активности (AC) определяется в соответствии с:

 

где Pij - двумерная окрестность AS с центром в месте ij. В результате этой операции активность сложной клетки становится просто максимальной активностью участка простых клеток, от которых она получает входные сигналы.

Глава 7: Взлом нейронного кода

Шеннон определил информацию в терминах битов, которые вычисляются как логарифм обратной вероятности символа. Это также можно записать как отрицательное значение логарифма вероятности:

 

Общая информация в коде, известная как энтропия (H), является функцией информации в каждом из его символов. В частности, энтропия - это сумма информации, содержащейся в каждом символе (xi) кода X, взвешенная по его вероятности, P(xi ).

Глава 8: Движение в низких измерениях

Анализ главных компонент (PCA) может быть использован для уменьшения размерности активности популяции нейронов. Применение PCA к нейронным данным начинается с матрицы данных (X ), в которой каждая строка представляет нейрон (из N нейронов), а каждый столбец - среднюю вычитаемую активность этих нейронов за время (длиной L):

Ковариационная матрица этих данных имеет вид


Разложение по собственным значениям говорит:

 

где каждый столбец в Q - собственный вектор K, а 𝛬 - диагональная матрица, где записи на диагонали - собственные значения соответствующих собственных векторов. Главные компоненты данных определяются как собственные векторы K.

Для того чтобы свести полноразмерные данные к D измерениям, в качестве новых осей используются D собственных векторов (ранжированных по собственным значениям). Проецирование полноразмерных данных на эти новые оси дает новую матрицу данных:

Если D равно трем или меньше, то эту уменьшенную матрицу данных можно визуализировать.

 

Глава 9: От структуры к функции

Уоттс и Строгац утверждали, что многие графы реального мира можно описать как сети с малым миром. Сети с малым миром имеют низкую среднюю длину пути (количество ребер, пройденных между любыми двумя узлами) и высокие коэффициенты кластеризации.

Предположим, что граф состоит из N узлов. Если данный узел n соединен с kn другими узлами (называемыми его соседями), то коэффициент кластеризации этого узла равен:

 


где En - количество ребер, существующих между соседями n, а член в знаменателе - общее количество ребер, которые могут существовать между этими узлами. Таким образом, коэффициент кластеризации - это мера того, насколько взаимосвязаны или "кликабельны" группы узлов.

Коэффициент кластеризации для всей сети определяется как среднее значение коэффициентов кластеризации для каждого узла:

Глава 10: Принятие рациональных решений

Полная форма правила Байеса такова:

 

где h - гипотеза, а d - наблюдаемые данные. Член в левой части уравнения известен как апостериорное распределение. Байесовская теория принятия решений (BDT) рассматривает, как правило Байеса может направлять принятие решений, указывая, как апостериорное распределение должно быть сопоставлено с конкретным восприятием, выбором или действием.

В BDT функция потерь указывает на штраф, который налагается за принятие различных типов неправильных решений (например, неправильное восприятие красного цветка как белого и восприятие белого цветка как красного может иметь различные негативные последствия). В самой базовой функции потерь любаяневерно выбранная гипотеза влечет за собой одинаковый штраф, в то время как правильный выбор (h*) не влечет никакого штрафа:

Общий ожидаемый убыток при выборе определенной гипотезы (h) рассчитывается путем взвешивания этого убытка на вероятность каждой гипотезы:

что дает:

 

Поэтому, чтобы минимизировать эти потери, следует выбрать вариант, максимизирующий апостериорное распределение. То есть наилучшая гипотеза - это гипотеза с наибольшей апостериорной вероятностью.

 

Глава 11: Как вознаграждение руководит действиями

Обучение с подкреплением описывает, как животные или искусственные агенты могут научиться вести себя, просто получая вознаграждение. Центральным понятием в обучении с подкреплением является ценность - мера, которая сочетает в себе размер вознаграждения, полученного в данный момент, и ожидаемого в будущем.


Уравнение Беллмана определяет ценность (V) состояния (s) в терминах вознаграждения ( ), полученного, если в этом состоянии будет выполнено действие a, и дисконтированной стоимости следующего состояния:

 

Здесь - коэффициент дисконтирования, а T - функция перехода, определяющая, в каком состоянии окажется агент после выполнения действия a в состоянии s. Операция max служит для того, чтобы всегда выполнялось действие, приносящее наибольшую ценность. Вы можете видеть, что определение ценности является рекурсивным, поскольку сама функция ценности появляется в правой части уравнения.

 

Глава 12: Великие единые теории мозга

Принцип свободной энергии был предложен в качестве объединяющей теории мозга, которая может описать нейронную активность и поведение. Свободная энергия определяется как:

 

где s - сенсорные входы, m - внутренние состояния мозга, а x - состояния мира. Первый член в этом определении (отрицательная логарифмическая вероятность s) иногда называют "удивлением", поскольку он высок, когда вероятность сенсорных входов низка.

DKL - это расхождение Куллбэка-Лейблера между двумя распределениями вероятностей, определяемое как:


Таким образом, второй член определения свободной энергии измеряет разницу между вероятностью состояний мира с учетом внутреннего состояния мозга и вероятностью состояний мира с учетом сенсорных входов. Можно считать, что мозг пытается приблизить p(x | s), используя свои собственные внутренние состояния (q(x | m)), и чем лучше приближение, тем меньше свободная энергия.

class="book">Поскольку принцип свободной энергии гласит, что мозг стремится минимизировать свободную энергию, он должен обновлять свои внутренние состояния в соответствии с этим:

Кроме того, выбор действий (a), предпринимаемых животным, влияет на получаемые им сенсорные сигналы:

 

Поэтому действия также должны выбираться с учетом их способности минимизировать свободную энергию: