Мозг и Компьютер. Отличия. Компьютерный чип из живых клеток мозга. Самые распространённые мифы о биологическом компьютере человека

1. Мозг — аналоговый, а компьютеры — цифровые.

Нейроны двоичные, и если они достигают нужного уровня, то появляется потенциал действия. Это простое соотношение с цифровой системой «Единица и Нуль» дает совершенно неверное представление о действительно беспрерывных нелинейных процессах, которые прямо влияют на работу нейронной сети и ее устройства.

Скажем так, один из основных способов передачи данных — это скорость, при которой нейроны начинают активироваться. Таким образом, сети нейронов могут активироваться в синхронии или в беспорядочности (все относительно). Такая связь может влиять на силу сигналов, получаемых потоком, состоящим из нейронов. И в самом конце, внутри каждого из нейронов начинается круговорот квазиинтеграторов, которые состоят из ионных цепочек, которых довольно много, и регулярно изменяющихся мембранных потенциалов.

2. Ассоциативная память — память мозга.

Запрос информации в компьютере происходит по определенному адресу (байтовая адресация). Мозг же пользуется другим приемом поиска данных — не по адресу, а по их составляющей, скорее даже, по их представительной части. И в конечном итоге, мозг имеет что-то наподобие «системы Google», в которой достаточно немного ключевых слов, чтобы по ним можно было воспроизвести полный контекст. Конечно, нечто подобное можно воспроизвести и в компьютерах с помощь индексации всей информации, которую хранят и которую надо складировать. Вот таким образом, поиск будет выполняться по релевантной информации.

3. Кратковременная память и ОЗУ — не одно и то же.

Несмотря на то, что многие психологи выявляли действительно очевидные сходства между ОЗУ и кратковременной памятью, более подробный анализ показал обилие более существенных различий.

Хотя для ОЗУ и кратковременной памяти нужна «энергия», кратковременная память может содержать только «отсылки» к долговременной памяти, в то время как операционное запоминающее устройство содержит информацию, которая сходна по составу с той, что располагается на жестком диске.

В отличие от ОЗУ, кратковременная память не ограничена объемом.

4. Обработка и память в мозге осуществляется одними и теми же компонентами.

Компьютер способен обрабатывать информацию из памяти, подключая процессоры, и потом заносить переработанные данные обратно в память. У нас в мозге не может существовать разделения подобного типа. Нейроны как обрабатывают данные, так и преобразуют синапсы (место контакта между двумя нейронами), которые и есть основная память. И как следствие, воссоздание по памяти человек чуть-чуть изменяет те воспоминания.

5. Все органы подчиняются мозгу.

Не менее важно и это. На самом деле, наш мозг может использовать возможность управлять всеми нашими органами. Множество экспериментов показывают, что когда мы смотрим на интерьер, допустим комнаты, то наш мозг разгружает память, так как наша зрительная память очень маленькая, и мы, благодаря этому, можем воспроизвести обстановку, а не точное расположение предметов.

К тому же, мозг гораздо больше абсолютно любого компьютера, который существует ныне.

Центральная идея работ знаменитого Рэя Курцвейла - искусственный интеллект, который со временем будет властвовать во всех сферах жизни людей. В своей новой книге «Эволюция разума» Курцвейл раскрывает бесконечный потенциал возможностей в сфере обратного проектирования человеческого мозга.

В той же статье Тьюринг поведал о другом неожиданном открытии, касающемся неразрешимых задач. Неразрешимые задачи - это те, что хорошо описываются единственным решением (которое, как можно показать, существует), но (как тоже можно показать) не могут быть решены никакой машиной Тьюринга (то есть вообще никакой машиной). Представление о существовании таких задач в корне противоречит сформировавшейся к началу XX в. догме о том, что все проблемы, которые можно сформулировать, являются решаемыми. Тьюринг показал, что число неразрешимых задач не меньше числа разрешимых задач. В 1931 г. к такому же выводу пришел Курт Гедель, сформулировавший «теорему о неполноте». Такая странная ситуация: мы можем сформулировать задачу, можем доказать, что у нее существует единственное решение, но при этом знаем, что никогда не сможем это решение найти.

Тьюринг показал, что вычислительные машины действуют на основании очень простого механизма. Поскольку машина Тьюринга (и, следовательно, любой компьютер) может определять свою дальнейшую функцию на основе полученных ею ранее результатов, она способна принимать решения и создавать иерархические информационные структуры любой сложности.

В 1939 г. Тьюринг сконструировал электронный калькулятор Bombe, который помогал дешифровать сообщения, составленные немцами на кодирующей машине Enigma. К 1943 г. группа инженеров при участии Тьюринга закончила создание машины Colossus, которую иногда называют первым в истории компьютером. Это позволило союзникам расшифровывать сообщения, созданные более сложной версией Enigma. Машины Bombe и Colossus были сконструированы для решения единственной задачи и не могли перепрограммироваться. Но свою функцию они выполняли блестяще. Считается, что отчасти благодаря им союзники могли предвидеть тактику немцев на протяжении всей войны, а Королевские военно-воздушные силы Великобритании в Битве за Британию смогли одолеть втрое превосходящие их по численности силы Люфтваффе.

Именно на этой основе Джон фон Нейман создал компьютер современной архитектуры, отражающей третью из четырех важнейших идей теории информации. На протяжении прошедших с тех пор почти семидесяти лет основное ядро этой машины, названной «машиной фон Неймана», практически не изменилось - как в микроконтроллере в вашей стиральной машине, так и в самом крупном суперкомпьютере. В статье, опубликованной 30 июня 1945 г. и озаглавленной «Первый проект отчета о EDVAC», фон Нейман изложил основные идеи, которые с тех пор направляли развитие информатики . В машине фон Неймана присутствует центральный процессор, где выполняются арифметические и логические операции, модуль памяти, в котором хранятся программы и данные, массовая память, программный счетчик и входные/выходные каналы. Хотя статья предназначалась для внутреннего пользования в рамках выполнения проекта, для создателей компьютеров она стала Библией. Вот так иногда обычный рутинный отчет может изменить мир.

Машина Тьюринга не была предназначена для практических целей. Теоремы Тьюринга не имели отношения к эффективности решения задач, а скорее описывали спектр задач, которые теоретически могут быть решены с помощью компьютера. Напротив, цель фон Неймана заключалась в создании концепции реального компьютера. Его модель заменила однобитную систему Тьюринга многобитной (обычно кратную восьми битам) системой. Машина Тьюринга имеет последовательную ленту памяти, так что программы затрачивают очень большое время на перемещение ленты вперед и назад для записи и извлечения промежуточных результатов. Напротив, в системе фон Неймана доступ к памяти осуществляется произвольным образом, что позволяет немедленно извлекать любые нужные данные.

Одной из ключевых идей фон Неймана является концепция хранимой программы, которую он развил за десять лет до создания компьютера. Суть концепции заключается в том, что программа хранится в том же модуле памяти с произвольным доступом, что и данные (а часто даже в том же блоке памяти). Это позволяет перепрограммировать компьютер для решения разных задач и создавать самомодифицирующийся код (в случае записывающих накопителей), что обеспечивает возможность рекурсии. До того времени практически все компьютеры, включая Colossus, создавались для решения конкретных задач. Концепция хранимой программы позволила компьютеру стать поистине универсальной машиной, соответствующей представлению Тьюринга об универсальности машинных вычислений.

Еще одно важное свойство машины фон Неймана заключается в том, что в каждой инструкции содержится операционный код, определяющий арифметическую или логическую операцию и адрес операнда в памяти компьютера.

Концепция фон Неймана об архитектуре компьютера отразилась в проекте EDVAC, над которым он работал совместно с Преспером Дж. Эккертом и Джоном Моучли. Компьютер EDVAC начал функционировать только в 1951 г., когда уже существовали другие компьютеры с хранимой программой, такие как Манчестерская малая экспериментальная машина, ENIAC, EDSAC и BINAC, причем все они были созданы под влиянием статьи фон Неймана и при участии Эккерта и Моучли. Фон Нейман также был причастен к появлению некоторых из этих машин, включая последнюю версию ENIAC, где использовался принцип хранимой программы.

У компьютера с архитектурой фон Неймана имелось несколько предшественников, но ни один из них - за одним неожиданным исключением - нельзя назвать истинной машиной фон Неймана. В 1944 г. Говард Эйкен выпустил Mark I, который можно было в какой-то степени перепрограммировать, но он не использовал хранимой программы. Машина считывала инструкции с перфокарты и немедленно их выполняла. В машине также не было предусмотрено условных переходов.

В 1941 г. немецкий ученый Конрад Цузе (1910–1995) создал компьютер Z-3. Он тоже считывал программу с ленты (в данном случае закодированную на пленке) и тоже не выполнял условных переходов. Интересно, что Цузе получил финансовую поддержку от Немецкого института самолетостроения, который использовал этот компьютер для изучения флаттера крыла самолета. Однако предложение Цузе о финансировании замены реле радиолампами не было поддержано нацистским правительством, которое считало развитие компьютерной технологии «не имеющим военного значения». Это, как мне кажется, в определенной степени повлияло на исход войны.

На самом деле у фон Неймана был один гениальный предшественник, причем жил он на сто лет раньше! Английский математик и изобретатель Чарльз Бэббидж (1791–1871) в 1837 г. описал свою аналитическую машину, основанную на тех же принципах , что и компьютер фон Неймана, и использовавшую хранимую программу, нанесенную на перфокарты жаккардовых ткацких машин. Память машины с произвольным доступом содержала 1000 слов по 50 десятичных знаков в каждом (что эквивалентно примерно 21 килобайту). Каждая инструкция содержала код операции и номер операнда - точно так же, как в современных компьютерных языках. Система не использовала условных переходов и циклов, так что это была настоящая машина фон Неймана. Полностью механическая, она, по-видимому, превзошла и дизайнерские, и организаторские возможности самого Бэббиджа. Он создал части машины, но так и не запустил ее.

Точно не известно, знали ли пионеры компьютеростроения XX в., включая фон Неймана, о работах Бэббиджа .

Однако создание машины Бэббиджа положило начало развитию программирования. Английская писательница Ада Байрон (1815–1852), графиня Лавлейс, единственный законный ребенок поэта лорда Байрона, стала первым в мире программистом. Она писала программы для аналитической машины Бэббиджа и отлаживала их в уме (поскольку компьютер так никогда и не заработал). Теперь программисты называют эту практику table checking. Она перевела статью итальянского математика Луиджи Менабреа об аналитической машине, добавив от себя существенные замечания и заметив, что «аналитическая машина плетет алгебраические рисунки, как ткацкий жаккардовый станок плетет цветы и листья». Возможно, она первой упомянула о возможности создания искусственного интеллекта, но сделала вывод, что аналитическая машина «сама не способна что-либо придумать».

Идеи Бэббиджа кажутся поразительными, если учесть, в какую эпоху он жил и работал. Однако к середине XX в. эти идеи были практически забыты (и вновь открыты лишь позднее). Именно фон Нейман придумал и сформулировал ключевые принципы действия компьютера в его современном виде, и недаром машину фон Неймана продолжают считать основной моделью вычислительной машины. Однако не будем забывать, что машина фон Неймана постоянно осуществляет обмен данными между отдельными модулями и внутри этих модулей, так что она не могла быть создана без теорем Шеннона и тех методов, которые он предложил для надежной передачи и хранения цифровой информации.

Все сказанное подводит нас к четвертой важной идее, которая преодолевает выводы Ады Байрон о неспособности компьютера к творческому мышлению и позволяет найти ключевые алгоритмы, используемые мозгом, чтобы потом применить их для превращения компьютера в мозг. Алан Тьюринг сформулировал эту задачу в статье «Вычислительные машины и разум», опубликованную в 1950 г., в которой содержится описание теперь широко известного теста Тьюринга, позволяющего определить близость ИИ к человеческому интеллекту.

В 1956 г. фон Нейман начал готовить серию лекций для престижных Силлимановских чтений в Йельском университете. Ученый уже был болен раком и не смог ни прочесть свои лекции, ни даже закончить рукопись, на основе которой создавались лекции. Тем не менее этот незаконченный труд является блестящим предсказанием того, что лично я воспринимаю как самый трудный и важный проект в истории человечества. Уже после смерти ученого, в 1958 г., рукопись была опубликована под названием «Компьютер и мозг». Так вышло, что последний труд одного из самых блестящих математиков прошлого столетия и одного из основоположников компьютерной технологии оказался посвящен анализу мышления. Это было первое серьезное исследование человеческого мозга с точки зрения математика и специалиста в области компьютеров. До фон Неймана компьютерные технологии и нейробиология представляли собой два отдельных острова, между которыми не существовало никакого моста.

Фон Нейман начинает повествование, описывая сходство и различие между компьютером и человеческим мозгом. Учитывая, в какую эпоху создавался этот труд, он представляется удивительно точным. Ученый отмечает, что выходной сигнал нейрона цифровой - аксон либо возбуждается, либо остается в покое. В то время было далеко не очевидно, что обработка выходного сигнала может происходить аналоговым путем. Обработка сигнала в дендритах, ведущих к нейрону, и в теле нейрона аналоговая, и фон Нейман описал эту ситуацию с помощью взвешенной суммы входных сигналов с пороговым значением.

Эта модель функционирования нейронов привела к развитию коннекционизма и к использованию данного принципа для создания как аппаратурного оформления, так и компьютерных программ. (Как я рассказывал в предыдущей главе, первая такая система, а именно программа для IBM 704, была создана Фрэнком Розенблаттом из Корнельского университета в 1957 г., сразу после того, как стала доступна рукопись лекций фон Неймана.) Теперь у нас есть более сложные модели, описывающие сочетания входных сигналов нейронов, но общая идея об аналоговой обработке сигналов с помощью изменения концентрации нейромедиаторов по-прежнему верна.

На основе концепции универсальности компьютерных вычислений фон Нейман пришел к выводу, что даже при кажущемся радикальном различии архитектуры и структурных единиц головного мозга и компьютера с помощью машины фон Неймана мы можем симулировать происходящие в головном мозге процессы. Обратный постулат, однако, не является справедливым, поскольку головной мозг не является машиной фон Неймана и не имеет хранимой программы (хотя в голове мы можем симулировать действие очень простой машины Тьюринга). Алгоритмы или методы функционирования мозга определены его структурой. Фон Нейман пришел к справедливому заключению, что нейроны могут выучивать соответствующие образы на основании входных сигналов. Однако во времена фон Неймана не было известно, что обучение также происходит путем создания и разрушения контактов между нейронами.

Фон Нейман также указал, что скорость обработки информации нейронами очень низкая - порядка сотни вычислений в секунду, однако мозг компенсирует это тем, что одновременно осуществляет обработку информации во множестве нейронов. Это еще одно очевидное, но очень важное открытие. Фон Нейман утверждал, что все 10 10 нейронов мозга (эта оценка также достаточно точна: по сегодняшним представлениям, в головном мозге содержится от 10 10 до 10 11 нейронов) обрабатывают сигналы в одно и то же время. Более того, все контакты (в среднем от 10 3 до 10 4 на каждый нейрон) обсчитываются одновременно.

Учитывая примитивный уровень развития нейробиологии того времени, оценки и описания функции нейронов, сделанные фон Нейманом, удивительно точны. Однако я не могу согласиться с одним аспектом его работы, а именно с представлением об объеме памяти мозга. Он считал, что мозг запоминает каждый сигнал на всю жизнь. Среднюю продолжительность жизни человека фон Нейман оценивал в 60 лет, что составляет примерно 2 х 10 9 секунды. Если каждый нейрон за одну секунду получает примерно 14 сигналов (что на самом деле на три порядка ниже истинной величины), а всего в головном мозге содержится 10 10 нейронов, выходит, что объем памяти мозга составляет около 10 20 бит. Как я писал выше, мы запоминаем лишь небольшую часть наших мыслей и опыта, но даже эти воспоминания хранятся не как побитовая информация низкого уровня сложности (как в видео), а скорее в виде последовательности образов более высокого порядка.

По мере того как фон Нейман описывает каждый механизм в функции головного мозга, он одновременно демонстрирует, как современный компьютер мог бы осуществить ту же самую функцию, несмотря на кажущееся различие между мозгом и компьютером. Аналоговые механизмы действия мозга можно моделировать с помощью цифровых механизмов, поскольку цифровые вычисления способны моделировать аналоговые значения с любой степенью точности (а точность передачи аналоговой информации в мозге достаточно низкая). Можно также имитировать массивный параллелизм функции мозга, учитывая значительное превосходство компьютеров по скорости серийных вычислений (со времен фон Неймана это превосходство еще более усилилось). Кроме того, мы можем осуществлять параллельную обработку сигналов в компьютерах с помощью параллельно функционирующих машин фон Неймана - именно так действуют современные суперкомпьютеры.

Учитывая способность людей быстро принимать решения при столь низкой скорости работы нейронов, фон Нейман пришел к выводу, что функции головного мозга не могут задействовать длинные последовательные алгоритмы. Когда третий бейс-мен получает мяч и решает бросить его на первую, а не на вторую базу, он принимает это решение за какую-то долю секунды - за это время каждый нейрон едва успевает осуществить несколько циклов возбуждения. Фон Нейман приходит к логичному выводу, что замечательная способность мозга связана с тем, что все 100 млрд нейронов могут обрабатывать информацию одновременно. Как я отмечал выше, зрительная кора делает сложные выводы всего за три или четыре цикла возбуждения нейронов.

Именно значительная пластичность мозга позволяет нам обучаться. Однако компьютер обладает гораздо большей пластичностью - его методы можно полностью изменить путем смены программного обеспечения. Таким образом, компьютер может имитировать мозг, а вот обратное утверждение неверно.

Когда фон Нейман сравнивал возможности массированной параллельной активности мозга с немногочисленными компьютерами того времени, казалось очевидным, что мозг отличается гораздо большей памятью и скоростью. Сегодня уже сконструирован первый суперкомпьютер, по самым консервативным оценкам, удовлетворяющий тем функциональным требованиям, которые нужны для моделирования функций человеческого головного мозга (около 10 16 операций в секунду) . (По моему мнению, компьютеры такой мощности в начале 2020-х гг. будут стоить около 1000 долларов.) Что касается объема памяти, мы продвинулись еще дальше. Труд фон Неймана появился в самом начале компьютерной эры, но ученый был уверен в том, что в какой-то момент мы сможем создавать компьютеры и компьютерные программы, способные имитировать человеческий мозг; именно поэтому он и готовил свои лекции.

Фон Нейман был глубоко убежден в ускорении прогресса и в его значительном влиянии на жизнь людей в будущем. Через год после смерти фон Неймана, в 1957 г., его коллега математик Стэн Юлам цитировал слова фон Неймана, сказавшего в начале 1950-х гг., что «любое ускорение технологического прогресса и изменения образа жизни людей создает впечатление приближения некой важнейшей сингулярности в истории человеческой расы, за пределами которой человеческая деятельность в том виде, какой мы знаем ее сегодня, больше не может продолжаться». Это первый известный случай использования слова «сингулярность» для описания технологического прогресса человечества.

Важнейшая догадка фон Неймана заключалась в обнаружении сходства между компьютером и мозгом. Заметим, что частью человеческого интеллекта является эмоциональный интеллект. Если догадка фон Неймана верна и если согласиться с моим утверждением, что небиологическая система, удовлетворительно воспроизводящая интеллект (эмоциональный и другой) живого человека, обладает сознанием (см. следующую главу), придется сделать вывод, что между компьютером (с правильным программным обеспечением) и сознательным мышлением имеется явное сходство. Итак, был ли прав фон Нейман?

Большинство современных компьютеров - полностью цифровые машины, тогда как человеческий мозг использует как цифровые, так и аналоговые методы. Однако аналоговые методы легко воспроизводятся в цифровом варианте с любой степенью точности. Американский специалист в области компьютерных технологий Карвер Мид (род. в 1934 г.) показал, что аналоговые методы мозга можно напрямую воспроизвести в кремниевом варианте, и реализовал это в виде так называемых нейроморфных чипов . Мид продемонстрировал, что данный подход может быть в тысячи раз более эффективным, чем цифровая имитация аналоговых методов. Если речь идет о кодировании избыточных алгоритмов новой коры, возможно, имеет смысл воспользоваться идеей Мида. Исследовательская группа IBM под руководством Дхармендра Модхи применяет чипы, имитирующие нейроны и их контакты, в том числе их способность образовывать новые контакты . Один из чипов, названный SyNAPSE, напрямую модулирует 256 нейронов и примерно четверть миллиона синаптических связей. Цель проекта заключается в симуляции новой коры, состоящей из 10 млрд нейронов и 100 трлн контактов (что эквивалентно человеческому мозгу), которая использует всего один киловатт энергии.

Более пятидесяти лет назад фон Нейман заметил, что процессы в головном мозге происходят чрезвычайно медленно, но отличаются массированной параллельностью. Современные цифровые схемы действуют как минимум в 10 млн раз быстрее, чем электрохимические переключатели мозга. Напротив, все 300 млн распознающих модулей коры мозга действуют одновременно, и квадрильон контактов между нейронами может активизироваться в одно и то же время. Следовательно, для создания компьютеров, которые могли бы адекватно имитировать человеческий мозг, необходимы соответствующий объем памяти и производительность вычислений. Нет нужды напрямую копировать архитектуру мозга - это очень неэффективный и негибкий метод.

Какими же должны быть соответствующие компьютеры? Многие исследовательские проекты направлены на моделирование иерархического обучения и распознавания образов, происходящих в новой коре. Я сам занимаюсь подобными исследованиями с привлечением иерархических скрытых моделей Маркова. По моим оценкам, для моделирования одного цикла распознавания в одном распознающем модуле биологической новой коры требуется около 3000 вычислений. Большинство симуляций построено на значительно меньшем числе вычислений. Если принять, что головной мозг осуществляет около 10 2 (100) циклов распознавания в секунду, получаем общее число 3 х 10 5 (300 тыс.) вычислений в секунду для одного распознающего модуля. Если же умножить это число на общее число распознающих модулей (3 х 10 8 (300 млн, по моим оценкам)), получаем 10 14 (100 трлн) вычислений в секунду. Примерно такое же значение я привожу в книге «Сингулярность уже близка». По моим прогнозам, для функциональной симуляции головного мозга требуется скорость от 10 14 до 10 16 калькуляций в секунду. По оценкам Ганса Моравека, основанным на экстраполяции данных для начальной обработки зрительных сигналов во всем головном мозге, это значение составляет 10 14 калькуляций в секунду, что совпадает с моими расчетами.

Стандартные современные машины могут работать со скоростью до 10 10 калькуляций в секунду, однако с помощью ресурсов облака их производительность можно существенно увеличить. Самый быстрый суперкомпьютер, японский компьютер «К», уже достиг скорости 10 16 калькуляций в секунду. Учитывая массированную избыточность алгоритмов новой коры, хороших результатов можно добиться с помощью нейроморфных чипов, как в технологии SvNAPSE.

Что касается требований к памяти, нам нужно около 30 бит (примерно 4 байта) для каждого контакта с одним из 300 млн распознающих модулей. Если к каждому распознающему модулю подходит в среднем восемь сигналов, получаем 32 байта на распознающий модуль. Если учесть, что вес каждого входного сигнала составляет один байт, получаем 40 байт. Добавим 32 байта для нисходящих контактов - и получим 72 байта. Замечу, что наличие восходящих и нисходящих разветвлений приводит к тому, что число сигналов намного больше восьми, даже если учесть, что многие распознающие модули пользуются общей сильно разветвленной системой связей. Например, в распознавании буквы «p» могут участвовать сотни распознающих модулей. Это означает, что тысячи распознающих модулей следующего уровня участвуют в распознавании слов и фраз, содержащих букву «p». Однако каждый модуль, ответственный за распознавание «p», не повторяет это древо связей, питающих все уровни распознавания слов и фраз с «p», у всех этих модулей древо связей общее.

Сказанное выше верно и для нисходящих сигналов: модуль, ответственный за распознавание слова apple, сообщит всей тысяче стоящих ниже модулей, ответственных за распознавание «e», что ожидается образ «e», если уже распознаны «a», «p», «p» и «l». Это древо связей не повторяется для каждого модуля, распознающего слово или фразу, который хочет информировать модули нижестоящего уровня, что ожидается образ «e». Это древо общее. По этой причине среднее оценочное значение в восемь восходящих и восемь нисходящих сигналов для каждого распознающего модуля является вполне разумным. Но даже если мы повысим это значение, это не сильно изменит конечный результат.

Итак, с учетом 3 х 10 8 (300 млн) распознающих модулей и 72 байт памяти для каждого, получаем, что общий объем памяти должен составлять около 2 х 10 10 (20 млрд) байт. А это весьма скромное значение. Такой памятью обладают обычные современные компьютеры.

Все эти расчеты мы выполнили для приблизительной оценки параметров. Учитывая, что цифровые схемы примерно в 10 млн раз быстрее сетей нейронов в биологической коре, нам не нужно воспроизводить массированный параллелизм человеческого мозга - весьма умеренного параллельного процессинга (по сравнению с триллионным параллелизмом в головном мозге) будет вполне достаточно. Таким образом, необходимые вычислительные параметры вполне достижимы. Способность нейронов головного мозга к переподключению (помним, что дендриты постоянно создают новые синапсы) тоже можно имитировать с помощью соответствующего программного обеспечения, поскольку компьютерные программы гораздо пластичнее биологических систем, которые, как мы видели, впечатляют, но имеют пределы.

Избыточность мозга, необходимая для получения инвариантных результатов, безусловно, может быть воспроизведена в компьютерном варианте. Математические принципы оптимизации подобных самоорганизующихся иерархических систем обучения вполне понятны. Организация мозга далеко не оптимальна. Но она и не должна быть оптимальной - она должна быть достаточно хорошей, чтобы обеспечить возможность создавать инструменты, компенсирующие ее собственные ограничения.

Еще одно ограничение новой коры заключается в том, что в ней нет механизма, устраняющего или хотя бы оценивающего противоречащие друг другу данные; отчасти это объясняет весьма распространенную нелогичность человеческих рассуждений. Для решения данной проблемы у нас есть весьма слабая способность, называемая критическим мышлением, но люди ею пользуются гораздо реже, чем следовало бы. В компьютерной новой коре можно предусмотреть процесс, выявляющий противоречащие данные для их последующего пересмотра.

Важно отметить, что конструирование целого отдела мозга осуществить проще, чем конструирование одного нейрона. Как уже было сказано, на более высоком уровне иерархии модели часто упрощаются (тут просматривается аналогия с компьютером). Чтобы понять, как работает транзистор, нужно в деталях понимать физику полупроводниковых материалов, а функции одного реального транзистора описываются сложными уравнениями. Цифровая схема, осуществляющая перемножение двух чисел, содержит сотни транзисторов, но для создания модели такой схемы хватит одной или двух формул. Целый компьютер, состоящий из миллиардов транзисторов, можно смоделировать с помощью набора инструкций и описания регистра на нескольких страницах текста с привлечением нескольких формул. Программы для операционных систем, компиляторов языков или ассемблеров достаточно сложны, однако моделирование частной программы (например, программы распознавания языка на основе скрытых иерархических моделей Маркова) тоже сводится к нескольким страницам формул. И нигде в подобных программах вы не встретите детального описания физических свойств полупроводников или даже компьютерной архитектуры.

Аналогичный принцип верен и для моделирования мозга. Один конкретный распознающий модуль новой коры, который детектирует определенные инвариантные зрительные образы (например, лица), осуществляет фильтрацию звуковых частот (ограничивая входной сигнал определенным диапазоном частот) или оценивает временную близость двух событий, можно описать с помощью гораздо меньшего числа специфических деталей, чем реальные физические и химические взаимодействия, контролирующие функции нейромедиаторов, ионных каналов и других элементов нейронов, участвующих в передаче нервного импульса. Хотя все эти детали необходимо тщательно предусмотреть до перехода на следующий уровень сложности, при моделировании операционных принципов головного мозга многое можно упростить.

<<< Назад
Вперед >>>
  • Перевод

Все мы помним со школы мучительные упражнения в арифметике. На то, чтобы перемножить числа вроде 3 752 и 6 901 при помощи карандаша и бумаги, уйдёт не меньше минуты. Конечно же, сегодня, когда под рукой у нас телефоны, мы быстро можем проверить, что результат нашего упражнения должен равняться 25 892 552. Процессоры современных телефонов могут выполнять более 100 млрд таких операций в секунду. Более того, эти чипы потребляют всего несколько ватт, что делает их гораздо эффективнее наших медленных мозгов, потребляющих 20 Вт и требующих гораздо большего времени на достижение того же результата.

Конечно же, мозг эволюционировал не для того, чтобы заниматься арифметикой. Поэтому у него это получается плохо. Но он прекрасно справляется с обработкой постоянного потока информации, идущего от нашего окружения. И он реагирует на неё – иногда быстрее, чем мы можем это осознать. И неважно, сколько энергии будет потреблять обычный компьютер – он с трудом будет справляться с тем, что легко даётся мозгу – например, с пониманием языка или с бегом по лестнице.

Если бы могли создать машины, вычислительные способности и энергетическая эффективность которых были бы сравнимы с мозгом, то всё поменялось бы кардинально. Роботы бы ловко двигались в физическом мире и общались бы с нами на естественном языке. Крупномасштабные системы собирали бы огромные объёмы информации по бизнесу, науке, медицине или управлению государством, обнаруживая новые закономерности, находя причинно-следственные связи и делая предсказания. Умные мобильные приложения типа Siri и Cortana могли бы меньше полагаться на облака. Такая технология могла бы позволить нам создать устройства с небольшим энергопотреблением, дополняющие наши чувства, обеспечивающие нас лекарствами и эмулирующие нервные сигналы, компенсируя повреждение органов или паралич.

Но не рано ли ставить себе такие смелые цели? Не слишком ограничено ли наше понимание мозга для того, чтобы мы могли создавать технологии, работающие на основе его принципов? Я считаю, что эмуляция даже простейших особенностей нервных контуров может резко улучшить работу множества коммерческих приложений. Насколько точно компьютеры должны копировать биологические детали строения мозга, чтобы приблизиться к его уровню быстродействия – это пока открытый вопрос. Но сегодняшние системы, вдохновлённые строением мозга, или нейроморфные, станут важными инструментами для поисков ответа на него.

Ключевая особенность обычных компьютеров – физическое разделение памяти, хранящей данные и инструкции, и логики, обрабатывающей эту информацию. В мозгу такого разделения нет. Вычисления и хранение данных происходят одновременно и локально, в обширной сети, состоящей из примерно 100 млрд нервных клеток (нейронов) и более 100 трлн связей (синапсов). По большей части мозг определяется этими связями и тем, как каждый из нейронов реагирует на входящий сигнал других нейронов.

Говоря об исключительных возможностях человеческого мозга, обычно мы имеем в виду недавнее приобретение долгого эволюционного процесса – неокортекс (новую кору). Этот тонкий и крайне складчатый слой формирует внешнюю оболочку мозга и выполняет очень разные задачи, включающие обработку поступающей от чувств информации, управление моторикой, работу с памятью и обучение. Такой широкий спектр возможностей доступен довольно однородной структуре: шесть горизонтальных слоёв и миллион вертикальных столбиков по 500 мкм шириной, состоящих из нейронов, интегрирующих и распределяющих информацию, закодированную в электрических импульсах, вдоль растущих из них усиков – дендритов и аксонов.

Как у всех клеток человеческого тела, у нейрона существует электрический потенциал порядка 70 мВ между внешней поверхностью и внутренностями. Это мембранное напряжение изменяется, когда нейрон получает сигнал от других связанных с ним нейронов. Если мембранное напряжение поднимается до критической величины, он формирует импульс, или скачок напряжения, длящийся несколько миллисекунд, величиной порядка 40 мВ. Этот импульс распространяется по аксону нейрона, пока не доходит до синапса – сложной биохимической структуры, соединяющей аксон одного нейрона с дендритом другого. Если импульс удовлетворяет определённым ограничениям, синапс преобразует его в другой импульс, идущий вниз по ветвящимся дендритам нейрона, получающего сигнал, и меняет его мембранное напряжение в положительную или отрицательную сторону.

Связность – критическая особенность мозга. Пирамидальный нейрон – особенно важный тип клеток человеческого неокортекса – содержит порядка 30 000 синапсов, то есть 30 000 входных каналов от других нейронов. И мозг постоянно приспосабливается. Нейрон и свойства синапса – и даже сама структура сети – постоянно изменяются, в основном под воздействием входных данных с органов чувств и обратной связи окружающей среды.

Современные компьютеры общего назначения цифровые, а не аналоговые; мозг классифицировать не так-то просто. Нейроны накапливают электрический заряд, как конденсаторы в электронных схемах. Это явно аналоговый процесс. Но мозг использует всплески в качестве единиц информации, а это в основе своей двоичная схема: в любое время в любом месте всплеск либо есть, либо его нет. В терминах электроники, мозг – система со смешанными сигналами, с локальными аналоговыми вычислениями и передачей информацией при помощи двоичных всплесков. Поскольку у всплеска есть только значения 0 или 1, он может пройти большое расстояние, не теряя этой основной информации. Он также воспроизводится, достигая следующего нейрона в сети.

Ещё одно ключевое отличие мозга и компьютера – мозг справляется с обработкой информации без центрального тактового генератора, синхронизирующего его работу. Хотя мы и наблюдаем синхронизирующие события – мозговые волны – они организуются сами, возникая как результат работы нейросетей. Что интересно, современные компьютерные системы начинают перенимать асинхронность, свойственную мозгу, чтобы ускорить вычисления, выполняя их параллельно. Но степень и цель параллелизации двух этих систем крайне различны.

У идеи использования мозга в качестве модели для вычислений глубокие корни. Первые попытки были основаны на простом пороговом нейроне , выдающем одно значение, если сумма взвешенных входящих данных превышает порог, и другое – если не превышает. Биологический реализм такого подхода, задуманного Уорреном Маккалохом и Уолтером Питтсом в 1940-х, весьма ограничен. Тем не менее, это был первый шаг к применению концепции срабатывающего нейрона в качестве элемента вычислений.

В 1957 году Фрэнк Розенблатт предложил другой вариант порогового нейрона, перцептрон . Сеть из взаимосвязанных узлов (искусственных нейронов) составляется слоями. Видимые слои на поверхности сети взаимодействуют с внешним миром в качестве входов и выходов, а скрытые слои, находящиеся внутри, выполняют все вычисления.

Розенблатт также предложил использовать основную особенность мозга: сдерживание. Вместо того, чтобы складывать все входы, нейроны в перцептроне могут вносить и отрицательный вклад. Эта особенность позволяет нейросетям использовать единственный скрытый слой для решения задач на XOR в логике, в которых выход равен истине, если только один из двух двоичных входов истинный. Этот простой пример показывает, что добавление биологического реализма может добавлять и новые вычислительные возможности. Но какие функции мозга необходимы для его работы, а какие – бесполезные следы эволюции? Никто не знает.

Нам известно, что впечатляющих вычислительных результатов можно добиться и без попыток создать биологический реализм. Исследователи глубинного обучения продвинулись очень далеко в деле использования компьютеров для анализа крупных объёмов данных и выделения определённых признаков из сложных изображений. Хотя созданные ими нейросети обладают большим количеством входов и скрытых слоёв, чем когда бы то ни было, они всё-таки основаны на крайне простых моделях нейронов. Их широкие возможности отражают не биологический реализм, а масштаб содержащихся в них сетей и мощность используемых для их тренировки компьютеров. Но сетям с глубинным обучением всё ещё очень далеко до вычислительных скоростей, энергетической эффективности и возможностей обучения биологического мозга.

Огромный разрыв между мозгом и современными компьютерами лучше всего подчёркивают крупномасштабные симуляции мозга. За последние годы было сделано несколько таких попыток, но все они были жёстко ограничены двумя факторами: энергией и временем симуляции. К примеру, рассмотрим симуляцию , проведённую Маркусом Дайсманом с его коллегами несколько лет назад при использовании 83 000 процессоров на суперкомпьютере К в Японии. Симуляция 1,73 млрд нейронов потребляла в 10 млрд раз больше энергии, чем эквивалентный участок мозга, хотя они и использовали чрезвычайно упрощённые модели и не проводили никакого обучения. И такие симуляции обычно работали более чем в 1000 раз медленнее реального времени биологического мозга.

Почему же они такие медленные? Симуляция мозга на обычных компьютерах требует вычисления миллиардов дифференциальных уравнений, связанных между собой, и описывающих динамику клеток и сетей: аналоговые процессы вроде перемещения заряда по клеточной мембране. Компьютеры, использующие булевскую логику – меняющую энергию на точность – и разделяющие память и вычисления, крайне неэффективно справляются с моделированием мозга.

Эти симуляции могут стать инструментом познания мозга, передавая полученные в лаборатории данные в симуляции, с которыми мы можем экспериментировать, а затем сравнивать результаты с наблюдениями. Но если мы надеемся идти в другом направлении и использовать уроки нейробиологии для создания новых вычислительных систем, нам необходимо переосмыслить то, как мы разрабатываем и создаём компьютеры.


Нейроны в кремнии.

Копирование работы мозга при помощи электроники может быть более выполнимым, чем это кажется на первый взгляд. Оказывается, что на создание электрического потенциала в синапсе тратится примерно 10 фДж (10 -15 джоулей). Затвор металл-оксид-полупроводникового (МОП) транзистора, значительно более крупного и потребляющего больше энергии, чем те, что используются в ЦП, требует для заряда лишь 0,5 фДж. Получается, что синаптическая передача эквивалентна зарядке 20 транзисторов. Более того, на уровне устройств биологические и электронные схемы не так уж сильно различаются. В принципе можно создать структуры, подобные синапсам и нейронам, из транзисторов, и соединить их так, чтобы получить искусственный мозг, не поглощающий таких вопиющих объёмов энергии.

Идея о создании компьютеров при помощи транзисторов, работающих как нейроны, появилась в 1980-х у профессора Карвера Мида из Калтеха. Одним из ключевых аргументов Мида в пользу «нейроморфных» компьютеров было то, что полупроводниковые устройства могут, работая в определённом режиме, следовать тем же физическим законам, что и нейроны, и что аналоговое поведение можно использовать для расчётов с большой энергоэффективностью.

Группа Мида также изобрела платформу для нейрокоммуникаций, в которой всплески кодируются только их адресами в сети и временем возникновения. Эта работа стала новаторской, поскольку она первой сделала время необходимой особенностью искусственных нейросетей. Время – ключевой фактор для мозга. Сигналам нужно время на распространение, мембранам – время на реакцию, и именно время определяет форму постсинаптических потенциалов.

Несколько активных сегодня исследовательских групп, например, группа Джиакомо Индивери из Швейцарской высшей технической школы и Квабены Боахен из Стэнфорда, пошли по стопам Мида и успешно внедрили элементы биологических корковых сетей. Фокус в том, чтобы работать с транзисторами при помощи тока низкого напряжения, не достигающего их порогового значения, создавая аналоговые схемы, копирующие поведение нервной системы, и при этом потребляющие немного энергии.

Дальнейшие исследования в этом направлении могут найти применение в таких системах, как интерфейс мозг-компьютер. Но между этими системами и реальным размером сети, связности и способностью к обучению животного мозга существует огромный разрыв.

Так что в районе 2005 году три группы исследователей независимо начали разрабатывать нейроморфные системы, существенно отличающиеся от изначального подхода Мида. Они хотели создать крупномасштабные системы с миллионами нейронов.

Ближе всех к обычным компьютерам стоит проект SpiNNaker , руководимый Стивом Фёрбером из Манчестерского университета. Эта группа разработала собственный цифровой чип, состоящий из 18 процессоров ARM, работающих на 200 МГц – примерно одна десятая часть скорости современных CPU. Хотя ядра ARM пришли из мира классических компьютеров, они симулируют всплески, отправляемые через особые маршрутизаторы, разработанные так, чтобы передавать информацию асинхронно – прямо как мозг. В текущей реализации, являющейся частью проекта Евросоюза «Человеческий мозг» , и завершённой в 2016 году, содержится 500 000 ядер ARM. В зависимости от сложности модели нейрона, каждое ядро способно симулировать до 1000 нейронов.

Чип TrueNorth, разработанный Дармендра Мода и его коллегами из Исследовательской лаборатории IBM в Альмадене, отказывается от использования микропроцессоров как вычислительных единиц, и представляет собой на самом деле нейроморфную систему, в которой переплелись вычисления и память. TrueNorth всё равно остаётся цифровой системой, но основана она на специально разработанных нейроконтурах, реализующих определённую модель нейрона. В чипе содержится 5,4 млрд транзисторов, он построен по 28-нм технологии Samsung КМОП (комплементарная структура металл-оксид-полупроводник). Транзисторы эмулируют 1 млн нейроконтуров и 256 млн простых (однобитных) синапсов на одном чипе.

Я бы сказал, что следующий проект, BrainScaleS , отошёл довольно далеко от обычных компьютеров и приблизился к биологическому мозгу. Над этим проектом работали мы с моими коллегами из Гейдельбергского университета для европейской инициативы «Человеческий мозг». BrainScaleS реализует обработку смешанных сигналов. Он комбинирует нейроны и синапсы, в роли которых выступают кремниевые транзисторы, работающие как аналоговые устройства с цифровым обменом информацией. Полноразмерная система состоит из 8-дюймовых кремниевых подложек и позволяет эмулировать 4 млн нейронов и 1 млрд синапсов.

Система может воспроизводить девять различных режимов срабатывания биологических нейронов, и разработана в тесном сотрудничестве с нейробиологами. В отличие от аналогового подхода Мида, BrainScaleS работает в ускоренном режиме, его эмуляция в 10 000 раз быстрее реального времени. Это особенно удобно для изучения процесса обучения и развития.

Обучение, скорее всего, станет критическим компонентом нейроморфных систем. Сейчас чипы, сделанные по образу мозга, а также нейросети, работающие на обычных компьютерах, тренируются на стороне при помощи более мощных компьютеров. Но если мы хотим использовать нейроморфные системы в реальных приложениях – допустим, в роботах, которые должны будут работать бок о бок с нами, они должны будут уметь учиться и адаптироваться на лету.

Во втором поколении нашей системы BrainScaleS мы реализовали возможность обучения, создав на чипе «обработчики гибкости». Они используются для изменения широкого спектра параметров нейронов и синапсов. Эта возможность позволяет нам точно подстраивать параметры для компенсации различий в размере и электрических свойствах при переходе от одного устройства к другому – примерно как сам мозг подстраивается под изменения.

Три описанных мной крупномасштабных системы дополняют друг друга. SpiNNaker можно гибко настраивать и использовать для проверки разных нейромоделей, у TrueNorth высока плотность интеграции, BrainScaleS разработана для постоянного обучения и развития. Поиски правильного способа оценки эффективности таких систем пока продолжаются. Но и ранние результаты многообещающие. Группа TrueNorth от IBM недавно подсчитала, что синаптическая передача в их системе отнимает 26 пДж. И хотя это в 1000 раз больше энергии, требующейся в биологической системе, зато это почти в 100 000 раз меньше энергии, уходящей на передачу в симуляции на компьютерах общего назначения.

Мы всё ещё находимся на ранней стадии понимания того, что могут делать такие системы и как их применять к решению реальных задач. Одновременно мы должны найти способы комбинировать множество нейроморфных чипов в крупные сети с улучшенными возможностями к обучению, при этом понижая энергопотребление. Одна из проблем – связность: мозг трёхмерный, а наши схемы – двумерные. Вопрос трёхмерной интеграции схем сейчас активно изучают, и такие технологии могут нам помочь.

Ещё одним подспорьем могут стать устройства, не основанные на КМОП – мемристоры или PCRAM (память с изменением фазового состояния). Сегодня веса, определяющие реакцию искусственных синапсов на входящие сигналы, хранятся в обычной цифровой памяти, отнимающей большую часть кремниевых ресурсов, необходимых для построения сети. Но другие виды памяти могут помочь нам уменьшить размеры этих ячеек с микрометровых до нанометровых. И основной трудностью современных систем будет поддержка различий между разными устройствами. Для этого смогут помочь принципы калибровки, разработанные в BrainScaleS.

Мы только начали свой путь по дороге к практичным и полезным нейроморфным системам. Но усилия стоят того. В случае успеха мы не только создадим мощные вычислительные системы; мы даже можем получить новую информацию о работе нашего собственного мозга.

Прошлое столетие ознаменовало сильнейший скачок развития человечества. Пройдя нелегкий путь от букваря до интернета, люди так и не смогли разгадать главную загадку, терзающую умы великих на протяжении не одной сотни лет, а именно, как работает и на что способен человеческий мозг?

До сих пор этот орган остается самым плохо изученным, а ведь именно он сделал человека тем, кем он сейчас является – высшей ступенью эволюции. Мозг, продолжая хранить свои секреты и тайны, продолжает определять деятельность и сознание человека на каждом этапе его жизни. Разгадать все возможности, на которые он способен, не в силах пока ни один современный ученый. Именно поэтому вокруг одного из главнейших органов нашего организма сконцентрировано большое количество мифов и ничем не обоснованных гипотез. Это может свидетельствовать только о том, что скрытый потенциал человеческого мозга только предстоит изучить, а пока его способности выходят за грани уже устоявшихся представлений о его работе.


Фото: Pixabay/geralt

Устройство мозга

Данный орган состоит из огромного количества связей, создающих устойчивое взаимодействие клеток и отростков. Ученые предполагают, что, если эту связь представить в виде прямой линии, ее длина восьмикратно превысит дистанцию к Луне.

Массовая доля этого органа в общей массе тела составляет не более 2%, а его вес варьируется в пределах 1019-1960 грамм. С момента рождения и до последнего вздоха человека он ведет непрерывную деятельность. Поэтому ему необходимо поглощать 21% всего кислорода, постоянно поступающего в организм человека. Ученые составили примерную картину усваивания мозгом информации: его память может вмещать в себе от 3 до 100 терабайт, в то время как память современного компьютера в данный момент совершенствуется до объема 20 терабайт.

Самые распространённые мифы о биологическом компьютере человека

Нейронные ткани мозга на протяжение жизнедеятельности организма погибают, а новые – не образуются. Это заблуждение, абсурдность которого доказала Элизабет Гуд. Нервная ткань и нейроны постоянно обновляются, и на смену умершим приходят новые соединения. Исследования подтвердили, что в очагах клеток, уничтоженных инсультом, организм человека способен «наращивать» новый материал.

Мозг человека раскрыт только на 5-10%, все остальные возможности не задействованы. Некоторые ученые объясняли это тем, что природа, создав такой сложный и развитой механизм, придумала для него защитную систему, оградив орган от излишней нагрузки. Это не так. Достоверно известно, что мозг во время любой деятельности человека задействован на все 100%, просто в момент совершения каких-либо действий реагируют отдельные его части поочередно.

Сверхспособности. Чем может удивить человеческий разум?

Некоторые люди, внешне не показывающие признаки наличия невероятных способностей, могут обладать поистине невероятными возможностями. Проявляются они не у каждого, но ученые утверждают, что регулярные усиленные тренировки мозга способны развить сперхспособности. Хотя секрет «отбора» людей, которые могут обладать правом называться гением, не раскрыт до сих пор. Кто-то умеет грамотно выходить из затруднительных ситуаций, кто-то на подсознательном уровне предчувствует приближающуюся опасность. Но более интересными с точки зрения науки являются следующие сверхспособности:

  • Возможность выполнения математических операций любой сложности без помощи калькулятора и расчетов на бумаге;
  • Возможность создавать гениальные творения;
  • Фотографическая память;
  • Скоростное чтение;
  • Экстрасенсорные способности.

Удивительные случаи раскрытия уникальных способностей человеческого мозга

За всю историю существования людей появилось большое количество историй, подтверждающих тот факт, что мозг человека может иметь скрытые способности, адаптироваться к изменению ситуации и перекладывать определенные функции с пострадавшего отдела на здоровую часть.

Сонарное зрение . Такая способность вырабатывается обычно после потери зрения. Дэниэл Киш сумел освоить технику эхолокации, присущую летучим мышам. Издаваемые им звуки, например, щелчок языком или пальцами, помогают ему ходить без трости.

Мнемоника – уникальная техника, позволяющая воспринимать и запоминать любой объем информации, независимо от ее характера. Многие люди осваивают ее в зрелом возрасте, а у американца Кима Пика — это врожденный дар.

Дар предвиденья . Некоторые люди уверяют, что способны видеть будущее. На данный момент этот факт полностью не доказан, но истории известно немало людей, которых такая способность прославила на весь мир.

Феномены, на которые способен человеческий мозг

Карлос Родригез в 14 лет после аварии потерял более 59% мозга, но при этом до сих пор живет совершенно обычной жизнью.

Яков Циперович после клинической смерти и недельного пребывания в коматозном состоянии перестал спать, мало ест и не стареет. С этого момента прошло уже три десятка лет, а он по-прежнему молод.

Фениас Гейдж в середине 19го века получил ужасную травму. Сквозь его голову прошел толстый лом, лишив его доброй части мозга. Медицина тех лет не была достаточна продвинута, и врачи предвещали ему скорую смерть. Однако мужчина не только не умер, но и сохранил память и ясность сознания.

Человеческий мозг, как и его тело, необходимо подвергать постоянным тренировка. Это могут быть как сложные, специально разработанные программы, так и чтение книг, разгадывание ребусов и логических задач. При этом не следует забывать про насыщение данного органа питательными элементами. К примеру, усилитель мозговой активности HeadBooster http://hudeemz.com/headbooster обладает большим количеством таковых. Но все же, только постоянные тренировки позволяют мозгу постоянно развиваться и увеличивать свои возможности.

Что такое биологическая система?

Биологическая система - это живая структура, существующая в определенной для неё среде обитания, обладающая способностью обмена веществ и энергии, а также защитой обмена и копирования информации, которая определяет её функции и возможности совершенствования способов взаимодействия с окружающей средой для сохранения и передачи информации о себе.

Структура биологической системы "клетка":

1. Информационный блок - информационный код, записанный в виде молекул ДНК, РНК. По аналогии с компьютерной программой - является "воплощенным Словом" определяющим функции и параметры системы. Его авторство принадлежит Творцу, Источнику жизни, Создателю всего видимого и не видимого - Богу.
2. Энергетический блок - запрограммированные возможности получения, преобразования и расхода энергии (циркуляции энергии). Энергия - сила необходимая для поддержания жизнедеятельности структурных элементов системы и активации их функций. Или, энергия - это количественная мера взаимодействия всех видов материи и информации, вызывающее изменение их состояния или структуры.
3. МПТ блок (материя, плоть, тело) - внешнее проявление информационного кода. Его функции - защита, сохранение, обмен информации. Является матрицей хранения и копирования информации. К нему относятся: мембраны, ферменты, рецепторы мембран, транспортные каналы мембран, биологически активные вещества (БАВ).

Основные задачи биологической системы "клетка": сохранение, обмен, копирование информации заключенной в ней.

Для выполнения своих задач, в первую очередь копирования, система должна попасть и находиться в определенной среде обеспечивающей ей адекватное потребностям поступление веществ и энергии.
Для регуляции процессов обеспечивающих сохранение, обмен и копирования информации используется рецепторно-медиаторный принцип.

Рецепторно-медиаторный принцип

Рецептор - (от лат. recipere - получать) любая информационно-энергетическая материальная система или структура (ИЭМ система, структура) воспринимающая информацию и изменяющая свое состояние или структуру определенным образом в результате действия медиатора.

Медиатор - (посредник, передатчик) любая ИЭМ система или структура, предназначенная для передачи определенной информации для рецептора.

Мы знаем о разных уровнях организации ИЭМ систем и структур это - атом, молекула, сложная молекула, вещество, вирус, клетка, ткань, орган, организм, коллектив, народ, государство, планета земля, солнечная система, галактика, вселенная.
На разных уровнях организации ИЭМ систем или структур свои механизмы рецепторно-медиаторного взаимодействия. Это относится и к межуровневому взаимодействию.
Изучение этих механизмов, а также поиск медиаторов для рецепторов и описание ответов (изменения состояния или структуры) ИЭМ систем или структур относится к задачам ученых.

Виды взаимодействия рецептора и медиатора

1. Определенный медиатор действует на определенный рецептор биологической системы, что ведет к определенному ответу.

2. Определенный медиатор действует на рецепторы, определяющие разные ответы биологической системы.

3. Несколько медиаторов действует на определенный рецептор биологической системы, что ведет к определенному ответу.

4. Несколько медиаторов действует на определенный рецептор, что ведет к разным ответам биологической системы (взаимодействие характерное для сложных биологических систем).

Результатом взаимодействия медиатора и рецептора является изменение состояния или структуры системы.

Состояние физиологического покоя - это состояние, при котором биологическая система находится в своей среде обитания и выполняет свои задачи, не выходя за рамки среднестатистических данных ее функциональной активности.

Основные механизмы регуляции состояния биологической системы

1. Изменение количества медиатора или рецептора (увеличение, уменьшение)
2. Изменение качества медиатора или рецептора путем изменения их структуры (усиление, ослабление, разрушение) и как следствие изменение их связи и передачи информации.

В биологической системе любая ИЭМ структура может быть, как рецептором для одних ИЭМ структур, так и медиатором для других. Контроля над регуляцией определенного состояния системы можно добиться тогда, когда мы знаем способы воздействия, изменяющие количество и качество медиатора и рецептора, отвечающих за это состояние.

Возможности изменения состояния клетки

Единственная возможность изменить состояние и структуру биологической системы "Клетка" - это изменить медиаторное действие окружающей среды обитания.
Изменение окружающей среды, которое обеспечивает поступление веществ, энергии и информации (воды или жидкости, воздуха или газов, земли или органических и неорганических химических элементов, температуры, физических полей, излучений, давления) ведет к изменению состояния или структуры клетки.

Структуры клетки, изменяющиеся в результате изменений окружающей среды.

1. Молекулы ДНК, РНК (источник информации о клетке и копирования).
2. Мембраны клетки и органел (защита клетки и внутренней среды).
3. Ферменты (регуляторы скорости обмена веществ, энергии, информации в клетке).
4. Рецепторы мембран (воспринимают информацию для клетки).
5. Транспортные каналы мембран (ворота входа и выхода веществ, энергии и информации).
6. Биологически активные вещества (медиаторы - продукты клетки, предназначенные для передачи информации внешней и внутренней среде).

Изменение качества и количества любой из этих структур в нужном направлении происходит за счет определенного изменения поступления жидкости, газа, органических или неорганических химических элементов, изменения температуры, физических полей, излучений, давления.


- Как Вы бывший военный врач, организатор с большим стажем вышли на теоретическую проблему устройства живого?

Каждый из нас в мыслях не раз обращался к этой теме, часто сомневаясь в справедливости гипотез спонтанного появления живого и теории эволюции . Навсегда сохранилось чувство изумления от "ума" компьютера после знакомства с его устройством и работой. Бурю мыслей породило исследование генома человека и других организмов, не оправдавшиеся сенсации , прогнозы и парадоксы . Впечатления , слившись, подвигли вновь читать биологию, затем информатику, искать в доступном пространстве всё, что касалось генетики , геномики , генов . Вскоре понял , что клетка и компьютер работают на основе общих информационных правил .

Но это надо доказать!

Конечно. Вначале, используя сравнения и аналогии, убедился, что клетка имеет строение типичное для компьютеров. Мембрана, как корпус компьютера, защищает внутреннее содержимое клетки от внешних воздействий и служит местом для подключения устройств ввода - вывода, роль которых выполняют рецепторы. Функцию материнской платы несёт цитоплазма, удерживая органеллы клетки в нужном положении и связывая их между собой. А вот и "сердце" клетки - ядро, хромосомы, гены, нить ДНК у про-кариот, выполняющие главную функцию по обработке информации, хранению долговременной и оперативной памяти, как винчестер в техническом компьютере. Аналогично переносным носителям информации - жестким и гибким дискам, в клетке интенсивно работают подвижные носители - это РНК, белки, прионы. Отличительной особенностью любой информационной машины является наличие часов и источника энергии . В клетке количество делений и время отсчитывают теломеры, а митохондрии обеспечивают энергией в виде АТФ. Молекулярная электроника опередила биологические отрасли наук, подтвердив предсказанную ранее миниатюризацию компьютеров, возможность использования в силу своей структуры и свойств многих органических молекул, в том числе и ДНК, в качестве транзисторов , триггеров , логических элементов и создания на их основе информацион-ных машин . Лабораторные варианты органического компьютера существуют, программное обеспечение для них также обязательно.

Какие ещё факты свидетельствуют об информационной состав-ляющей клеток?

Мне представляется самым весомым аргументом геномный парадокс , проявления которого до сих пор традиционными способами не могут быть объяснены. Оказалось, что структура генов не всегда определяет их свойства. Не подтвердились положения "ген - признак ", "ген - функция ", "ген -заболевание ". Один и тот же ген на разных этапах развития организма может выполнять разные функции . В генной сети функция гена может отличаться от функции изученной в изолированном состоянии. Много генов, которые "молчат", их свойства не известны. Общие по структуре гены могут контролировать развитие разных вариантов клеток. Ген человека и дрозофилы вырабатывает один и тот же сигнал - белковый лиганд для клеток мезодермы, контролируя образование крыльев мухи и парных конечностей человека. Начальные этапы миогенеза осуществляются набором генов, общих у дрозофилы, низших и высших животных и млекопитающих, включая человека. Число и организация НОХ-генов на хромосомах одинаковы практически у всех млекопитающих. Один и тот же ген можеткодировать несколько белков, а одному и тому же варианту белка могут соответствовать несколько генов. ДНК - дупликации, какую роль они играют и почему так разнятся геномы шимпанзе и человека по этому признаку? В Вашем обзоре ("МГ", №77 - 5.10.2005, с.14) отмечено, что у человека и шимпанзе одни и те же гены имеют в разных органах разную активность. Это за счёт разных программ , которые определяют существенные различия между биологическими видами. Теперь о парадоксальном количестве генов и "лишней ДНК" у разных биологических видов . У нематоды, (размером около 1мм.), генов 19903, у рыбки фугу (около 10 см) - 33609, крысы примерно 25000 и человека - 30000; соответственно некодирующей ДНК ("лишней, эгоистичной, мусорной") в % - 25, 16, 75, 97. Чем выше организован организм , тем меньше генов в его геноме и больше не кодирующей части нуклеотидов, чем сложнее процессы , тем меньше требуется генов для обеспечения жизнедеятельности. И, конечно же, по геномам не наблюдается никакого эволюционного ряда в развитии организмов.

В "мусорной" части ДНК много одинаковых повторяющихся последовательностей нуклеотидов. Есть ли здесь информационный смысл?

Предположение, основанное на развитии информационных техно-логий , уместно. Сейчас показано, что если на одной интегральной схеме штампуются микропроцессоры , места для хранения информации и другие элементы конструкции компьютера , то его производительность при сокращении размеров значительно повышается. Не надо "ходить" далеко за информацией, тратить лишнюю энергию. Огромное информационное пространство ДНК требует, чтобы вокруг генов концентрировались свои процессоры для работы с информацией , места для её хранения ,оперативной и долговременной памяти , что обеспечивало бы и последовательную и параллельную работу по анализу поступающей информации и выработке ответных решений и команд . Этим достигается быстродействие и дублирование на случай "внештатной " ситуации . Возможно, что нуклеотидные повторы и ДНК - дупликации как-то специализированы по информационным функциям .

А каковы существенные отличия биологических компьютеров от технических?

- Высокая надёжность за счёт стабильности органических соедине-ний и наличия системы многоуровневой защиты от повреждения носителей и искажения собственной информации . ДНК самая стойкая к тлению молекула, а апоптоз самый эффективный механизм защиты . Огромнаяпроизводительность , исчисляемая триллионами операций в секунду. Органические молекулы способны мгновенно изменять своё состояние под воздействием лазера , видимых частей светового спектра, звука, радиоволн. Наверное, не случайно двадцать аминокислот, участвующих в построении белков, в живом "левые", при изменении положения аминогруппы в углеродной цепи, им может быть доступна функция двоичной системы исчисления. Часть молекул могут генерировать лазерные отстрелы, выполнять функции хроматофоров, светодиодов, преобразователей сигналов. Геномы светятся, издают звуки, генерируют радиоволны определённых диапазонов, что регистрируется приборами. Приведенные рассуждения позволили дать одноклеточному организму и клетке информационное определение . Это органические замкнутые информационные машины , работающие на основе сложного программного обеспечения , определяющего их структурно-функциональную организацию, видовую принадлежность , целевые механизмы гомеостаза, воспроизводства себе подобных , с автономным энергетическим обеспечением и счётчиком времени . Я избегаю терминаэлектронно-вычислительная машина , потому что в клетке при обработке информации поток электронов не используется, и это не вычислительная , а логическая машина .

Но термин "биокомпьютер" я встречал задолго до вашей публикации.

Да, но в очень вольных интерпретациях. Всё, что не укладывается в приведенное выше определение, биокомпьютерами не являются, в том числе вирусы . На заре компьютерной эпохи биокомпьютером называли высокоорганизованные организмы. Затем представители определённых профессий считали компьютером мозг , с развитием генетики и геномики - перешли на геном, даже говорили о ДНК-компьютерах . Сегодня специалисты , исследующие информационные свойства воды , называют её "биокомпьютером живого ". Вода, хотя и обязательная, но только составная часть биологическогокомпьютера . В клетках, где информационные процессы превалируют, в частности в нейронах, воды до 90%, в волосах и ногтях её всего 8-10%.

А как же организмы или мозг ?

А вот многоклеточные организмы состоят из биокомпьютеров , скомпонованных и объединённых по принципам информационной сети .

Но как объединяются биологические компьютеры , составляющие организм ?

На помощь вновь приходит порождение информационной эпохи - созданная человеком глобальная информационная сеть Интернет . Главным условием для функционирования сети является совместимость всех компьютеров по техническим параметрам и программному обеспечению . В каждом организме клетки идентичны по структуре и имеют абсолютно одинаковое программное обеспечение . Исключение составляют эритроциты , они не имеют ядра и лишены информационных функций . В сети также необходим механизм для поддержания порядка и организованности, который обеспечивается серией технологий и протоколов Интернет . Назовём только часть из них.Transmission Control Protocol (ТСР) - вы не войдёте в сеть , не зарегистрировавшись у провайдера .Протоколы единой информационной паутины - в живом подобных протоколов и программ должно быть значительно больше, учитывая сложность , многофункциональность процессов и количествосоставляющих сеть биологических компьютеров . Человек это 14 трлн биокомпьютеров , в полтора раза больше, чем звёзд в двух галактиках вместе взятых - Млечном пути и Туманности Андромеды . Главная особенность Internet - это серверы на различных участках в сети . Это те же компьютеры , только предназначенные для обслуживания других компьютеров . Они, имея свои программы , напоминают нейроны с их удивительными функциональными возможностями. Их у человека 20 млрд.Чем выше организован организм, тем выше функциональные возможности нейронов. К примеру, у нематоды каждый нейрон приходится на 5 соматических клеток, у человека на 5000. Модем с соответствующей программой позволяют войти в сеть , осуществлять удалённое соединение ,загрузку файлов из компьютера в сеть и обратно - из сети в компьютер , обеспечиватьрегистрацию , смену протокола и другие функции. Бесспорно, это аналог синапсов, которые обеспечивают контакты между клетками. Информационная система человека на сегодня - вершина технологии . Интернет в сравнении с ней находится в зародышевом состоянии, его возраст около 40 лет. Основное отличие это огромная разница по количеству и мощности составляющихкомпьютеров , по сложности , многослойности и разнообразию программ . Считается, что для развития информационных сетей существует лишь два ограничения : быстродействие компьютеров и пропускная способность , связывающих их каналов. Так что перспективы развития у Интернета огромные. Но сегодня ни один из компьютеров , ни информационная система , созданные человеком, не в состоянии повторить работу биологического компьютера и самого простого многоклеточного организма.

Каковы же главные выводы из Ваших рассуждений?

Нельзя познать живое без изучения его информационной составляющёй, как и бесперспективно, искать живое и жизнедеятельность вне клетки. Информационная составляющая живого неизменна , геномы организмов стабильны и имеют многовариантную защиту . Изменчивость геномов ипрограмм угрожала бы гибелью не только особям , но и биологическим видам . Эволюции , как её трактует классическая биология , не могло быть, мутации не наследуются , а "лечатся "информационной системой живого . Все организмы не приспосабливаются, а противостоят факторам среды и способны к научению на основе собственного опыта. И организмы, и их репродуктивные способности программировались, создавались, возникали одновременно. Это один из многочисленных прогностических целевых цикличных процессов, присущих живому. Извечной проблемы "курицы " и "яйца " просто не существует. Темпы развития информационных технологий , особенно молекулярной электроники, удивляют - за 60 лет от вычислительных залов до молекулярного компьютера . Удивляют учёных короткие по эволюционным меркам промежутки времени, за которые усложнялись биологические виды, необъяснимые мутациями . Создаваяинформационные устройства , человечество , возможно, повторяет уже кем-то пройденный путь .Информационная составляющая как основа каждого живого организма существует! Однако сегодня нет отрасли знаний, методология, цели и методы исследований которой могли бы найти ключ к информационной части и информационным процессам в живом. Пора лечить очень распространённый хронический недуг цивилизации - "флюс " односторонности узких специалистов! Нужна информационная биология, как новая интеграционная наука, которая вобрала бы в себя современные информационные , технические , биологические , медицинские знания , достижения физики , химии и поставила бы задачу познать информационную суть живого . Здесь кроется самая тайная из тайн и самая загадочная из загадок устройства нашего мира!

Создавая информационные устройства , ч еловечество , возможно, повторяет уже кем-то пройденный путь ........



Понравилась статья? Поделиться с друзьями: