монетку. Перед бросанием монетки есть две возможности: или первая подача будет у англичан, или у австралийцев. После бросания монетки от этих двух
При этом, разумеется, одни знаки несут меньше информации, чем другие. Например, буквы, которые встречаются часто, такие как
На деле подобные усовершенствования ничего не дают, потому что реальный мир несовершенен: рукописные тексты всегда содержат описки и двусмысленности, наборщики делают опечатки, телефонные линии полны помех.[116] К тому времени, как сообщение достигнет другого конца линии, некоторые его фрагменты потеряются, а некоторые посторонние звуки окажутся добавлены. Для идеальных сообщений, в которых нет избыточных знаков, подобный шум губителен. Другого конца провода достигнет сообщение, отличное от исходного, и не будет никакой возможности узнать, что произошла ошибка.
Если же сообщение содержит избыточные биты информации, то ошибки можно отследить и восстановить исходное сообщение. Например, можно послать одно и то же сообщение дважды. Второе сообщение совершенно избыточно, но если между двумя полученными сообщениями есть разница, мы поймем, что произошли какие-то ошибки. Мы, конечно, по-прежнему не будем знать, какой вариант правильный. Но если мы пошлем то же сообщение в третий раз, мы можем отследить случаи, где два из полученных трех сообщений совпадают, и, исходя из этого, выбрать правильный вариант.
Я помню времена, когда у нас не было не только компьютеров, но и электронных калькуляторов. Сложные математические расчеты приходилось выполнять вручную, и при этом почти неизбежно возникали ошибки. Стандартная процедура отслеживания таких ошибок состояла в том, чтобы повторять выполняемые расчеты трижды. Если в двух случаях из трех получался один и тот же ответ, он, скорее всего, и был правильным, потому что маловероятно, чтобы в обоих расчетах была допущена одна и та же ошибка.
Наш мозг сталкивается с той же самой проблемой. Сообщения об окружающем мире, поступающие от наших глаз и ушей, содержат шум и полны ошибок, поэтому наш мозг не может уверенно сказать, где 'правда', а где 'ошибка'. Чтобы избежать этого, наш мозг вовсю пользуется избыточностью поступающей информации. Когда мы разговариваем с другим человеком, мы обычно не только слушаем, что он говорит, но и внимательно смотрим за движением его губ. Сопоставляя эти две разновидности информации, наш мозг получает лучшее представление об исходном сообщении. Обычно мы не осознаём, что нам помогают в этом движения губ, но когда мы смотрим озвученный иностранный фильм (или фильм на нашем родном языке, в котором плохо смонтирована фонограмма), мы сразу чувствуем, что что-то не так, потому что движения губ не соответствуют звукам.
Применение теории информации позволило сделать телефонные линии более эффективным средством передачи сообщений.[117] Но роль, которую сыграла теория информации, отнюдь не ограничивается увеличением прибыли телефонных компаний. Определение информации через простые физические состояния (такие, как положения 'вкл' и 'выкл' электронного переключателя) означало, что теперь информацию можно хранить на физических носителях, то есть на цифровых запоминающих устройствах. Долгое время для хранения информации использовались книги, написанные и читаемые людьми. Новые запоминающие устройства позволяли записывать и считывать информацию машинам, от которых не требовалось понимания смысла записываемых и считываемых знаков. И конечно, эти новые запоминающие устройства можно было наполнять уже новым содержанием.
Уже в 1943 году Уоррен Маккаллок и Уолтер Питтс выдвинули новую нейронную доктрину, согласно которой нейрон – это элементарная функциональная единица мозга, служащая для обработки информации. Маккаллок и Питтс также предположили, что из обширных сетей простых электронных 'нейронов' можно сконструировать искусственный мозг. Первые компьютеры были сделаны не по образцу нейронных сетей, однако, подобно искусственным нейронным сетям, они представляли собой устройства, способные хранить, передавать и видоизменять информацию в соответствии с определенными правилами. Когда в сороковых годах были сконструированы первые такие компьютеры, их сразу стали называть 'электронные мозги'. Такие машины можно было научить делать то, что делает наш мозг.
На что же способны хитроумные устройства?
В 1956 году наука о создании устройств, способных делать разные хитроумные вещи, получила название 'искусственный интеллект'. Исследовательская программа этой науки, как и любой другой, предполагала, что начать нужно с решения самых легких проблем. Восприятие окружающего мира казалось сравнительно легким делом. Почти все люди умеют с легкостью читать рукописный текст и узнавать лица, и поначалу казалось, что создать машину, способную читать рукописный текст и узнавать лица, должно быть тоже не особенно сложно. Игра в шахматы – напротив, очень сложное дело. Очень немногие люди способны играть в шахматы на уровне гроссмейстера. Создание машин, умеющих играть в шахматы, лучше было отложить на потом.
Прошло пятьдесят лет, и компьютер, предназначенный для игры в шахматы, выиграл у чемпиона мира.[118] Проблема научить машину восприятию, напротив, оказалась очень сложной. Люди по-прежнему умеют узнавать лица и читать рукописный текст намного лучше, чем машины. Почему же эта проблема оказалась такой сложной? Оказывается, даже моей способностью видеть, что сад у меня за окном полон разных объектов, очень сложно наделить машину. Тому есть много причин. Например, видимые объекты перекрывают друг друга, а некоторые из них еще и движутся.
Откуда я знаю, что это за коричневое пятно – часть забора, или дерева, или птицы? Мой мозг решает все эти удивительно сложные задачи и заставляет меня думать, что я воспринимаю мир, не прилагая никаких усилий. Как же он это делает?
Развитие теории информации и цифровых компьютеров показало, что наше восприятие – дело очень сложное. Но наш мозг с ним справляется. Означает ли это, что цифровой компьютер не может служить хорошей моделью мозга? Или нам нужно найти какие-то новые способы обработки информации и научить им компьютеры?
Проблема с теорией информации