6. Наконец, что касается неокортекса, где, как предполагается, и скрывается тайна сознания. Обработка информации в нейросети неокортекса может завершиться в любом из шести его слоёв, но только, как считают некоторые исследователи, если сигнал дойдёт до пятого или шестого слоя, он будет доступен для осознания при помощи символьной логики. Вся подсознательная деятельность (можно сказать, что она лежит в основе интуиции) готовит базу для принятия решения на основе механизма манипулирования символами. Именно этот аспект надо рассмотреть более подробно.
Итак, вся накопленная человечеством информация представлена в символьном виде. И именно логическая (синтаксическая) манипуляция символами позволяет делать какие-либо умозаключения. Это совершенно иной подход, фундаментально отличающийся от нейронных сетей, какими бы глубокими они не были. Вполне вероятно, что где-то там в очень глубокой нейросети может зародиться логика манипулирования символами, но пока это неизвестно в силу уже неоднократно упомянутого отсутствия формализма интерпретации работы нейросетей. А с другой стороны, математика предоставляет достаточное число формализмов и инструментов для логической обработки символов.
Символьный подход в искусственном интеллекте сегодня незаслуженно отставлен в сторону. Скорее всего, это произошло из-за раннего разочарования в нём по причине того, что естественный язык как наиболее развитая символьная система, используемая человеком, является очень сложной и плохо формализуемой. Неопределённость высказываний, нечёткость формулировок, разного рода неточность измерений параметров – всё это вносит вклад в повышение сложности принятия решений на основе работы с символьной информацией. И если человек как-то справляется с этим в условиях неопределённости, неполноты и даже противоречивости входной информации, то обучить этому искусственную интеллектуальную систему достаточно сложно. Впрочем, это возможно.
Основная проблема символьного подхода заключается в быстро достигаемом «комбинаторном взрыве» при попытках разобраться в семантике обрабатываемых формул. Большое количество синонимов, нечёткие лингвистические переменные с не до конца определёнными шкалами – всё это отпугивало экспертов и повергало в уныние инженеров. Для того чтобы создать базу знаний для самой простой проблемной области, приходилось либо записывать тысячи правил на все случаи жизни, либо постоянно повышать уровень абстракции представления до того уровня, когда это представление становилось неадекватным решаемым задачам. В качестве примера можно привести базу знаний по выдаче предположений о возможных заболеваниях по общему анализу крови – база содержит более 1000 продукций, но при этом всё ещё не может охватить все возможные случаи, встречаемые в практике.
Однако сегодня описанные проблемы вполне поддаются решению. Из-за того же роста вычислительных мощностей, который помог развитию структурного подхода, вполне можно возобновить работы в рамках символьного направления искусственного интеллекта. Во многих проблемных областях знания в подавляющем большинстве случаев либо формализованы, либо хорошо поддаются формализации. Главной задачей становится создание нормальной машины вывода, которая справится с «комбинаторным взрывом».
Уже описанный символьный подход в искусственном интеллекте позволяет решить главную проблему, возникающую при использовании искусственных нейронных сетей и эволюционных алгоритмов, – интерпретацию результатов. Структурированные и формализованные знания и вывод на них позволяют осуществить пошаговое объяснение того, как был получен тот или иной результат. Все остальные особенности структурного подхода вполне доступны и в рамках символьного.
И тут хотелось бы отметить, что рождение искусственного интеллекта, скорее всего, произойдёт где-то на стыке двух подходов, т. е. при использовании гибридной парадигмы. Вряд ли в ближайшее время удастся реализовать in silico аналог человеческой нервной системы, поскольку её сложность невообразима. Вероятно, проще вырастить биологическую нейросеть такого объёма, чем найти вычислительные мощности для её симуляции. Однако нейросетевой подход даст базовые инструменты для первичной обработки и коммутации информации, поступаемой с разнообразных сенсоров на вход системе управления и принятия решений в составе искусственного интеллекта. А в ней уже будет использоваться символьный подход, реализованный в виде универсальной машины вывода. И такая конвергенция двух технологий в конце концов позволит реализовать давнюю мечту человека – рождение искусственного разума.
Следующая диаграмма графически показывает общую схему взаимодействия компонентов в гибридной интеллектуальной системе, которая основана на описанных ранее принципах.
Как видно из представленной диаграммы, гибридная искусственная интеллектуальная система представляет собой не что иное, как универсальную кибернетическую машину, которая имеет три основных элемента: аффекторы, подсистему управления и эффекторы. При помощи аффекторов кибернетическая машина воспринимает сигналы окружающей среды, которые обрабатываются в подсистеме управления, сигналы из которой далее поступают в эффекторы, воздействующие на окружающую среду. Это общая схема любого автономного агента, поэтому гибридная искусственная интеллектуальная система одновременно является и интеллектуальным агентом, реализуя уже описанный агентный подход. Однако представленная схема не совсем корректно отражает то, как устроена система принятия решений и реагирования на внешние и внутренние стимулы у человека. Если бы каждый внешний стимул передавался в самую верхнюю систему управления, которая в нашем случае связана с сознательной обработкой информации, то жить и функционировать было бы очень непросто. Даже предварительная фильтрация незначимых стимулов не спасла бы. Так что систему управления желательно разделить на две подсистемы, и тогда общая схема гибридного интеллектуального агента будет выглядеть так, как показано на следующей диаграмме.
Итак, универсальная машина вывода, или подсистема управления, теперь разбита на две части.
1. Реактивная подсистема управления фактически реализует традиционную схему управления, когда сигналы с сенсоров обрабатываются системой управления и по ним осуществляется формирование управленческих воздействий на среду (объект управления) через исполнительные устройства.
2. Проактивная подсистема управления добавляет дополнительный промежуточный уровень, который позволяет осуществлять обучение системы, построение прогноза на основе моделирования среды и своего поведения в ней, построение плана действий и сравнение факта с прогнозом и планом для осуществления обучения (адаптации) системы к изменяющимся условиям внешней среды.
Эти подсистемы связаны друг с другом при помощи передачи фокуса управления. Когда проактивная подсистема создаёт новый паттерн поведения системы в изменившихся условиях и среда «устоялась», контур управленческого воздействия спускается в реактивную систему, происходит автоматизация реакции, так как фактически для неизменяющихся условий деятельности обучение и проактивное поведение не требуется, а потому реактивная реакция будет работать быстрее. Если же в процессе «рефлекторного» действия реактивной системы обнаруживается изменение в среде или объекте управления, то реактивная система эскалирует фокус внимания на проактивную для обработки изменившихся условий и выработки новых правил и паттернов поведения.
Цикл управления в рамках такой интеллектуальной системы управления теперь заключается в последовательном выполнении следующих шагов.
1. Сбор входной информации со всех сенсоров, которые осуществляют мониторинг различных параметров объекта управления и среды, в которой функционирует система. Каждый тип сенсора в этом случае является отдельной индивидуальной модальностью восприятия гибридной искусственной интеллектуальной системы.
2. Сенсоры очищают входную информацию от шумов и осуществляют первый выбор пути дальнейшей обработки. Если входная информация с сенсоров соответствует каким-либо автоматическим паттернам поведения системы, то фокус управления передаётся в реактивную подсистему, которая выбирает конкретный паттерн и исполняет его. Однако если в процессе реагировать по реактивному сценарию, система обнаруживает, что что-то пошло не так, осуществляется эскалация на проактивную подсистему управления, как было описано ранее.
3. Если входная информация не имеет автоматической реакции для своей обработки, то осуществляется интеграция всех модальностей восприятия системы в единый блок описания объекта управления и среды. На выходе этого модуля появляется целостная картина восприятия, которая передаётся в проактивную подсистему управления.
4. Проактивная подсистема управления принимает решение на основе имеющихся у неё динамических моделей себя самой, объекта управления и среды. Здесь как раз и используются методы машинного обучения и нисходящей парадигмы искусственного интеллекта. На выходе проактивной подсистемы управления появляется управленческое воздействие, которое записывается в реактивную подсистему в качестве нового правила, а также направляется на исполнение.
5. Для исполнения управленческое воздействие переводится на язык конкретных исполнительных устройств, которые взаимодействуют с объектом управления и средой. Исполнительные устройства выполняют команду. Цикл работы завершается.
Таким образом видно, что гибридная интеллектуальная система отличается тем, что её аффекторы (сенсоры, датчики) и эффекторы (исполнительные устройства) связаны с подсистемой управления и принятия решений через нейронные сети. Тем самым реализуется «грязный» подход. Аффекторная нейронная сеть принимает очищенные сенсорами сигналы внешней среды и преобразует их в символы, которые подаются на вход универсальной машине вывода. Последняя осуществляет вывод на основе символьных знаний из своей базы знаний и выводит результат, который тоже представляется в виде символов. Тем самым реализуется «чистый» подход. Символьный результат подаётся на вход моторной нейронной сети, которая преобразует высокоуровневые символы в конкретные сигналы управления исполнительными устройствами.
Кроме всего прочего, внутри гибридной интеллектуальной системы должны быть реализованы контрольные связи от всех её элементов к сенсорам. Тем самым реализуются адаптационные механизмы, основанные на гомеостазе внутреннего состояния системы. Сенсоры фиксируют изменение внутреннего состояния каждой подсистемы, их элементов и комплексов, а в случае выхода контролируемых значений за пределы установленных гомеостатических интервалов подсистемой управления принимается решение, целью которого будет возврат изменённых показателей в установочный интервал.
Наконец, связь от проактивной подсистемы управления в саму себя олицетворяет так называемый «внутренний конфликт», когда искусственная интеллектуальная система может рассматривать и моделировать различные варианты развития ситуации. Цикл оценки и выбора приемлемой альтернативы осуществляется до тех пор, пока этот внутренний конфликт не будет улажен.
Интерес вызывает то, что система именно с такой архитектурой при переходе через определённый порог сложности может считаться разумной. Действительно, в соответствии с определением, данным нейрофизиологом Е. Р. Джоном (цитируется по книге Хофштадтера и Деннета «Глаз разума»), сознание – это «процесс, в ходе которого информация о множественных индивидуальных модальностях восприятия и ощущения сводится в единое многоплановое представление о состоянии системы и её окружения и интегрируется с информацией о воспоминаниях и потребностях организма, порождая эмоциональные реакции и программы поведения, способствующие приспособлению организма к его окружению». Представленная на предыдущей диаграмме кибернетическая схема на довольно высоком уровне абстракции описывает, как функционирует нервная система человека и высших животных. Ведь «разумность» в этом смысле определяется как адекватное реагирование не только на стимулы внешней среды, но и на внутренние состояния, что также включает в себя постоянный мониторинг состояния собственной подсистемы управления, что называется «саморефлексией», которая и приводит к осознанию.
Чтобы более точно понять изложенное, имеет смысл рассмотреть несколько примеров. Самым тривиальным примером интеллектуальной системы является человек. На определённом уровне абстракции человек как система выглядит именно так, как представлено на диаграммах выше. Роль сенсоров выполняют не только такие общеизвестные рецепторные системы, как зрение, слух, вкус, обоняние, осязание и равновесие, но и различного рода ноцицепторы, терморецепторы, проприорецепторы и хеморецепторы. Именно последние из перечисленных осуществляют мониторинг гомеостаза внутренних параметров организма, начиная от кислотности крови и заканчивая наличием и концентрацией в физиологических жидкостях организма определённых веществ. Каждый тип рецепторов непрерывно воспринимает сигналы из внешней по отношению к нему среды, при этом сразу же осуществляется первичная фильтрация входных значений по полосе принимаемого диапазона. Например, фоторецепторы на сетчатке глаза воспринимают фотоны только определённых длин волн.
Далее отфильтрованные сигналы «оцифровываются» и передаются в первичные сенсорные нейронные сети, где осуществляется перекоммутация и задействование следующих областей нервной системы. Потом сигнал идёт во всевозможные центры принятия решений, и часто он даже не доходит до некортекса, «поглощаясь» в подсознательных областях (но там также накапливается информация, которая в какой-то момент может стать основой и источником интуитивного инсайта). Если же сигнал доходит до неокортекса, в нём он начинает активно преобразовываться и задействовать множество ассоциативных связей, возбуждая побочные цепи. В итоге до верхних слоёв неокортекса префронтальных долей, где, как предполагается, и находится сознание, доходит символьная информация.
Например, если последовательность множества сигналов, падающих на сетчатку глаза, формирует на ней изображение движущейся рыжей кошки, то на верхних слоях неокортекса активированы те нейроны, которые отвечают за такие символы, как «кошка», «млекопитающее», «рыжее животное» и множество других.
Путём логических умозаключений (на самом деле последовательного возбуждения каскадов нейронов в ассоциативно-теменном и префронтальном участках неокортекса) формируется ответная реакция. Она также кодируется в виде символов. Например, человек, видящий кошку, может выбрать из всего множества ассоциаций одно слово «кошка», сосредоточившись на нём и подав сигнал нижележащим подсистемам активировать поведенческую реакцию типа «воскликнуть наименование объекта». Моторная нейронная сеть воспринимает этот символьный сигнал и начинает распространять его всё ниже и ниже. На самом нижнем уровне символ «кошка» преобразуется в динамическую последовательность сокращений мышц в разных отделах тела, чья совместная деятельность заключается в таком синхронизированном выполнении ряда элементарных сокращений, которые приведут к возникновению исходящего из лёгких потока воздуха с одновременным формированием в голосовых связках, нёбе, языке и зубах быстрого ряда сжатий и растяжений, приводящих к возникновению вибраций определённой амплитуды и частоты. Которые, в свою очередь, воспринимаются окружающими людьми и самим человеком, произнёсшим слово, как слово «кошка». Сам человек воспринимает ушами сказанное самим собой слово, которой через такой же каскад реакций и перекоммутаций нейронных сигналов доходит до контролирующего элемента неокортекса, что сравнивает заказанное и исполненное слово – они должны совпасть. Эта петля обратной связи контроля поведения широко используется в большинстве поведенческих актов человека. Всё это происходит практически мгновенно и без задействования сознания и внимания. Но похоже, что и сознание основано именно на этом механизме.
Другим примером является интеллектуальная система управления перекрёстком на улично-дорожной сети города. Здесь окружающей средой, в которой действует интеллектуальный агент, является дорожное движение. Сенсорами являются детекторы транспорта и другие периферийные устройства, которые снимают показатели транспортных и пассажиропотоков, значения выделенных погодных показателей и показателей локальной экологии, а также коммуникационное оборудование, принимающее сигналы операторов из центра управления. Кроме того, система постоянно опрашивает все подключённые к ней устройства на предмет их работоспособности, и это функция контроля собственного гомеостаза. Исполнительными устройствами являются светофоры, табло отображения информации и иные средства прямого и косвенного управления дорожным движением. В качестве подсистемы управления выступает контроллер светофорного объекта, выполняющий сценарии управления при возникновении тех или иных шаблонных или особых ситуаций на дороге, характеризующихся выделенными множествами значений входных параметров, включаются те или иные режимы управления дорожным движением.
Сенсорная и моторная нейронные сети здесь редуцированы до декодеров сигналов с оборудования и преобразователей сигналов верхнего уровня из подсистемы управления в замыкания конкретных электрических цепей, зажигающих лампочки или светодиоды в светофорах или на табло. Отличительной особенностью такого интеллектуального агента является то, что он может действовать автономно, а также он может взаимодействовать с другими агентами, входящими в состав интеллектуальной транспортной системы. При этом подобное взаимодействие направлено на кооперативное достижение единой цели оптимизации дорожного движения в целом путём «торга» во имя достижения локальных целей каждого конкретного интеллектуального агента.
Размышления над тем, может ли искусственная система мыслить так, как человек (что бы это ни значило – мы до сих пор не уверены относительно природы сознания), приводят к двум различным пониманиям искусственного интеллекта как практического направления:
• слабый искусственный интеллект;
• сильный искусственный интеллект.
Споры о том, что такое искусственный интеллект, начались практически сразу же после введения в научную практику определения нового понятия. Но до сих пор ответа на вопрос о том, что же такое «искусственный интеллект» и какие критерии можно использовать для того, чтобы определить, является ли искусственная система интеллектуальной и, шире, разумной, нет. С точки зрения философии сознания ответить на этот вопрос не так-то просто. Как уже было рассказано выше, первым разработать хотя бы какие-то операционные критерии попытался Алан Тьюринг в рамках интуитивного подхода. Попытка не очень удачная, тем не менее она вполне применима, хотя в дальнейшем были определены совершенно иные принципы построения интеллектуальных систем. И системы, построенные на этих принципах, вообще не могут быть подвергнуты тесту Тьюринга, хотя по иным критериям должны считаться интеллектуальными.
Масла в огонь подлил один из интереснейших философов современности Джон Сёрль, который предложил разделить понимание слабого и сильного искусственного интеллекта. Под сильным он понимал такой искусственный интеллект, который, если говорить самыми простыми словами, воспринимает самого себя в качестве отдельной личности. Это очень узкое понимание, поскольку привлекает антропоморфное сравнение. Однако искусственное разумное существо не обязательно должно мыслить как человек. Поэтому говорить о том, что оно будет оперировать человеческими категориями, в том числе и при осознании себя, очень опасно с методологической точки зрения.
Но в итоге исследователи и разработчики интеллектуальных систем пришли к соглашению о том, что считать искусственным интеллектом. Под слабым искусственным интеллектом начали понимать интеллектуальные системы, которые решают слабо алгоритмизируемые или вовсе неалгоритмизируемые задачи методами, схожими с теми, которые использует для решения таких задач человек. Другими словами, слабый искусственный интеллект представляет собой реализацию отдельных когнитивных функций человеческого разума для достижения конкретных целей. При этом о наличии у таких систем самосознания, не говоря уже об иных высших функциях психологической деятельности человека, даже не говорится – их нет, и их существование даже не предполагается.
С другой стороны, сильный искусственный интеллект подразумевает появление у искусственной интеллектуальной системы самосознания с дальнейшим выходом в автономный режим жизнедеятельности и получением возможности перепрограммировать саму себя с целью усовершенствования. Именно с этим типом связывается точка достижения технологической сингулярности – сильный искусственный интеллект будет экспоненциально развиваться, поглощая всю накопленную человечеством информацию и используя её для собственного роста. Более того, он сможет генерировать новые идеи и концепции, как это делает человек, что в конце концов приведёт к тому, что сильный искусственный интеллект превзойдёт в интеллектуальных способностях всё человечество вместе взятое. Для обозначения таких искусственных разумных существ далее будет использоваться слово «ИскИн».
Наконец, в последнее время возникла новая парадигма в науке о сознании, которая пока ещё остаётся больше фантастической, нежели реальной. Речь идёт о так называемой гибридизации сознания, когда человеческий естественный интеллект сливается с искусственным интеллектом и при этом усиливается его методами и технологиями. Фактически цель этого направления исследований состоит в отыскании путей и возможностей для осуществления цифрового бессмертия человеческой личности, т. е. записи её бренного биологического тела на цифровые носители. Это очень занятное направление исследований, которое находится в самом начале своего пути. Но тут есть многое, о чём можно подумать.
Необходимо отметить, что в конечном итоге работы над искусственным интеллектом в понимании искусственного разумного существа могут привести к его появлению. Сильный ИскИн может появиться, так как этому нет фундаментальных преград. Действительно, мы сами, люди, – отчётливый пример того, что разум, интеллект и сознание существуют в этой реальности, а это значит, что все понятия, описывающие конкретные явления, не являются умозрительными. Интеллект так или иначе существует, так что почему же надо отказывать себе в возможности его моделирования или даже создания? Абсолютно не стоит.
Однако размышления наводят на мысли о том, что, скорее всего, ИскИн может появиться в виде гибридной ИИ-системы на стыке, как минимум, трёх дисциплин: информатики, химии с биологией и техники.
Действительно, описанная ранее квазибиологическая парадигма искусственного интеллекта сегодня является одним из мощно развивающихся направлений исследований. В чашках Петри уже научились выращивать искусственные нейронные сети на живых нейронах, которые обучаются управлять простыми механизмами. Бионические протезы и импланты, в том числе нейроимпланты, становятся реальностью на наших глазах. Достижения робототехники поражают сегодня даже видавших виды инженеров и учёных.
Другими словами, информатика и весь комплекс наук в её основе даст понимание основ вычислительных процессов и того, как они моделируют психологические функции. Техника и все смежные дисциплины дадут возможность создавать физические тела для ИИ-систем. А химия и биология подведут к пониманию того, как в ИИ-системы встроить механизмы метаболизма и эволюции, что в конечном итоге даст ключ к пониманию жизни как таковой. На пересечении этих трёх достижений и родится ИскИн.
Однако всё может произойти и совсем не так…
На этой жизнеутверждающей ноте мы заканчиваем первую главу. Дальше мы рассмотрим три столпа искусственного интеллекта и современное состояние всех технологий, которые сегодня объединяются термином «искусственный интеллект». Речь, конечно, о слабом его варианте. Так что начнём…