Интуиция искусственного разума

Материал из synset
Версия от 14:17, 11 февраля 2010; WikiSysop (обсуждение | вклад) (Защищена страница «Интуиция искусственного разума» ([edit=sysop] (бессрочно) [move=sysop] (бессрочно)))
Перейти к: навигация, поиск
Что такое истина? << Оглавление

Замечательный математик и физик Роджер Пенроуз в книге "Новый Ум Короля" (1989 г.), в связи с самореферирующим доказательством теоремы Геделя, пишет (выделение Пенроуза):

"Если ум математика работает полностью алгоритмически, то алгоритм (или формальная система), которые он обычно использует для построения своих суждений , оказываются не в состоянии справиться с утверждением полученным с помощью его собственного алгоритма. Тем не менее, мы можем (в принципе) понять что на самом деле истинно! Этот факт, по всей видимости, должен был бы указать ему на противоречие, поскольку он, как и мы, не может не заметить его. А это, в свою очередь, может свидетельствовать о неалгоритмическом характере его рассуждений!"

Т.е. речь идет о том, что хотя мы не способны алгоритмически доказать некоторое утверждение, однако способны "интуитивно" понять, что оно истинно. На это компьютер, работающий строго алгоритмично, не способен в принципе. А если это так, то всегда будут оставаться области познания, в которых человек имеет преимущество перед машиной. Стоит вспомнить, что говорил по этому поводу сам Тьюринг, который кое-что понимал в алгоритмах и теореме Гёделя:

"Ответ на это возражение вкратце состоит в следующем. Установлено, что возможности любой конкретной машины ограничены, однако в разбираемом возражении содержится голословное, без какого бы то ни было доказательства, утверждение, что подобные ограничения не применимы к разуму человека. Я не думаю, чтобы можно было так легко игнорировать эту сторону дела. Когда какой-либо из такого рода машин задают соответствующий критический вопрос и она дает определенный ответ, мы заранее знаем, что ответ будет неверным, и это дает нам чувство известного превосходства. Не является ли это чувство иллюзорным? Несомненно, оно бывает довольно искренним, но я не думаю, чтобы ему следовало придавать слишком большое значение. Мы сами слишком часто даем неверные ответы на вопросы, чтобы то чувство удовлетворения, которое возникает у нас при виде погрешимости машин, имело оправдание." ["Могут ли машины мыслить?" (1950)]

Ответ Тьюринга прозвучал на сорок лет раньше вопроса Пенроуза.

Как мы видели, истинность недоказуемых утверждений не очевидна для интуиции части человечества, по крайней мере, автора этой критики. Следовательно, интуиция не может быть надежным инструментом для установления истинности. И все же, проблема реализации интуиции для системы искусственного интеллекта имеет место. Для того же Пенроуза истинность недоказуемого утверждения интуитивно очевидна. Имеют ли машины право на такое же разнообразие интуитивных умозаключений?

Кроме этого, интуиция играет важную роль, как при выборе "интересной" теоремы, так и при поиске её доказательства. Достаточно привести решительное высказывание Анри Пуанкаре:

Доказывают при помощи логики, изобретают при помощи интуиции. Хорошо уметь критиковать, ещё лучше уметь творить. Вы способны распознать, правильна ли данная комбинация, и это недурно, раз вы не обладаете искусством сделать выбор между всеми возможными комбинациями. Логика нам говорит, что на таком-то пути мы можем быть уверены, что не встретим препятствий; она не говорит, какой путь ведёт к цели. Для этого необходимо видеть цель издалека, и интуиция есть та способность, которая этому нас учит. ["Наука и метод"].

Несомненно, человек обладает интуицией. Она является отражением вполне объективных процессов, происходящих "в бессознательной" части нашего разума. И только то, что сознание человека обычно не способно ощущать детали этих процессов, проявления интуиции часто воспринимается как ощущение некоторого чуда. По этой же причине широко распространено заблуждение о том, что интуиция не является проявлением алгоритмической активности, и компьютер в принципе не способен ею обладать. Поэтому, искусственный разум всегда будет уступать человеку в некоторых интеллектуальных задачах.

Интуиция в компьютерных науках имеет прямое отношение к проблеме распознавания. Человек, рассматривая различные доказательства, как в формальных теориях, так и в разговорных доводах, делает обобщения и учится распознавать то, что является истинным, не проводя детального доказательства. Таким образом, интуицию можно рассматривать как сложное проявление аналога способности живых существ распознавать зрительные и слуховые образы.

Интеллектуальные компьютерные системы подобное распознавание делают пока хуже человека. Однако делают! И прогресс в этой области постоянный. Рано или поздно к зрительному и слуховому распознаванию добавится распознание истинности математических утверждений.

Учитывая "очевидность" для многих неалгоритмичности интуиции, остановимся на этом подробнее.

Распознавание образов, проведенное как человеком, так и компьютером, не является алгоритмичным в том смысле, что не использует формально определенных методов решения задачи распознавания. Кошка похожа на кошку, и все тут. Когда строится тот или иной алгоритм распознавания, обычно в нем не перечисляются строго заданные правила типа: "Проверь есть ли у объекта хвост. Если да – то это кошка, если нет – математик". Компьютеру, как и ребёнку, показывают некоторое "множество кошек" и для правильно построенной системы этого оказывается достаточным, чтобы "понять", что есть кошка.

При построении "интеллектуальных алгоритмов" явным образом прослеживаются две противоположные тенденции.

В первой происходит поиск алгоритмов, решающих конкретную задачу. Например, шахматная программа, пытаясь найти оптимальный ход, последовательно перебирает узлы дерева вариантов развития партии. Методы типа "альфа – бета отсечений" этот перебор делают достаточно эффективным. Этот алгоритм приводит к более сильной игре компьютера по сравнению с игрой большинства представителей человечества. Однако, шахматная программа в покер играть не умеет. Аналогично, при помощи хорошо структурированной базы знаний (экспертной системы), можно достаточно неплохо решать некоторые задачи принятия решений в узких предметных областях, для которых эта база и создавалась.

Второй, противоположный, подход заключается в алгоритмическом задании правил функционирования некоторых систем. Причем, эти правила могут быть очень простыми а поведение систем очень сложным. Классический пример такой ситуации – игра "Жизнь". Три простых правила поведения клеточного автомата приводят к поразительно сложным структурам, которые в этих правилах явным образом заложены не были.

Некоторые, таким образом определенные системы, обладают не только сложным поведением, но и способностью ассоциативно запоминать информацию и проводить обобщения. В этом случае они становятся универсальными машинами, способными решать, например, задачи распознавания. Алгоритм "как это делать" в эти системы не закладывается. Например, правила работы компьютерных нейронных сетей задаются простыми алгоритмами описывающими "физику" поведения нейрона. В них ничего не говорится, как решать ту или иную задачу распознавания. Одна и та же, по разному обученная сеть может распознавать как спектрограммы химических элементов, так и лица симпатичных девушек.

Являясь по своей сути алгоритмическим объектом, нейронная сеть обладает элементами "неалгоритмичности" в своём поведении. По крайней мере, её создатель часто не способен точно предсказать результат работы такой системы. Она же может выдавать и нечёткие выводы (с вероятностью 70% невысокими горами и развитие на этой же основе математической интуиции. Естественно, если две системы обучаются на различных выборках, они будут иметь и несколько различную интуицию, хотя в большинстве случаев их выводы должны совпадать. Только благодаря этому, математики, обычно, способны убедить друг друга в достоверности своих выводов.

В связи с реализацией математической интуиции, в искусственных системах возникает множество вопросов. Какое пространство признаков необходимо использовать при обучении компьютера интуитивному мышлению? Понятно, что доказательства из обучающей выборки будут иметь различную длину (размерность). Какой мерой близости необходимо наделить две формулы или два математических рассуждения? Их список достаточно длинный, и задача выглядит исключительно сложной.

Проблема несчетности физического мира также имеет определенное отношение к счётным алгоритмам и искусственному интеллекту. Однако, даже если не принимать во внимание сомнения, приведенные выше, проблема несчетности, по-видимому, в равной степени относится как к компьютеру, так и к человеку. Хотя человеческий мозг является аналоговым природным компьютером, для его высокоуровневого поведения важность непрерывности, нижнего физического уровня представляется сомнительным. В конечном счете, мозг – это колония клеток, а интеллектуальное поведение – лишь отходы их жизнедеятельности. Компьютер также является физическим устройством, хотя его поведение, в большинстве случаев, достаточно идеально. Вполне вероятно, что в будущем потребуется дополнить классическую архитектуру компьютера некоторыми аналоговыми устройствами, например, физическим генератором случайных чисел и т.п. Однако, нет ни одного факта, доказывающего принципиальную функциональную несводимость естественных интеллектуальных систем к искусственным.

В любом случае, результаты Геделя или Кантора не имеют никакого отношения к проблеме построения искусственного интеллекта. Скорее всего, эта задача является типично конструктивной. Возможность построения искусственного интеллекта, превосходящего человеческий, будет доказана в момент его возникновения. Тогда как доказать его невозможность по-видимому невозможно...


Что такое истина? << Оглавление

Истинность и доказуемость - о конструктивной математике, Канторе и Гёделе