Сознание и интеллект. Проблемы искусственного интеллекта.


 Проблемами искусственного интеллекта ученые начали заниматься еще в 50—60-е гг. XX в. В первый период исследования философы обсуждали вопрос: «Может ли машина мыслить?», а программисты с помощью маломощных ЭВМ решали задачи распознавания образов и речи, понимания естественного языка, доказательства теории и тл. В целом рассматривались проблемы, связанные с моделированием деятельности органов чувств и мышления.
Второй этап исследований начался в 70-е гг., когда стало очевидно, что воспроизведение функционирования органов чувств человека с помощью компьютерных программ не принесло практических результатов. Доминирующими стали теоретические исследования в области способов представления и использования знаний. Был создан целый ряд теоретических моделей знания: семантические сети, теория фреймов и др. 1982 год — поворотная веха в разработке искусственного интеллекта, поскольку именно тогда встал вопрос о том, будут ли вестись производство персональных компьютеров. Тогда же обнаружился и семантический пробел — различие между естественным языком и языками программирования.
В последние годы особых достижений в разработке искусственного интеллекта не наблюдается. Речь идет не столько о трудностях, возникающих в ходе теоретических разработок, сколько о практической пользе от их внедрения в повседневную жизнь.

Существует ряд причин, обусловливающих сложность создания искусственного интеллекта, максимально приближенного к сознанию человека.
Первая причина связана с тем, что большинство форм сознания (ощущение, восприятие, представление, воля, вера, эмоции, интуиция и т.д.) не являются алгоритмическими по самой своей сути. Более того, такие проявления сознания, как ощущение и восприятие, возникают в процессе непосредственного телесного контакта человека с окружающей средой. Чтобы адекватно их смоделировать, необходимо воспроизвести в технической системе всю телесность человека. Для указанных форм сознания характерна и ситуативная изменчивость. Например, вкус одного и того же продут может восприниматься по-разному: яблоко после лимона может показаться сладким, а после халвы — кислым.


Вторая причина заключена в особенностях самого мышления. Среди всех форм сознания мышление является наиболее алгоритмизированным. Однако проблема его компьютерного моделирования также не решена. Мышление бывает двух типов: интуитивное и логическое. Интуитивное мышление характеризуется тем, что в его пространстве отчетливо даны исходная проблема и окончательный результат. Промежуточное звено в виде проделанных мыслительных процедур остается неясным. Нередко именно на интуитивном уровне появляется принципиально новый вариант решения проблемы, а иногда вырисовывается и сама проблема на фоне привычного и, казалось бы, давно известного. Но если способы функционирования интуитивного мышления остаются неизвестными, то моделировать их не представляется возможным. Логическое мышление предполагает формирование суждения, принятие решения на основе однозначного алгоритма. Такая ситуация возможна только при наличии достаточного количества исходной информации для использования алгоритма. Логическое мышление не индивидуально. Если алгоритм известен, то его могут использовать разные люди и получать при этом одинаковые результаты. Структура алгоритма зависит от принятых аксиом, набор которых составляет основу рассуждений, и выбранных правил логики. В рамках однозначного алгоритма отсутствует возможность выбора, а значит, отсутствует творчество. Невозможность моделирования творческих процессов обусловлена также тем, что пока не раскрыты сущность и природа самого творчества.
Третья причина — проблема обучение компьютера. Компьютер с искусственным интеллектом можно сравнить с ребенком, который должен научиться познавать мир, обрабатывать информацию теми способами, которые присущи людям. Однако до конца еще не познаны сами механизмы процесса обучения, поэтому остается без ответа вопрос; как и чему обучать компьютер? Кроме того, для человека характерен процесс не только обучения, но и самообучения, что предполагает самостоятельный поиск недостающей информации среди знаний, имеющихся в культуре, а также продуцирование новых.
Четвертая причина — проблема семантического пробела, т.е. проблема перевода наших знаний на язык программирования, язык компьютера. В этом направлении частично разработана математическая теория логических выводов, аналогии, индукции, дедукции и др. Но эта теория не применима, когда сравниваются реалии, взятые из жизни, из текстов, из бытового разговора с человеком, а также реалии, полученные на основе зрительных образов. Чтобы осуществить процедуру их сравнения, необходимо ответить на вопрос, что есть знание, и представить информацию в оформленном виде, а иначе мы не получим факты. Но если нет фактов, не срабатывает щ логическая программа и нельзя применить правила логики.

Крайне сложно формализовать ответ на вопрос, что такое знание. Не менее сложно оформить большую часть наших знаний с помощью языка, который воспринимал бы компьютер. Например, каждому водителю понятно правило: «если расстояние от двигающегося автомобиля до находящегося впереди него сокращается, нужно тормозить, то для компьютера это правило — загадка. Машина не понимает смысла слов “расстояние сокращается” — компьютеру нужно указать, с какого расстояния происходит торможение, а также с какой силой надо тормозить.
Многие наши знания являются нечеткими, размытыми, имеющими скрытый смысл. Впервые на трудность формального представления знаний обратил внимание Л. Заде. В 1965 г. он создал теорию нечетких множеств и нечетких логических выводов. Нечеткость, как понятий, так и правил их обработки позволяет выстроить логические рассуждения довольно близкие к тому, что проделывает человек в обыденной жизни. По сравнению с классической или символической логикой это открывает более широкие возможности для адекватного представления знаний.

Первый компьютер, работающий на принципах «нечеткой логики», был разработан в Японии еще в 1988 г. Т. Я мага вой. Системы, работающие по принципу нечеткой логики, находят большое применение во многих отраслях промышленности, транспорта и бизнеса. Разработаны языки программирования, на основе которых можно моделировать работу "нечестных" компьютеров. Сегодня ученые, разрабатывающие проблемы моделирования искусственного интеллекта, считают, что экспериментальные образцы «супер-зума» будут представлять собой нечеткий нейронный искусственный интеллект. По их мнению, будущие интеллектуальные системы должны иметь следующие составляющие 1) нейронные сети; 2) базу знаний; 3) нечеткую логику. Первыми это планируют осуществить японские специалисты. По прогнозам Г. Моравека, компьютер для человекоподобных роботов появится в 2020 году, а домашний компьютер с характеристиками, сравнимыми с человеческим мозгом — к 2030. Очевидным является тот факт, что проблемы, связанные с искусственным интеллектом, нельзя решить без теоретических исследований в области эпистемологии и философии в целом, поскольку именно они дают ответ на вопрос, каковы механизмы приобретения и представления (оформления) знаний.

Если в целом характеризовать степень разработанности проблемы сознания, то следует отметить, что и сегодня этот феномен остается необъясненным. Остается непонятным, как вещество мозга производит мысли, как происходит переход от невербального уровня психики к вербальному, как связаны в процессе появления сознания биологическое и социальное. Тайна сознания еще ждет своей разгадки. И чем дальше человек продвигается по пути ее разгадки, тем острее встает вопрос: а не приведет ли вторжение человека в тонкую структуру информационных процессов к уничтожению самого человека и его Разума?