Сознание и искусственный интеллект

Министерство образования Российской федерации

Уральский государственный лесотехнический университет

Кафедра философии

Реферат на тему :

Сознание и искусственный интеллект

                                                                          Выполнил : Борисов А.В.,    ДС-36

                                                           Проверил :  Яковлева Е.А.

Екатеринбург – 2004

СОДЕРЖАНИЕ

Введение                                                                                                          3

Взгляды на термин “знание”                                                                         5

Сознание и разум                                                                                            8

Искусственный интеллект и теоретические проблемы психологии         11

Заключение                                                                                                     13

Список использованной литературы                                                           14

ВВЕДЕНИЕ

Все расширяющееся применение электронных вычис­лительных машин и повышение их роли в жизни об­щества сделало актуальной проблему соотношения возможностей человеческого мышления и так называ­емого машинного, или искусственного, интеллекта.

В настоящее время практически невозможно ука­зать ни одной, сферы человеческой деятельности, где бы не использовались или не могли быть использо­ваны ЭВМ. При этом возникают вопросы: «Какой вид работы принципиально не могут выполнить со­временные ЭВМ и почему?», «Какие сферы, уровни человеческой деятельности не подвластны автомати­зации?», «Каковы перспективы развития и использо­вания ЭВМ?»

Ответы на эти вопросы в значительной мере за­висят от решения проблемы соотношения и связи че­ловека и кибернетических машин. Она имеет не толь­ко теоретический, но и практический аспект, так как распределение функций между человеком и ЭВМ невозможно осуществись без правильного понимания вопроса о характере этого соотношения и его комп­лексной разработки в ряде аспектов: кибернетиче­ском, логическом, математическом, психологическом, психофизиологическом. Но при исследовании состоя­ния проблемы и трудностей, встающих на пути ее ре­шения, выдвигаются вопросы, которые выходят за рамки компетенции специалистов по кибернетике, ло­гике, математике и психологии и требуют философско-методологического анализа и аргументации.

В литературе, посвященной философским пробле­мам кибернетики, рассмотрение проблемы соотноше­ния мышления человека и возможностей ЭВМ нередко подменялось вопросом: Думают ли машины? При этом понятие «машина» трактовалось слишком аб­страктно, а мышление определялось в терминах формальной логики и машинных операций. Предпо­лагалось, что развитие «машинного мышления» стол­кнется лишь с чисто техническими трудностями, ко­торые будут преодолены, подобно тому как авиация, постепенно совершенствуясь, преодолела «звуковой барьер»

Поводом для поспешных оптимистических выво­дов послужили первые успехи в решении достаточно простых задач, допускающих их полную алгоритми­зацию, программирование и последующую автоном­ную обработку информации на ЭВМ. При этом казалось, что решение и более сложных задач возможно путем увеличения скорости переработки информации, объема «памяти», путем автоматического распозна­вания вводимого в ЭВМ текста с помощью автомати­ческих читающих устройств и главное—путем совер­шенствования информационно-логических программ, в частности методов эвристического программирова­ния.

Однако при переходе к решению сложных задач оказалось невозможным создать полно­стью формализованные решения и машинные про­граммы. Причина этого заключается в том, что про­цесс их решения на всех основных этапах включает неформальные, в частности творческие, элементы, яв­ляющиеся прерогативой исключительно человека.

Осознание этого обстоятельства и послужило толчком к изменению стратегии применения ЭВМ во всех сферах человеческой деятельности; от стратегии, предполагавшей постепенную принципиально не ограниченную замену функций человеческого интеллекта искусственным, к стратегии кооперирования возмож­ностей человека и ЭВМ. Если раньше кибернетики стремились обосновать и доказать плодотворность далеко идущих аналогий между человеческим мыш­лением и кибернетическими устройствами, то в на­стоящее время это уже мешает трезвой научной оценке возможностей ЭВМ.

Поэтому актуальной задачей кибернетики стало изучение фундаментальных различий, возможностей и связей человека и кибернетических устройств.

Методологический анализ проблем «искусственно­го интеллекта» и диалогового взаимодействия че­ловека с ЭВМ важен не только для обоснования об­щей стратегии решения этих проблем, но и для разработки вопросов распределения функций человека и ЭВМ в процессе самого решения.

ВЗГЛЯДЫ НА ТЕРМИН “ЗНАНИЕ”

         В последние годы термин “знание” все чаще употребляется в информатике. Он встречается в таких словосочетаниях, как “база знаний”, “банк знаний”, язык представления знаний”, “системы представления знаний” и других. Специалисты подчеркивают, что совершенствование так называемых интеллектуальных систем (информационно-поисковых систем высокого уровня, диалоговых систем, базирующихся на естественных языках, интерактивных человеко-машинных систем, используемых в управлении, проектировании, научных исследованиях) вот многом определяется тем, насколько успешно будут решаться задачи представления знаний.

         Неудивительно, что перед теми, кто занимается проблемой представлении знаний, встает вопрос о том, что такое знание, какова его природа и основные характеристики. В связи с этим предпринимаются, например, попытки дать такое определение знания, из которого можно было бы исходить в решении задач представления знаний в компьютерных системах. Подчеркивается, что для разработки средств и методов представления знаний необходимо использовать результаты когнитивной психологии - науки, выявляющей структуры, в виде которых человек хранит информацию об окружающем его мире. Высказывается мнение, что язык и представление знаний в системах искусственного интеллекта должны рассматриваться в рамках особого научного направления - когитологии. Предметом когитологии должно стать знание как самостоятельный аспект реальности.

         Представлению данных присущ пассивный аспект: книга, таблица, заполненная информацией память. В теории искусственного интеллекта особо подчеркивается активный аспект представления: “знать” должно стать активной операцией, позволяющей не только запоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания для рассуждений на их основе. Следовательно, истоки представления знаний - в науке о познании  (эпистемологии или гносеологии), а его конечная цель - программные средства информатики.

         Вместе с тем вопрос, что такое знание, каковы его основные свойства и способы получения, - это исконно философский вопрос. Закономерно поэтому стремление дать философское осмысление вопросов компьютерного представления знаний, выявляя прежде всего их гносеологические и философско-логические аспекты.

         Принципиальная мировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредника в человеческой познавательной деятельности. Компьютерная система, подобно другим предметам-посредникам (орудиям труда и предметам быта, инструментам, приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальную роль в познании, является средством объективизации накопленного знания, воплощением определенного социально-исторического опыта практической и познавательной деятельности. Ее важнейшая теоретико-познавательная роль и обусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которые оказываются существенными с точки зрения общественной практики, становится возможным именно при помощи предметов-посредников. “ЭВМ, - подчеркивает акад. Г. С. Поспелов, - представляет собой инструмент для интеллектуальной деятельности людей, а научное направление “искусственный интеллект” придает этому инструменту новые качества и обеспечивает новый, более перспективный стиль его использования. Спор между сторонниками и противниками искусственного интеллекта оказывается в связи с этим совершенно беспредметным.

         Для философского анализа рассматриваемой проблематики важен вопрос о том, считать ли термин “знание” в выражении “представление знаний” явлением профессионального жаргона или действительно переход от представления данных к представлению знаний имеет существенные гносеологические характеристики и какие именно? Особенности ЭВМ как предмета-посредника в познании во многом определяются тем, что ЭВМ относится к такому типу предметов-посредников, как модели. Термин “модель” употребляется в обыденном языке и в языке науки в различных значениях. Пусть под моделью понимается некоторая система (материальная или концептуальная), в той или иной форме отображающая некоторые свойства и отношения другой системы, называемой оригиналом, в точно указанном смысле замещающая ее и дающая новую информацию об оригинале. При анализе гносеологических аспектов моделирования ЭВМ рассматривались в философско-методологической литературе прежде всего как материальные модели, создаваемые на основе действия определенных физических закономерностей и функционирующие благодаря протеканию в них вполне определенных физических процессов. Моделирование на ЭВМ понималось как техническая реализация определенной формы знакового моделирования. Однако, рассматривая ЭВМ в гносеологическом плане как предмет посредник в познании, имеет смысл не фиксировать внимание прежде всего на “железной части” (hardware) компьютера, а рассматривать всю компьютерную систему как сложную систему взаимосвязанных и до некоторых пределов самостоятельных моделей - как материальных, так и знаковых, т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерных систем в современной информатике, но является и гносеологически оправданным. Многие важные философские аспекты проблем, возникающих в связи с компьютеризацией различных сфер человеческой деятельности, требуют для своего исследования обращения прежде всего к знаковым составляющим компьютерных систем. Это верно и в отношении философских аспектов проблем представления знаний.

         В последние годы все чаще стал употребляться термин “компьютерное моделирование”.Т.е. построение любого из составляющих компьютерной системы - будь то знаковая модель или материальная.

         Что изменяется в компьютерном моделировании с переходом от представления данных к представлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл, отмечая, что проблематика представления знаний имеет интересные точки соприкосновения с философией, ибо природа разума и природа знания всегда являлись одним из центральных философских вопросов, пишет: “Однако, интерес философии к знанию всегда концентрировался на проблеме достоверности... Это нашло отражение в том различении между знанием и верой, которое проводится в философии. Искусственный интеллект, рассматривая все знание как содержащие ошибки, называет все-таки свои системы системами знаний. С точки зрения философии искусственный интеллект имеет дело только с системами веры. ...Таким образом, учение о знании, если оно разделит с искусственным интеллектом безразличие к проблеме абсолютной достоверности, окажется оставляющим без внимания центральные философские вопросы”. Различия в подходах к знанию, имеющиеся в философии и в искусственном интеллекте, не дают оснований для абсолютного противопоставления этих подходов и для отстранения от проблематики представления знаний той философии, которая не желает “оставлять без внимания центральные философские вопросы”.

Таким образом понятие “знание”  можно считать одним из ключевых как с точки зрения теории искусственного интеллекта, так и гносеологии. Но ограничивается ли дело только знанием?

                                                                                                       

СОЗНАНИЕ И РАЗУМ

         Сознание возникает у животных как одно из средств, улучшающее их адаптацию к окружающей среде. Быстрая (по сравнению со временем жизни животного) адаптация требует способности предвидеть, а мотивом адаптации служат биологические жизненные потребности организма. Искусственная система, обладающая такими свойствами, тоже приобретает сознание.

         Как устроено сознание? Какие процессы, механизмы, взаимодействующие объекты требуются, чтобы возникло сознание и осознание себя? Что нужно для изготовления не модели сознания, а просто сознания?

         Обычно слово сознание применяется, как характеристика отдельного существа. Оно может "потерять сознание". А слово разум означает принципиальную способность быть сознательным. Например, "человек разумный". Однако, есть и другие толкования.

         Не известно, как доказать, что человек думает. Уверенность в том, что люди думают, основана на опыте и убеждённости в собственном сознании, а не на измерениях и логических выводах из них. Вот почему науке трудно подступиться к глубокому изучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но не сознание само по себе. Мы наблюдаем не разум, а разумное поведение.

  Суждение же о наличии разума субъективно, вплоть до того, что некоторые люди считают поведение некоторых своих соплеменников несознательным.

  Можно ввести субъективную шкалу разумности. Например, улитка, кошка и человек перечислены здесь в порядке увеличения разумности. Не исключено, что разум начинается не с самого простейшего уровня организации нервной системы, а "возникает" при достаточном её развитии. Однако, пока не ясно, что такое разум, и не ясен механизм такого возникновения, удобно считать, что все существа с нервной системой разумны. В частности, самые простые существа могут иметь "нулевую" или "бесконечно малую" разумность. Зато при таком подходе можно сравнить поведение многих животных, чтобы найти, что же именно в поведении данного животного кажется разумным. Это должны быть такие признаки, которые выявляются у всех без исключения животных.

  Такие неплохие определения сознания, как способность к достижению цели, или к нахождению решения, или к принятию решения, не подходят, так как они не конструктивны, в частности, не связаны однозначно с наблюдаемым поведением. "Цель" и "решение" сами определяются через сознание. Способность к общению с себе подобными, и формы такого общения "более наблюдаемы", но часто их трудно отличить от физического взаимодействия. Пример: перенос пыльцы.

  Хорошим наблюдаемым критерием разумности является способность активно приспосабливаться к меняющимся окружающим условиям, то есть способность самообучаться на основе своего опыта. Чем же отличается сознание от самообучения?

  Сознание - это внутреннее свойство, творческий мотор самообучающегося организма. Начальное сознание возникает при такой организации нервной системы, которая обеспечивает возможность обучаться. Это ещё не то самосознание, которое заставляет уступить место старушке. Конструктивность этого определения состоит в том, что оно не ограничивает средства для изготовления "творческого мотора". Стоит изобрести и создать устройство, способное самообучаться (именно “само-”, без толчков и внешнего воздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью) - и оно получит сознание. Найдите способность к самообучению у робота, и этим будет доказано, что он обладает сознанием.

  Вместо слова "самообучение" иногда используют более широкое понятие "адаптация". Если существо самостоятельно находит новое поведение в новых условиях, причём никто не учил его этому поведению, то это существо способно к адаптации (к самообучению). Изобретение нового поведения - признак творчества (хотя это мнение очень и очень спорно и для доказательства его истинности и ошибочности требуются серьезные философские изыскания в области понятия “творчество”), а творчество - один из атрибутов сознания.

  Большой потенциал адаптации хорошо виден из такого мысленного эксперимента. Представим себе существо с максимально развитой адаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре. И оно научилось играть в шахматы, конструировать космические ракеты и сочинять изысканные стихи. Кто теперь откажет ему в разумности! Поэтому любые способности живого существа к адаптации следует считать проявлениями его сознания. И каждый вправе субъективно оценивать степень развития этого сознания.

         "Начальное" сознание не гарантирует осознавания. Осознавание - это такой уровень развития сознания, при котором субъект отличает себя от других объектов, т. е. выделяет себя как самостоятельно функционирующую систему.

         Осознавание себя – главный общепризнанный признак сознания. Однако это лишь частный случай осознавания "внешнего" мира. Мы воспринимаем внешний мир в виде различных качеств, которые отражают физические параметры природных явлений, регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а свои ощущения объектного мира и свои мысли, представимые в виде образов из объектного мира, то есть в виде образов ощущений. Суждение о собственном сознании выводится из наблюдения своего поведения. Поэтому проблема осознавания себя сводится к проблеме осознавания своих ощущений.

         Осознавание ощущений обеспечивает тот же внутренний механизм сознания - мотор самообучения и творчества. Собственно сознание – это не мозг, не поведение, а именно механизм, то есть особый процесс обработки информации.       

         Для осознавания важно, что творческий механизм сознания вырабатывает оптимальное в данных обстоятельствах поведение органов. Поведение мозга - это его взаимодействие с другими органами. Поведение руки - это её взаимодействие с физическим миром и с мозгом. Если найдено достаточно совершенное "не улучшаемое" поведение, то осознавание тоже исчезает, заменяясь автоматическим управлением. Поэтому тщательно отработанное поведение, например, при игре на музыкальном инструменте, становится автоматическим и не отвлекает осознавание от музыкального творчества. Хотя мы не придаём этому большого значения, но следует заметить, что сопутствующие автоматическому поведению ощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например, здоровый человек не обращает внимания на то, что при ходьбе на ступни его ног действует сила в десятки килограммов. А в другой ситуации мы чувствуем и сознательно реагируем на лёгкое прикосновение.

                                                                                              

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ТЕОРЕТИЧЕСКИЕ ПРОБЛЕМЫ ПСИХОЛОГИИ

         Можно выделить две основные линии работ по искусственному интеллекту (ИИ). Первая связана с совершенствованием самих машин, с повышением "интеллектуальности" искусственных систем. Вторая  связана с задачей оптимизации совместной работы "искусственного интеллекта" и собственно интеллектуальных возможностей человека.

         Переходя к психологическим проблемам искусственного интеллекта, можно отметить три позиции по вопросу о взаимодействии психологии и искусственного интеллекта. 

1.  "Мы мало знаем о человеческом разуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний" - эта позиция характерна для многих зарубежных специалистов по ИИ.

2.  Вторая позиция сводится к констатации ограниченности результатов исследований интеллектуальной деятельности, проводившихся психологами, социологами и физиологами. В качестве причины указывается отсутствие адекватных методов. Решение видится в воссоздании тех или иных интеллектуальных функций в работе машин. Иными словами, если машина решает задачу ранее решавшуюся человеком,  то знания,  которые можно почерпнуть, анализируя эту работу и есть основной материал для построения психологических теорий.

3.  Третья позиция характеризуется оценкой исследования в области искусственного  интеллекта и психологии как совершенно независимых. В этом случае допускается возможность только потребления, использования психологических  знаний  в плане психологического обеспечения работ по ИИ.

         Популярные идеи системного анализа позволили сделать сравнение принципов работы искусственных систем и собственно человеческой деятельности важным эвристическим приемом выделения именно специфического психологического анализа деятельности человека.

         В 1963 г. выступая на совещании по философским вопросам физиологии ВНД и психологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводит операции человеческого мышления, и следовательно соотношение "машинного" и "немашинного" есть соотнесение операционального и неоперационального в человеческой деятельности. Однако в последствии при сравнении операций, из которых слагается работа машины, и операций как единиц деятельности человека выявились существенные различия - в психологическом смысле "операция" отражает способ достижения результатов, процессуальную характеристику, в то время как применительно к машинной работе этот термин используется в логико-математическом смысле (характеризуется результатом).

         В работах  по  искусственному  интеллекту  постоянно используется термин "цель". В психологической теории деятельности "цель" является конституирующим признаком действия в отличии от операций  (и деятельности в целом). В то время как в искусственных системах "целью" называют некоторую конечную ситуацию к которой стремится система.  Признаки этой ситуации должны быть четко выявленными и описанными на формальном языке.  Цели человеческой деятельности  имеют другую природу. Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне, так и в форме представлений. Это отражение может характеризоваться разной степенью ясности, отчетливости. Кроме того, для человека характерно не просто достижение готовых целей но и формирование новых.

         Также работа  систем  искусственно интеллекта,  характеризуется не просто наличием операций, программ, "целей", но и оценочными функциями.  И у искусственных систем есть своего рода "ценностные ориентации". Специфику человеческой мотивационно-эмоциональной регуляции деятельности составляет  использование не только константных, но и ситуативно возникающих и динамично меняющихся  оценок,  существенно  также различие между словесно-логическими и эмоциональными оценками. В существовании потребностей и мотивов видится различие  между  человеком  и машиной на уровне деятельности.  Этот тезис повлек за собой цикл исследований, посвященных анализу специфики человеческой деятельности. Позже была показана зависимость структуры мыслительной деятельности при решении творческих задач от изменения мотивации.

         Как в действительности показала история, психология и искусственный интеллект как научное направление могут находится в достаточно тесном сотрудничестве, взаимно базируясь на достижениях друг друга.

                                                                                      

ЗАКЛЮЧЕНИЕ

         Природа  мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболее волнующих человека проблем. Популярность кибернетики, неослабевающий интерес к ней со стороны самых широких кругов  во многом объясняется именно ее тесной связью с этой "вечной" проблемой. С того самого момента, как человек стал задумываться над проблемой мышления, в подходе к ней существуют  два основных  диаметрально противоположных направления: материализм  и идеализм. Идеализм исходит из признания мышления некой особой сущностью, в корне отличной от материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм, напротив, утверждает, что “...тот  вещественный, чувственно воспринимаемый нами мир, к которому принадлежим мы сами, есть единственный действительный мир и наше сознание и мышление, являются продуктом вещественного, телесного органа”.

         До сих пор диалектико-материалистиеское понимание мышления опиралось  главным образом на обобщенные данные психологии, физиологии и языкознания. Данные кибернетики позволяют поставить вопрос о более конкретном понимании мышления.

         Инструментом философии является знание. Именно инструментом, а не результатом. Знание не есть конечный предмет, который можно положить в сундук и сказать: “Да, теперь у меня есть знание!” Знание - это цепочка. Знание в области искусственного интеллекта - тоже есть цепочка, причем бесконечная.

         Инструментом же кибернетики является моделирование. С точки зрения теории моделирования вообще не имеет смысла говорить о полном  тождестве модели и оригинала. Поэтому нельзя стопроцентно смоделировать разумное поведение, объект способный мыслить, и поместить его все в тот же сундук. Все это вполне согласуется с понятием знания.

                                                                                         

СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ

1.  Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991 №9, с. 44-53.

2.  Алексеева И.Ю. Знание как объект компьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.

3.  Анисов А.М. ЭВМ и понимание математических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.

4.  Будущее искусственного интеллекта: М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.

5.  Вендров А.М. CASE-технологии. Современные методы и средства проектирования информационных систем.: М., Финансы и статистика 1998.

6.  Винер Н. Кибернетика или управление и связь в животном и машине. Второе издание: М., Наука 1983.

7.  Лефевр В.А. От психофизики к моделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.

8.  Лефевр В.А. “Непостижимая“ эффективность математики в исследованиях человеческой рефлексии. // “Вопросы философии”: журнал 1990 №7, с. 51-58.

9.  Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту: М., Наука 1982.

10.  Поспелов Д.А. Искусственный интеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.

11.  Петрунин Ю.Ю. Искусственный интеллект как феномен современной культуры. // “Вестник Московского университета”: журнал 1994 №8, с. 28-34.

12.  Тьюринг А.   Может ли машина мыслить?: М., Наука 1960.

13.  Шрейдер Ю.А. Искусственный интеллект, рефлексивные структуры и антропный принцип. // “Вопросы философии”: журнал 1995 №7, с. 163-167.

14.  Шрейдер Ю.А. Человеческая рефлексия и две системы этического сознания. // “Вопросы философии”: журнал 1990 №7, с. 32-41.

15.  Корниенко Е. Механизмы сознания: www.glasnet.ru 2004 (электронная публикация)