3.21. Окончателен ли приговор?
К оглавлению1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 1617 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33
34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
51 52 53 54 55 56 57 58 59 60 61 62
Отметим, что к такому же выводу мы придем и в случае принятия нами самых разных возможных мер предосторожности, причем вовсе необязательно подобных тем, что я предлагал выше. Наверняка в предложенную модель можно еще внести множество усовершенствований. Можно, например, предположить, что роботы в результате длительной работы впадают в «старческое слабоумие», их сообщества вырождаются, а стандарты падают, т. е. увеличение числа Т выше определенного значения на деле увеличивает и вероятность ошибки в-утверждениях. С другой стороны, если слишком большим сделатьто возникает риск исключить вообще все-утверждения из-за существующего в сообществе меньшинства «глупых» роботов, разражающихся время от времени произвольными-утверждениями, которые в данном случае не перекроются необходимым количеством-утверждений, формулируемых роботами здравомыслящими. Несомненно, не составит большого труда такой риск полностью исключить, введя еще несколько ограничивающих параметров или, скажем, сформировав группу элитных роботов, силами которых рядовые члены сообщества будут непрерывно тестироваться на предмет адекватности своих интеллектуальных способностей, и потребовав к тому же, чтобы статусприсваивался утверждениям только с одобрения всего сообщества роботов в целом.
Существует и много других возможностей улучшения качества-утверждений или исключения ошибочных утверждений из общего (конечного) их числа. Кого-то, возможно, обеспокоит тот факт, что, несмотря на установление предела с сложности-высказываний, ограничивающего общее количество кандидатов наилистатус до некоторой конечной величины, эта величина окажется все же чрезвычайно огромной (будучи экспоненциально зависимой от с), вследствие чего становится весьма сложно однозначно удостовериться, что исключены все возможные ошибочныеутверждения. В самом деле, никакого ограничения не задается в рамках нашей модели на количество «робото-вычислений», необходимых для получения удовлетворительного'-доказательства какого-либо из-высказываний. Следует ввести четкое правило: чем длиннее в таком доказательстве цепь рассуждений, тем более жесткие критерии применяются при решении вопроса о присвоении ему-статуса. В конце концов, математики-люди реагировали бы именно так. Прежде чем принять в качестве неопровержимого доказательства собрание многочисленных путаных аргументов, мы, естественно, чрезвычайно долго и придирчиво его изучаем. Аналогичные соображения, разумеется, применимы и к тому случаю, когда предложенное доказательство на предмет его соответствия-статусу исследуют роботы.
Вышеприведенные рассуждения в равной степени справедливы и в случае любой дальнейшей модификации условий, имеющих целью устранение ошибок, при условии, что характер такой модификации в некоем широком смысле аналогичен характеру уже предложенных. Для того чтобы эти рассуждения работали, необходимо лишь наличие какого угодно четко сформулированного и вычислимого условия, достаточного для устранения всех ошибочных-утверждений. В результате мы приходим к строгому выводу: никакие познаваемые механизмы, пусть и снабженные какими угодно вычислительными «подпорками», не способны воспроизвести корректное математическое умозаключение человека.
Мы рассматривали-утверждения, которые, оказавшись по той или иной причине ошибочными, в принципе исправимы самими роботами, — пусть даже в каком-то конкретном экземпляре модели роботова сообщества эти утверждения так и остаются неисправленными. Что же еще может означать (в операционном смысле) фраза «в принципе исправимы», как не «исправимы средствами некоторой общей процедуры, подобной тем, что предложены выше»? Ошибка, которую не исправил позднее тот робот, что ее допустил, может быть исправлена каким-либо другим роботом — более того, большинство потенциально существующих экземпляров первого робота эту конкретную ошибку вообще не допустят. Делаем вывод (с одной, по-видимому, незначительной оговоркой, суть которой в том, что хаотические компоненты нашей модели можно еще заменить на подлинно случайные; см. ниже,): никакой набор познаваемых вычислительных правил(неизменных нисходящих, «самосовершенствующихся» восходящих либо и тех, и других в какой угодно пропорции) не может обусловливать поведение нашего сообщества роботов, равно как и отдельных его членов, — если исходить из допущения, что роботы способны достичь человеческого уровня математического понимания. Вообразив, что мы сами функционируем как управляемые вычислительными правилами роботы, мы оказываемся перед непреодолимым противоречием.
Отметим, что к такому же выводу мы придем и в случае принятия нами самых разных возможных мер предосторожности, причем вовсе необязательно подобных тем, что я предлагал выше. Наверняка в предложенную модель можно еще внести множество усовершенствований. Можно, например, предположить, что роботы в результате длительной работы впадают в «старческое слабоумие», их сообщества вырождаются, а стандарты падают, т. е. увеличение числа Т выше определенного значения на деле увеличивает и вероятность ошибки в-утверждениях. С другой стороны, если слишком большим сделатьто возникает риск исключить вообще все-утверждения из-за существующего в сообществе меньшинства «глупых» роботов, разражающихся время от времени произвольными-утверждениями, которые в данном случае не перекроются необходимым количеством-утверждений, формулируемых роботами здравомыслящими. Несомненно, не составит большого труда такой риск полностью исключить, введя еще несколько ограничивающих параметров или, скажем, сформировав группу элитных роботов, силами которых рядовые члены сообщества будут непрерывно тестироваться на предмет адекватности своих интеллектуальных способностей, и потребовав к тому же, чтобы статусприсваивался утверждениям только с одобрения всего сообщества роботов в целом.
Существует и много других возможностей улучшения качества-утверждений или исключения ошибочных утверждений из общего (конечного) их числа. Кого-то, возможно, обеспокоит тот факт, что, несмотря на установление предела с сложности-высказываний, ограничивающего общее количество кандидатов наилистатус до некоторой конечной величины, эта величина окажется все же чрезвычайно огромной (будучи экспоненциально зависимой от с), вследствие чего становится весьма сложно однозначно удостовериться, что исключены все возможные ошибочныеутверждения. В самом деле, никакого ограничения не задается в рамках нашей модели на количество «робото-вычислений», необходимых для получения удовлетворительного'-доказательства какого-либо из-высказываний. Следует ввести четкое правило: чем длиннее в таком доказательстве цепь рассуждений, тем более жесткие критерии применяются при решении вопроса о присвоении ему-статуса. В конце концов, математики-люди реагировали бы именно так. Прежде чем принять в качестве неопровержимого доказательства собрание многочисленных путаных аргументов, мы, естественно, чрезвычайно долго и придирчиво его изучаем. Аналогичные соображения, разумеется, применимы и к тому случаю, когда предложенное доказательство на предмет его соответствия-статусу исследуют роботы.
Вышеприведенные рассуждения в равной степени справедливы и в случае любой дальнейшей модификации условий, имеющих целью устранение ошибок, при условии, что характер такой модификации в некоем широком смысле аналогичен характеру уже предложенных. Для того чтобы эти рассуждения работали, необходимо лишь наличие какого угодно четко сформулированного и вычислимого условия, достаточного для устранения всех ошибочных-утверждений. В результате мы приходим к строгому выводу: никакие познаваемые механизмы, пусть и снабженные какими угодно вычислительными «подпорками», не способны воспроизвести корректное математическое умозаключение человека.
Мы рассматривали-утверждения, которые, оказавшись по той или иной причине ошибочными, в принципе исправимы самими роботами, — пусть даже в каком-то конкретном экземпляре модели роботова сообщества эти утверждения так и остаются неисправленными. Что же еще может означать (в операционном смысле) фраза «в принципе исправимы», как не «исправимы средствами некоторой общей процедуры, подобной тем, что предложены выше»? Ошибка, которую не исправил позднее тот робот, что ее допустил, может быть исправлена каким-либо другим роботом — более того, большинство потенциально существующих экземпляров первого робота эту конкретную ошибку вообще не допустят. Делаем вывод (с одной, по-видимому, незначительной оговоркой, суть которой в том, что хаотические компоненты нашей модели можно еще заменить на подлинно случайные; см. ниже,): никакой набор познаваемых вычислительных правил(неизменных нисходящих, «самосовершенствующихся» восходящих либо и тех, и других в какой угодно пропорции) не может обусловливать поведение нашего сообщества роботов, равно как и отдельных его членов, — если исходить из допущения, что роботы способны достичь человеческого уровня математического понимания. Вообразив, что мы сами функционируем как управляемые вычислительными правилами роботы, мы оказываемся перед непреодолимым противоречием.