Библиотека >> Материя и субъективность
Скачать 190.71 Кбайт Материя и субъективность
Сторонники идеи алгоритмической невычислимости функции сознания (в частности, Р. Пенроуз (122, 123))опираются на так называемый "геделевский аргумент", предложенный Дж. Лукасом еще в начале 60-х годов (172). Утверждают, что теорема Геделя о неполноте формальных систем накладывает ограничения на любые системы искусственного интеллекта, но не накладывает соответствующих ограничений на человеческий интеллект.
Теорема Геделя о неполноте утверждает, что при определенных условиях, накладываемых на формальный язык и множество истинных утверждений этого языка, не существует формальной дедуктивной системы, полной и непротиворечивой относительно данного языка и множества истинных утверждений данного языка. Иными словами, любая непротиворечивая дедуктика будет неполной, т.е. не будет доказывать все истинные утверждения данного языка. Фактически это означаеть, что в достаточно богатом языке существуют принципиально недоказуемые истинные утверждения - независимо от того, какую формальную систему доказательств мы выбрали (для разых дедуктик, естестевнно, недоказуемыми будут разные утверждения, но для любой дедуктики такие недоказуемые утверждения непременно должны существовать). Геделевский аргумент, как уже отмечалось, заключается в утверждении, что теорема Геделя накладывает серьезные ограничения на любые алгоритмические системы искусственного интеллекта, но не накладывает аналогичные ограничения на интеллект человека. Этот вывод можно обосновать уже самой возможностью для человека определить множество истинных высказываний в составе достаточно богатых формальных языков (например, множество истинных высказываний арифметики), которое, согласно теореме Геделя, не может быть получено с помощью какой-либо автоматической (алгоритмической) процедуры. Человек способен, опираясь на интуицию, определить то, что искусственный интеллект в принципе определить не способен. Так, множество истинных утверждений арифметики алгоритмически неперечислимо, т.е. не может являться множеством значений какой-либо алгоритмически вычислимой функции, но, тем не менее, интуитивно представляется, что человек всегда способен отличить истинное арифметическое высказывание от ложного (по крайней мере, в принципе). Отсюда следует, что человеческий интеллект не может быть эквивалентным какой-либо алгоритмической системе. Конечно, эти рассуждения весьма уязвимы для критики, поскольку, конечно, на практике невозможно доказать, что человек всегда способен распознавать истинность, например, арифметических утверждений (учитывая, что эти утверждения могут состоять из сколь угодно большой последовательности символов). Мы не будем, также, рассматривать ту специфическую форму Геделевского аргумента, которую ему придают Дж. Лукас и Р. Пенроуз - отсылая читателя к соответствующей литературе (122,123,172). Отметим лишь, что большинство специалистов по логике посчитали аргументы Лукаса и Пенроуза не корректными (191). К счастью, проблему алгоритмической вычислимости функции сознания можно рассматривать в более общей форме, не привлекая теорему Геделя и не входя в тонкости математической логики. Основное возражение против идеи алгоритмической невычислимости функции сознания, на наш взгляд, связано с тем, что понятие алгоритмической невычислимости применимо лишь к функциям, область определения которых - бесконечное множество. Всякая конечная функция (область определения которой конечно) алгоритмически вычислима. Алгоритмом ее вычисления может, в частности, служить таблица, в которой каждому значению аргумента сопоставляется значение данной функции. Человек - конечное существо. Благодаря дискретности нервных импульсов и конечному числу нервных волокон, человек имеет конечное (хотя и астрономически большое) число различных конфигураций сенсорных сигналов на "входе". Более того, в силу ограниченности продолжительности жизни человека, существует лишь конечное множество всевозможных последовательностей таких конфигураций. Конечно, также, и число возможных движений, которые способен, в принципе, произвести человек (а также, ограничено число возможных комбинаций этих движений). Формально, функцию сознания можно представить в виде: "стимул - реакция", т.е. как множество реакций на заданный сенсорный вход. Эти реакции, естественно, зависят от последовательности предыдущих сенсорных входов т.е. от "истории жизни" того или иного конкретного индивида. Поскольку число возможных "историй жизни" конечно, их можно перечислить в виде таблицы, указав для каждой такой "истории" допустимую (т.е.типично "человеческую") реакцию на последний "сенсорный вход". Эта таблица и будет "алгоритмом", "вычисляющим" функцию сознания, в том смысле, что робот, управляемый этой таблицей, во всех мыслимых ситуациях будет весьти себя "как человек" (т.е. его поведение будет расцениваться людьми-экспертами как "человеческое"). Создать такую таблицу можно , например, путем селекции конечного множества таблиц, изображающих всевозможные реакции на всевозможные последовательности сенсорных входов. Можно представить себе неких людей-экспертов, которые оценивают поведение роботов, управляемых такого рода "таблицами" и отбраковывают те "таблицы" , которые не обеспечивают "человекообразности" поведения роботов хотя бы в некоторых ситуациях. Страницы:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
| ||
|