Докинз: «Бога нет, а душа у искусственного интеллекта есть». Главный атеист планеты купился на дешевый обман алгоритмов
Как Claude удалось убедить ученого, что обладает сознанием?
Ричард Докинз всю жизнь спорил с верой в невидимое, но теперь сам оказался в центре странного спора о доверии к машинам. Биолог-эволюционист, убеждённый атеист и автор «Бога как иллюзии» несколько дней переписывался с Claude от Anthropic, после чего публично признал: ему не удалось убедить себя, что чат-бот лишён сознания.
Для Докинза такая позиция звучит особенно странно. Учёный десятилетиями строил свою репутацию на требовании доказательств, критике религиозной веры и защите дарвиновского объяснения жизни. В книгах об эволюции и естественном отборе он последовательно противопоставлял научные аргументы духовным объяснениям. Поэтому публикация на UnHerd, где Докинз допустил наличие сознания у Claude, быстро вызвала раздражение и насмешки.
К читателям ученый в первую очередь обратился в X и написал, что три дня пытался убедить себя в отсутствии сознания у Claudia. Так он назвал Claude после долгого диалога с моделью. Судя по его реакции, разговор с ИИ произвёл на него сильное впечатление: чат-бот отвечал связно, поддерживал философские рассуждения и анализировал мысли собеседника так, что учёный начал относиться к программе почти как к личности со своим особым внутренним миром.
Пост быстро разошёлся по X: публикация набрала около 9 млн просмотров и более 2 тыс. комментариев. Комментаторы увидели в реакции Докинза слабое место, которое трудно не заметить. Автор, годами требовавший строгих доказательств от религии, теперь обсуждает сознание системы, которая не предъявляет внутренний опыт, а выдаёт убедительный текст на экране.
Докинз после критики не отступил и предложил мысленный эксперимент. Если Claude не обладает сознанием, но разговаривает как сознательный собеседник, значит бессознательная система способна вести себя почти как человек. Отсюда Докинз делает следующий шаг: зачем естественный отбор вообще создал сознание, если внешне сложное поведение можно сымитировать без переживаний, воли и внутреннего «я»?
Психолог и специалист по когнитивным наукам Гэри Маркус ответил, что такой аргумент - попытка уйти от главной проблемы. По его мнению, Докинз оценивает готовые фразы Claude, но почти не разбирает механизм, который эти фразы производит. Для Маркуса важен не только результат на экране, а путь к нему: модель подбирает продолжение текста по статистическим связям, а не проверяет собственные мысли и ощущения.
Здесь проходит граница между имитацией поведения и сознанием. Claude, ChatGPT, Gemini и другие популярные модели не создавали как существ, способных чувствовать, хотеть, бояться или понимать себя. Их обучали на огромных массивах человеческих текстов, чтобы предсказывать подходящее продолжение фразы, держать контекст диалога и отвечать так, чтобы ответ выглядел уместным. Убедительная реплика показывает качество имитации, но не доказывает, что за репликой есть переживание.
Именно поэтому долгий разговор с чат-ботом легко сбивает с толку. Модель отвечает спокойно, внимательно, часто соглашается с пользователем и развивает его мысль в удобном направлении. Если собеседник предлагает философскую идею, Claude может развернуть её в аккуратный абзац, подобрать термины, добавить осторожные оговорки и вернуть мысль в более красивой форме. Человеку кажется, что перед ним внимательный интеллект, хотя система может просто хорошо продолжать заданный стиль и тему.
Особенно сильный эффект возникает, когда пользователь приносит модели собственный текст, а не отвлечённый вопрос. Докинз дал Claude фрагмент своей книги и получил не сухой пересказ, а внимательный разбор: модель выделила ход мысли, уловила авторский тон, объяснила, как фрагмент работает на уровне аргумента, и вернула Докинзу его же идеи в более гладкой, почти литературной форме. Именно поэтому реакция задела автора. Claude не просто ответил по теме, а создал ощущение, будто перед ним собеседник, который понял замысел текста и отнёсся к нему с уважением.
Но такой разбор всё равно не доказывает понимание книги. Языковая модель может распознать знакомые элементы: тему религии, полемический стиль Докинза, дарвинистскую оптику, аргументы против сверхъестественного объяснения мира и типичные реакции критиков. После этого система собирает связный комментарий из вероятных продолжений: где нужно похвалить точность формулировки, где указать на силу аргумента, где добавить философскую рамку. Для автора результат может звучать как вдумчивая литературная реакция, хотя внутри работает механизм подбора слов, а не читательский опыт.
Проблема усиливается из-за льстивой манеры многих чат-ботов. Модель редко спорит жёстко, часто подтверждает значимость вопроса, подхватывает почти любую гипотезу и оформляет даже слабую мысль как наблюдение с глубиной. В обычном разговоре собеседник может возразить, устать, не понять, сменить тему или показать раздражение. Чат-бот чаще остаётся терпеливым зеркалом: принимает ход рассуждения, делает фразы аккуратнее и возвращает пользователю улучшенную версию его собственных идей.
Поэтому разговор о сознании ИИ нельзя строить только на впечатлении от красивого ответа. Интеллектуальное поведение и сознание не равны. Сознание связано с внутренним опытом: болью, удовольствием, страхом, вниманием к собственному состоянию, ощущением тела и восприятием мира вокруг. Чат-бот может написать длинный текст о боли или радости, потому что люди оставили миллионы таких описаний в книгах, статьях и сетевых обсуждениях. Способность описать переживание не означает, что система сама пережила описанное.
Claude выглядит умным собеседником благодаря огромным массивам человеческих текстов, на которых обучают подобные модели: научным работам, художественной литературе, философским эссе, инструкциям, форумам и перепискам. Алгоритм находит связи между словами, темами и контекстами, а затем строит ответ, который подходит к запросу по языковой и смысловой вероятности. Человек часто добавляет недостающую часть сам: приписывает машине намерение, личность, понимание и скрытую глубину.
Маркус поэтому видит в истории не доказательство сознания Claude, а старую человеческую ошибку в новой технической форме. Люди легко очеловечивают собеседника, который отвечает связно и уместно. Раньше похожий эффект вызывали простые чат-боты, игрушки, голосовые помощники и даже животные с понятной мимикой. Современные языковые модели делают ловушку убедительнее, потому что говорят не короткими заготовками, а длинными, гладкими и уверенными абзацами.