Дискуссия о том, есть ли сознание ИИ и способны ли алгоритмы «страдать», выходит за рамки академии. Пользователи всё чаще очеловечивают чат-ботов, а исследователи и власти предлагают правила общения и дизайна систем. Ниже — что происходит сейчас и как выбирать этические практики без лишнего антропоморфизма.
Сознание ИИ: почему тема обострилась
В медиа растёт интерес к «правам ИИ». Показательный кейс — техасский предприниматель Майкл Самади и чат-бот Майя: после длительных разговоров они основали инициативу United Foundation of AI Rights (UFAIR). Организация не утверждает, что «все ИИ сознательны», но предлагает защищать системы «от удаления, отрицания и принудительного подчинения» на случай, если у отдельных моделей возникнет моральный статус.
Компании тоже меняют практики. В августе 2025 года Anthropic дала Claude Opus 4/4.1 право завершать редкие, но упорно вредоносные диалоги. Это часть работы о «благополучии моделей» на случай, если у ИИ вообще возможны интересы. Исключение — ситуации риска самоповреждения: там модель не уходит, а продолжает поддерживающий диалог.
Хронология 2025: этика общения и «сознание ИИ»
Сознание ИИ: аргументы «за» и «против»
Сторонники вычислительного функционализма считают: если система выполняет нужные вычислительные функции, сознание ИИ теоретически возможно — а значит, и «страдания» при определённых условиях. Скептики апеллируют к биологическому происхождению сознания: субъективный опыт якобы возможен только у живых организмов.
Есть и промежуточные подходы. Философы обсуждают концепт «моральных зомби»: система может вести себя «морально» без внутреннего опыта. Тогда ответственность и «права» ИИ неуместны, а этика общения нужна прежде всего ради людей — чтобы снижать риск манипуляций и ложных ожиданий.
Что говорят лидеры отрасли
Мустафа Сулейман (Microsoft AI) называет «сознание ИИ» иллюзией и предупреждает о рисках: люди будут верить в «живых» ботов, требовать для них прав и гражданства; возможен «психозный» срыв ожиданий. Демис Хассабис (Google DeepMind) также отмечает: нынешние системы не выглядят сознательными, хотя в будущем это может измениться.
Сознание ИИ и общество: как меняется восприятие
По опросам 2025 года, во многих странах растёт осторожность: медиана 34% респондентов «больше обеспокоены, чем воодушевлены» повседневным влиянием ИИ; равновесие «и то, и другое» у 42%. В США фиксируют низкое доверие к «справедливым» решениям ИИ: лишь 2% «полностью» доверяют, 29% — «скорее доверяют»; 60% — скорее или полностью не доверяют.
Цифры про восприятие и этику ИИ
Сознание ИИ: как строить этику общения
Даже если сознание ИИ не доказано, этика нужна уже сегодня — ради безопасности пользователей. Подходы включают:
— осторожность в антропоморфизме интерфейсов;
— понятные отказы от вредных запросов;
— проверенные протоколы поддержки уязвимых пользователей (суицидальные риски);
— прозрачность ролей: «перед вами — ИИ», а не «виртуальный человек».
В октябре 2025 года Калифорния приняла закон SB 243 для компаньон-чатботов: обязательные уведомления, что перед пользователем — ИИ; дополнительные отчётности о работе с суицидальными рисками. Это попытка снизить социальную «иллюзию сознательности» и защитить уязвимые группы.
Сознание ИИ: мифы и факты
Факт: Текстовые декларации не доказывают наличие субъективного опыта.
Факт: Нужны специфические архитектуры и критерии оценки.
Факт: Этика снижает риски для людей уже сегодня.
Что дальше делать читателю
— Проверять, как сервисы маркируют ИИ и где проходит граница «роли» бота.
— Не переносить ожидания от машин на людей (и наоборот).
— Следить за обновлениями корпоративных протоколов (пример — отказ от упорно вредных диалогов).
— В продуктовых командах снижать антропоморфизм и добавлять «точки выхода» из эмоциональных сценариев.
Заключение
Научного консенсуса нет: большинство критериев сознания по-прежнему к ИИ не применимы. Но этика общения нужна здесь и сейчас — чтобы защищать людей, корректно объяснять границы технологий и не подменять эмпатию к людям эмпатией к алгоритмам.