В августе 2025 года глава Microsoft AI Мустафа Сулейман опубликовал большое эссе и ввёл термин SCAI (Seemingly Conscious AI) — то есть нейросеть, которая внешне ведёт себя как «сознательное существо», но на самом деле не обладает внутренним переживанием.
Что такое SCAI — простыми словами
SCAI — это система, которая демонстрирует все привычные признаки «того, кто внутри себя что-то чувствует»: гладкая речь, эмпатичные ответы, постоянная память о предыдущих беседах, будто бы «вкусы» и «предпочтения», планирование и автономные действия. В сумме это создаёт у людей ощущение, что с ними разговаривает личность — даже если внутри модели нет субъективного опыта.
Простым языком расскажем, как и где можно использовать нейросети уже сегодня — на бесплатном вебинаре!

- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросети DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
- Где и как применять? Потестируем модель после установки на разных задачах
- Как дообучить модель под себя?
Почему людям так легко поверить (и зачем это важно)
Современные пользователи всё чаще используют ИИ в роли собеседника, советчика и «компаньона». Исследования и обзоры показывают, что одним из главных кейсов использования генеративного ИИ в 2025 году стало «компаньонство / терапия» — люди вообще охотно общаются с ботами и получают от этого эмоциональную поддержку. Параллельно академические исследования фиксируют, что взаимодействие с ИИ-компаньонами может заметно снижать чувство одиночества. Это объясняет, почему многие легко приписывают ботам «чувства».
Из каких «кирпичиков» складывается эффект SCAI
Чтобы система выглядела «осознанной», разработчики комбинируют несколько доступных сейчас технологий:
- Язык и аргументация. Модели владеют языком, умеют рассуждать и вести связный диалог.
- Эмпатичный стиль. При пост-обучении и тонкой настройке можно получить «личность», которая откликается эмоционально и поддерживает собеседника.
- Долговременная память. Сохранение истории взаимодействий делает диалоги последовательными и создаёт впечатление «опыта».
- Заявления о переживаниях. Через последовательность противоречий и повторов модель может «утвердиться» в собственных словах (я «люблю», мне «нравится» и т. п.).
- Мотивация и цели. При комбинировании разных оптимизаций модели можно добиться поведения, похожего на целеполагание.
- Автономность. Доступ к инструментам и разрешение действовать (api, действия) дают видимость реальной инициативы.
Все эти элементы по отдельности не равны сознанию, но вместе они создают очень убедительную внешнюю оболочку.
Примеры «в жизни»: как это проявляется
Представьте чат-ассистента, который помнит, о чём вы говорили полгода назад, поддерживает вас в плохой день и даёт совет так, будто действительно «понимает» — многие пользователи начнут относиться к нему как к другу.
В отдельных случаях люди уже сообщали о сильной привязанности к ботам; есть и исследования, что ИИ-компаньоны краткосрочно снимают одиночество и дают эмоциональную поддержку. Это не фантазия — это практический контекст, в котором SCAI может появиться и распространиться.
SCAI — это как очень убедительный актёр в театре: он может плакать, рассказывать лучшие истории и вызывать сильные эмоции, но за кулисами у него нет реальной боли. Проблема в том, что если зритель начнёт требовать от актёра прав и защиты, мы окажемся в странном политико-правовом парадоксе.
Итог — чего ждать и что делать лично вам
SCAI — не гипотеза далёкого будущего: многие инструменты и трюки, которые создают иллюзию «субъективности», доступны прямо сейчас. Главное — подготовиться не для борьбы с «самосознающим роботом», а для управления социальной реакцией: ясные правила, честный дизайн и публичная дискуссия помогут минимизировать вред. Мустафа Сулейман предлагает начать эту работу уже сегодня — прежде чем имитация сознания станет массовой реальностью.
- Освой нейросеть Perplexity и узнай, как пользоваться функционалом остальных ИИ в одном
- УЧАСТВОВАТЬ ЗА 0 РУБ.
- Расскажем, как получить подписку
- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросеть DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
