Когда вы в очередной раз получаете неуместную рекомендацию — трек не в тему, товар «мимо», видео, от которого хочется закрыть приложение — первое желание: кликнуть «не интересно» и забыть. Кажется, система подвела. Но вот что интересно: для рекомендательной модели это может быть не ошибка, а ценный источник обучения.
Да-да, даже когда вы раздражённо скипаете песню на пятой секунде — вы обучаете ИИ. Сегодня расскажем, как и зачем модели учатся из так называемых «плохих» рекомендаций — и почему это критически важно для будущего всех умных сервисов.
Почему плохие рекомендации — это не ошибка, а обучение
В традиционной логике алгоритмы старались максимизировать позитивный отклик — лайки, добавления в корзину, длительность прослушивания. Всё просто: чем больше положительных действий, тем лучше. Однако в реальной жизни поведение пользователя куда сложнее.
Промахи — тоже поведение. И в них часто скрывается не меньше информации, чем в «хороших» сигналах. Вот пара примеров:
- пользователь быстро скипнул трек — вероятно, не тот жанр или не то настроение
- пролистал товар — возможно, слишком высокая цена
- удалил рекомендованное видео из плейлиста — контент противоречит его личным установкам
Все эти реакции дают системе обратную связь. Если не учитывать такие сигналы, ИИ видит только позитивную сторону, формируя искажённую картину. А значит — продолжит советовать «усредненное», популярное, безопасное. А не то, что действительно персонализировано.

- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
- Где и как применять? Потестируем модель после установки на разных задачах
- Как дообучить модель под себя?
Как это реализовано в современных системах
Модель ARGUS от Яндекса — отличный пример того, как ИИ учится из всего пользовательского поведения, включая «отрицательное».
Вместо того чтобы фильтровать только лайки и покупки, ARGUS обучается на последовательностях реальных действий, включая скипы, дизлайки, отказы и отказ от взаимодействия. Это позволяет системе не просто угадывать, что вам «понравится», а предсказывать, чего вы не захотите — и избегать этого.
Такой подход даёт важную особенность: модель начинает понимать не только «что вы любите», но и где пролегают границы вашего интереса. Попробуйте российские нейросети на практике. Бесплатно обучим тут.
Обучение с отрицательными примерами
В машинном обучении давно используется методика обучения с контрастивной логикой (contrastive learning), когда модели показывают не только «правильные» пары (пользователь — подходящий объект), но и «неподходящие». Это позволяет ей обучаться не только на том, что релевантно, но и на том, что отличается, чтобы выработать более точные различия.
Для рекомендательных систем это важно. В мире, где у вас сотни тысяч песен, товаров, видео и статей — распознать, что именно неинтересно, ничуть не менее ценно, чем понять, что нравится.
Более того, современные модели начинают рассматривать время отказа, частоту взаимодействия, паттерны отказов как метрики обучения. Чем чаще вы «молча» игнорируете определённый тип контента — тем сильнее ИИ фиксирует этот паттерн.
Зачем это нужно конечному пользователю?
Если коротко — чтобы не получать мусор. Но по сути, вот что даёт обучение на плохих рекомендациях:
- Повышение точности персонализации. Модель не «перебарщивает» с похожим, потому что знает: даже у любимого жанра есть предел насыщения.
- Улучшение разнообразия. Понимание отказов позволяет системе предлагать альтернативы, не повторяя одно и то же.
- Контекстная осведомлённость. Если вы отказались от рэпа в 9 утра по понедельникам, но слушаете его в субботу — система поймёт, что дело не в жанре, а во времени.
- Обратная связь без «лайка». Даже если вы ничего не оцениваете вручную, система всё равно учится — просто на вашем поведении.
Пример: «Незнакомое» в Яндекс Музыке
В Яндекс Музыке есть плейлист «Незнакомое» — он как раз работает по логике смелых рекомендаций, которые не обязательно должны быть «в кассу» с первого раза. Именно в таких сценариях ARGUS особенно полезен: он не просто угадывает, что «похоже», а учится на каждом вашем действии — даже если вы прервали прослушивание через 8 секунд.
Таким образом, рекомендация, которая может казаться неудачной, становится кирпичиком в обучении модели: она уточняет ваш профиль, границы вкуса, динамику предпочтений.
Вывод: Плохая рекомендация — это не провал. Это шанс для модели стать умнее. А значит, сделать ваш цифровой опыт — персональнее и точнее.
- Освой Perplexity и узнай, как пользоваться функционалом остальных ИИ в одном
- УЧАСТВОВАТЬ ЗА 0 РУБ.
- Расскажем, как получить подписку (240$) бесплатно
- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ

