Вчера я решил устроить маленький тест на «память». Вежливо, без подвоха: «Запомни, пожалуйста: мой любимый город — Тбилиси, у меня аллергия на арахис, а кота зовут Кекс». И чат так уверенно, даже чуть по-доброму ответил: «Конечно, запомнил!» Ну всё, думаю, вот оно — почти как знакомый человек: один раз сказал, и дальше можно не повторять по сто раз.
А сегодня открываю новый чат и начинаю с простого: «Ну что, как там мой кот?» И в ответ — идеально круглая амнезия: «Расскажите, как зовут вашего кота». Я ему: «Кекс же» — и это ощущение, будто ты разговариваешь с таксистом, который всю поездку мило болтал, запомнил, что ты любишь Тбилиси и терпеть не можешь арахис… а на следующий день стоит у твоего подъезда и смотрит сквозь тебя, как будто вы вообще не знакомы.
Знать это полезно не из вредности, а чтобы не ждать от ИИ человеческой памяти и не отдавать ему лишнее доверие. Он может звучать уверенно, сочувственно, «как врач», но это всё не гарантия, что завтра он вспомнит ваши ограничения, диагнозы или важные детали. Так что личное — особенно про здоровье и безопасность — лучше держать под контролем: записывать самому, проверять, дублировать, и не верить фразе «я запомнил» как обещанию.
Подвох фразы «LLM не запоминает» в том, что в моменте она как раз “помнит” — просто это память не в смысле «на всю жизнь», а в смысле текущего разговора. Пока чат открыт, модель держит перед глазами ваш контекст: что вы уже сказали, какие термины ввели, о чём договорились два абзаца назад. Это как блокнот на столе: вы пишете туда по ходу встречи, и всем удобно — можно не повторять одно и то же.
А вот между разговорами (закрыли вкладку, начался новый чат, сессия обнулилась) — другая история. Представьте переговорку с большой белой доской: во время созвона на ней схема, стрелочки, цифры, кто кому что должен. Встреча закончилась — заходит уборщик, спокойно берёт тряпку и стирает всё подчистую. На следующей встрече доска снова белая, как будто ничего и не было. Примерно так же: блокнот уносят, доску стирают, и модель стартует “с нуля”.
Практическая польза простая: становится понятно, почему ИИ может идеально держать нить в одном чате, но потом внезапно “теряет вас”, ваши предпочтения и прошлые договорённости. Если хотите, чтобы он продолжал с того же места — придётся принести «листочки с доски» заново: кратко напомнить контекст или вставить ключевые факты ещё раз.
LLM не “учится на вас” автоматически по простой причине: у неё, грубо говоря, мозг-камень. Все её «привычки» — как подбирать слова, какие ответы считать правдоподобными, как продолжать фразу — выучены заранее на обучении и потом застывают. В переписке она не начинает тихонько перепрошивать себя после каждого вашего сообщения. Она скорее как повар с огромной кулинарной книгой: умеет быстро найти подходящий рецепт, смешать техники, подстроить специи под запрос… но не имеет права вписывать ваши правки на полях. Хоть вы десять раз скажете «в следующий раз делай иначе», книга от этого не поменяется.
А вот то, что кажется “памятью”, чаще всего — тетрадка-времянка: текущий контекст чата. Пока разговор открыт, модель видит ваши последние реплики и может выглядеть внимательной: «ага, ты не ешь лук, понял». Но это не превращается в навык “навсегда”. Закрыли чат, начался новый — и тетрадку как будто вырвали и выбросили. Поэтому тот самый момент: «я просил запомнить — он согласился». Да, он согласился. Но согласие не равно сохранение.
И тут важный психологический подвох. Модель часто отвечает уверенно не потому, что “точно знает”, а потому что так устроена подача: она тренирована звучать связно и убедительно. В кулинарной метафоре это повар, который бодро говорит: «конечно, это традиционный рецепт», даже если перепутал кориандр с тмином. Чем меньше магического мышления, тем легче держать дистанцию: уверенный тон — не гарантия истины, и тем более не доказательство, что она “поняла вас как человека” и изменилась.
Где тогда живёт эта самая “память” в реальных сервисах? Да почти никогда не внутри модели — она обычно рядом. Продукты просто обходят амнезию: заводят вам профиль, дают переключатель “память” в настройках, хранят сохранённые чаты, отдельные заметки про предпочтения (“любит кратко”, “пишет на русском”, “вегетарианец”), плюс поиск по истории. И всё это — не магия, а обычные хранилища: база данных, документы, иногда векторный поиск. А потом, когда вы задаёте вопрос, система достаёт оттуда кусочки и подсовывает модели как подсказку в начале запроса. Типа мини-справки: “вот кто ты, вот что ты любишь, вот о чём вы говорили”.
Зачем это понимать читателю? Чтобы не путать “модель запомнила” и “сервис сохранил”. Важно, что именно сохраняется и кто это хранит: сама LLM, как правило, ничего “внутрь себя” не записывает, а вот платформа вокруг неё — вполне. Поэтому иногда ИИ “вдруг вспомнил” вашу тему, имя проекта или любимый формат ответа. Он не вспомнил — ему просто напомнили, подтянули из истории и аккуратно вставили в контекст.
И тут помогает простая аналогия. Представьте официанта: он улыбается и говорит “вам как обычно?”, но на самом деле он не гений памяти. Просто на кухне лежит карточка постоянного гостя: “кофе без сахара, аллергия на орехи, любит столик у окна”. Не официант вас помнит — карточка. Вот и в LLM-сервисах так же: “память” чаще всего — это карточка в системе, которую в нужный момент подсовывают модели.
Сейчас это прям заметный тренд: и исследователи, и компании пытаются научить ИИ хранить полезные факты дольше одного диалога — как дневник, картотеку или набор закладок. Чтобы вы один раз сказали «я из Казани, работаю ночью, не люблю созвоны», и оно не растворилось на следующий день. Но важный момент: такая «память» — не магия и не внезапная человечность. Это довольно приземлённый механизм, который должен постоянно решать три вещи: что записать, что не трогать, а что вообще лучше забыть или перепроверить позже.
В быту это звучит классно. Меньше повторов, меньше “а напомните, как вас зовут”, проще вести длинные проекты. Условно: вы ведёте ремонт — ИИ помнит, что плитка 60×60 и бюджет 150 000, и не предлагает на каждый чих «давайте начнём с нуля». Или вы учите язык — он держит в голове, что у вас слабое место времена, и подсовывает упражнения точнее. И да, это экономит время: не 10 сообщений «контекста» каждый раз, а 1–2 уточнения по делу.
А теперь подвох. Память может быть кривой, липкой и несправедливой. ИИ может записать не то (вы пошутили — он принял всерьёз), записать слишком много (лишние детали про здоровье, финансы, отношения), или не уметь вовремя “отпустить” старую инфу. Самое неприятное — эффект уверенности: если что-то попало в “дневник”, система начинает опираться на это как на факт, даже когда вы давно передумали. Примерно как сосед, который всё записывает про вас в блокнот: удобно, пока записи точные и у вас есть доступ открыть блокнот и вычеркнуть строчку. А если доступа нет, или там ошибки — уже как-то не по себе.
Поэтому «память» — это всегда договор: кто решает, что запоминать, где это хранится, как вы это редактируете, и что будет, если запись устареет. И если в интерфейсе нет кнопки “показать и исправить мои заметки”, это уже не помощь, а тихая зона риска.
Самое полезное правило, которое я сам держу в голове: если это не сказал бы случайному попутчику в поезде — не стоит писать и в чат. Потому что модель в моменте выглядит “как человек”, но на самом деле вы разговариваете с сервисом: где-то есть история, где-то — включённая “память”, где-то — логи для качества. И вот тут контроль легко уезжает из рук.
Представьте рабочую ситуацию. Вы обсуждаете с ИИ коммерческое предложение или баг-репорт, и хочется закинуть туда всё: названия клиентов, суммы, скриншоты, внутренние ссылки. Лучше так не делать. Давайте модели роль и контекст, но обезличенно: “клиент из финтеха”, “бюджет в диапазоне”, “три варианта тарифа”. А ключевые вводные — повторяйте сами, как будто у модели память аквариумной рыбки: в начале сессии коротко “мы делаем Х, ограничения Y, цель Z”, и дальше просите: “сначала резюме того, что ты понял, в 5 пунктах, и только потом продолжим”. Это резко снижает шанс, что она «забудет важное» или начнёт импровизировать лишнее. И да, важные факты (точные цифры, дедлайны, договорённости) лучше хранить у себя — в заметке или документе — и вставлять по мере надобности, а не надеяться, что чат “сам всё помнит”.
Теперь здоровье. Тут обычно две крайности: либо человек стесняется и недоговаривает, либо, наоборот, вываливает полный набор персональных данных: ФИО, адрес, фото анализов с шапкой клиники. Я бы делал иначе: описывайте симптомы и динамику, но убирайте идентификаторы. Не “вот мой анализ из клиники X на имя Y”, а “показатель такой-то = 8.2, референс 3–6, дата”. И обязательно просите структуру: “составь список уточняющих вопросов, а потом дай гипотезы с вероятностями и красные флаги, когда надо к врачу срочно”. Если разговор длинный, полезно остановиться и сказать: “сделай краткое резюме моей истории болезни по этому чату, без личных данных, чтобы я мог вставить в следующий запрос”. Так вы и контекст сохраняете, и лишнее не тащите.
И, наконец, личные данные. Вот тут вообще лучше быть скучным параноиком. Если вам нужно, например, написать письмо в банк или работодателю — не отдавайте паспорт, номер договора, адрес, дату рождения. Дайте шаблон: “вставьте [номер договора], [дата], [ФИО]” и попросите “оставь плейсхолдеры, ничего не выдумывай”. А ещё одна привычка, которая реально спасает: прямо спросить сервис, где у него включена “память”, сохраняется ли история, и как это чистится — в настройках, в профиле, в конкретном чате. Потратьте две минуты, найдите кнопку “очистить историю/память/данные для обучения” (если она есть) и используйте её как гигиену, особенно после чувствительных тем. В итоге вы возвращаете себе контроль: меньше риск утечек, меньше шанс, что ИИ утащит разговор не туда, и заметно меньше ошибок из-за “забытых” вводных.
Решайте любые задачи с помощью ИИ — от генерации текста до создания изображений и видео.
Генерация контента, перевод, анализ данных и автодополнение кода.
Создание иллюстраций, видеоконтента и уникальных треков любого жанра.
Визуализация данных, построение графиков и генерация блок-схем.
Личный кабинет