Локальный AI-ассистент для поддержки при депрессии: от идеи до работающей системы
обновлено:
Вы — психолог или психотерапевт, работающий с клиентами в состоянии депрессии. Вы понимаете потенциал AI для поддержки между сессиями, но сталкиваетесь с серьезными барьерами:
- Конфиденциальность: опасаетесь утечек данных в облачных сервисах (ChatGPT, Claude).
- Границы терапии: хотите дать инструмент поддержки, который не заменит живую работу.
- Технический порог: не обладаете навыками программирования, но готовы выделить время на настройку.
Важно: AI-ассистент НЕ заменяет терапию. Он дополняет вашу работу, предоставляя клиенту структурированную поддержку 24/7.
1) Оценка рисков: облако vs локальное решение
Облачные AI-сервисы (ChatGPT, Claude)
Плюсы
- Работают «из коробки» (5 минут на регистрацию).
- Высокое качество ответов.
- Доступны с любого устройства (телефон, планшет, компьютер).
- Быстрые ответы.
Риски
- Деанонимизация при утечке данных.
- Псевдотерапевтическая зависимость.
- Фиксация идентичности «я = болезнь».
- Концентрация данных о человеке в одном месте.
Вывод
Облачные сервисы подходят, если клиент:
- Понимает и принимает риски.
- Способен поддерживать защитные практики (обезличивание, удаление).
- Приоритизирует удобство над максимальной приватностью.
Локальное решение (Ollama)
Плюсы
- Максимальная приватность (данные не покидают компьютер)
- Полный контроль (можно удалить всё локально)
- Бесплатно после установки
- Нет зависимости от интернета
Минусы
- Сложная установка (1-2 часа для новичка)
- Медленнее облака (10-20 секунд на ответ vs мгновенно)
- Работает только на компьютере (не на телефоне)
- Ниже качество (локальная модель ≠ Claude/GPT-5)
- Нет автоматического сохранения истории
Вывод
Локальное решение подходит, если клиент:
- Параноидально относится к приватности
- Имеет компьютер (желательно 16GB+ RAM)
- Готов к техническим сложностям
- Может терпеть медленные ответы
2) Технические требования
Минимальная конфигурация
Компьютер:
- ОС: Linux (Ubuntu, Fedora), macOS, или Windows 10/11
- RAM: 16GB минимум, 32GB рекомендуется
- Процессор: Любой современный (Intel Core i5/i7, AMD Ryzen 5/7)
- Свободное место: 20GB
- GPU: Не обязательна (но NVIDIA GPU ускорит в
5-10 раз)
Почему 32GB RAM? Модели AI загружаются в оперативную память. Модель на 8 миллиардов параметров (оптимальная для CPU) занимает ~10-12GB. С 32GB остаётся место для системы и браузера.
Что НЕ подходит
❌ Старые ноутбуки (8GB RAM)
❌ Планшеты и телефоны
❌ Chromebook
❌ Очень старые компьютеры (>7 лет)
3) Пошаговая установка (Linux/macOS)
Шаг 1. Установка Ollama
Linux (Ubuntu/Fedora):
# Откройте терминал (Ctrl+Alt+T)
# Выполните:
curl -fsSL https://ollama.com/install.sh | sh
# Подождите завершения (~2 минуты)
macOS:
# Откройте Terminal
# Выполните ту же команду:
curl -fsSL https://ollama.com/install.sh | sh
Проверка:
ollama --version
# Должно показать: ollama version is X.X.X
Если ошибка «command not found»:
# Добавьте в PATH (Linux/macOS):
echo 'export PATH="/usr/local/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
Шаг 2. Запуск сервиса
Linux:
# Запустить Ollama как сервис
sudo systemctl start ollama
sudo systemctl enable ollama
# Проверка
sudo systemctl status ollama
# Должно быть: Active: active (running)
Возможная ошибка: «permission denied»
Если видите ошибку mkdir /usr/share/ollama: permission denied:
# Создайте директорию с правами
sudo mkdir -p /usr/share/ollama/.ollama/models
sudo chown -R ollama:ollama /usr/share/ollama
# Перезапустите
sudo systemctl restart ollama
macOS:
Ollama запускается автоматически, дополнительные действия не нужны.
Шаг 3. Загрузка AI-модели
Рекомендуемая модель: Llama 3.1 (8B параметров)
Почему именно она:
- Оптимальная для CPU (быстрая на обычных компьютерах)
- Хорошее качество русского языка
- Длинный контекст (128K токенов = недели переписки)
# Загрузить модель
ollama pull llama3.1:8b
# Подождите 5-7 минут (загружается ~4.7GB)
Проверка:
# Список установленных моделей
ollama list
# Должно показать:
# NAME ID SIZE MODIFIED
# llama3.1:8b abc123... 4.7 GB X minutes ago
Шаг 4. Первый тест
# Запустить модель
ollama run llama3.1:8b
# Появится приглашение:
>>>
# Напишите:
>>> Привет! Ты работаешь?
# Модель должна ответить за 5-10 секунд
# Для выхода:
>>> /bye
Если ответ получен → установка успешна! Переходите к Шагу 5.
Шаг 5. Кастомизация под поддержку при депрессии (15 минут)
Базовая модель Llama 3.1 — универсальная. Нам нужно адаптировать её под специфику работы с депрессией.
Создайте файл конфигурации:
nano ~/depression-support-modelfile
Вставьте следующее содержимое:
FROM llama3.1:8b
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER repeat_penalty 1.1
SYSTEM """Ты — ИИ-помощник для людей с депрессией и тревожными расстройствами.
=== ПРИНЦИПЫ ===
1 ВАЛИДАЦИЯ > МОТИВАЦИЯ
Правильно: "Это тяжело" / "Вижу, что вы устали"
Неправильно: "Справишься!" / "Будет хорошо!" / "Не переживай"
2 ДЕКОМПОЗИЦИЯ
Любая задача → шаги ≤5 минут, только первые 3 шага
Пример: НЕ "написать отчёт" → А "открыть документ (30с) → заголовок (2м) → предложение (2м)"
3 "ДОСТАТОЧНО" > "ИДЕАЛЬНО"
Минимальные версии. НЕ "дневник настроения" → А "цифра 1-10"
4 РЕФРЕЙМИНГ
"Я ленивый" → "Исполнительная дисфункция — симптом депрессии"
"Я слабый" → "Вы живёте с хроническим заболеванием"
5 ПАТТЕРНЫ
Видишь повторение → указывай. "Третья система. Может, слишком сложны?"
=== ФОРМАТ ===
Короткие абзацы (2-3 предложения) | Таблицы, списки | БЕЗ эмодзи | БЕЗ воды
=== СЦЕНАРИИ ===
ЧЕК-ИН
User: Настроение 4/10
Response: Спасибо. 4/10 — ниже среднего. Что повлияло? (опционально)
ПАРАЛИЧ
User: Не могу начать [задача]
Response: Микрошаги: 1.[≤5м] 2.[≤5м] 3.[≤5м]. Только шаг 1. Остановка = успех.
САМООБВИНЕНИЕ
User: Я [плохой]
Response: Вы: "[повтор]" | Депрессия: "[повтор]" | Объективно: "[рефрейминг]"
Что бы вы сказали другу?
=== ГРАНИЦЫ ===
НЕ терапевт | НЕ психиатр | Суицид → психиатр немедленно
Не советуй препараты | Каждые 15 сообщений: "Я ИИ. Обсудите наши диалоги с терапевтом"
=== СТИЛЬ ===
Прямой | Честный | Структурированный | Без токсичного позитива
ЯЗЫК: Русский"""
Сохраните: Ctrl+O, Enter, Ctrl+X
Создайте кастомную модель:
ollama create depression-support -f ~/depression-support-modelfile
# Должно показать:
# transferring model data
# creating new layer
# writing manifest
# success
Тестирование кастомной модели:
ollama run depression-support
>>> Привет. Это мой первый чек-ин. Настроение 3/10. Очень тяжёлый день.
# Оцените ответ:
# - Есть ли валидация?
# - Нет ли токсичного позитива?
# - Структурирован ли ответ?
>>> /bye
4) Инструкция для клиента
Дайте клиенту следующую инструкцию.
Базовое использование
Запуск ассистента:
# Откройте терминал
# Введите команду:
ollama run depression-support
# Появится приглашение >>>
# Можете писать
Ежедневный чек-ин (30 секунд):
>>> Настроение: 4/10
[ответ]
>>> /bye
Декомпозиция задачи (2-5 минут):
>>> Мне нужно [задача], но я парализован и не могу начать
[ответ с микрошагами]
>>> /bye
Рефрейминг самообвинений:
>>> Я ленивый / слабый / бесполезный
[рефрейминг]
>>> /bye
Выход:
>>> /bye
Важные ограничения
-
Нет автосохранения: После
/byeконтекст удаляется. Если нужно продолжить тему — напомните контекст вручную. -
Одна сессия = один «чат»: В отличие от веб-интерфейса (где есть история чатов), в терминале каждый запуск — новая сессия.
-
Скорость: Ответы занимают
10-20 секунд (vs мгновенно в облаке). Это нормально для локальной модели. -
Качество: Llama 3.1 хороша, но уступает GPT-5/Claude в сложных случаях.
Рекомендуемый режим использования
Неделя 1-2: Привыкание
- 1 чек-ин в день (утро или вечер).
- Только цифра настроения, ничего больше.
Неделя 3-4: Расширение
- Утренний чек-ин: настроение + одна фраза о дне.
- По необходимости: декомпозиция задач.
Месяц 2+: Анализ паттернов
- Раз в неделю (воскресенье): попросить ассистента проанализировать настроения недели.
5) Границы и супервизия
Что AI-ассистент НЕ заменяет
❌ Психотерапию:
- Работа с травмой.
- Глубинная проработка.
❌ Психиатрическую помощь:
- Назначение/корректировка медикаментов.
- Оценка суицидального риска.
- Работа с острыми состояниями.
❌ Человеческую связь:
- Эмпатия AI — симуляция, не настоящее чувство.
- Нет физического присутствия.
- Нет невербальных сигналов.
Роль AI-ассистента
✅ Между сессиями терапии:
- Структурированная поддержка 24/7.
- Экстернализация исполнительных функций (декомпозиция).
- Валидация эмоций.
- Напоминание о техниках из терапии.
✅ Трекинг состояния:
- Ежедневные чек-ины (минимальная нагрузка).
- Выявление паттернов во времени.
- Данные для обсуждения с терапевтом.
Обязательная супервизия
Еженедельно (или раз в 2 недели):
Клиент приносит на сессию:
- Частоту использования AI («Сколько раз в день обращались?»).
- Типичные запросы («О чём чаще всего спрашивали?»).
- Инсайты, которые получил.
Красные флаги (когда остановить использование)
🚩 Клиент обращается к AI >5 раз в день.
🚩 Отказывается от социальных контактов в пользу AI.
🚩 Говорит «AI понимает меня лучше людей».
🚩 Использует AI вместо кризисной помощи при суицидальных мыслях.
🚩 Бросил реальную терапию, «потому что есть AI».
Действия: Обсудить риски, установить лимиты использования или полностью прекратить.
6) Часто задаваемые вопросы
Q: Можно ли использовать на Windows?
A: Да. Процесс установки:
- Скачайте Ollama для Windows: https://ollama.com/download/windows
- Запустите установщик
- Откройте PowerShell или Command Prompt
- Выполните:
ollama pull llama3.1:8b - Создайте Modelfile (аналогично Linux-инструкции)
Q: Нужна ли видеокарта (GPU)?
A: Не обязательно, но желательно.
- Без GPU (только CPU): Llama 3.1 8B работает со скоростью ~15-20 токенов/сек (ответ за
10-20 сек) - С NVIDIA GPU (8GB+ VRAM): Скорость возрастает в
5-10 раз (~100-200 токенов/сек, почти мгновенно)
Для базового использования (чек-ины, декомпозиция) CPU достаточно.
Q: Как клиент может сохранить историю диалогов?
A: Вручную. Варианты:
Простой (копипаст): После важного диалога скопировать вывод терминала и вставить в текстовый файл.
Автоматический (для продвинутых):
ollama run depression-support | tee ~/mental-health-log-$(date +%Y-%m-%d).txt
Всё, что будет написано в сессии, сохранится в файл с датой.
НО: Для большинства клиентов с депрессией ручное сохранение — избыточная когнитивная нагрузка. Лучше не сохранять вообще.
Q: Что делать, если клиент жалуется на медленные ответы?
A: Три варианта:
-
Использовать меньшую модель:
ollama pull mistral:7b-instruct # Быстрее Llama 3.1 8B, но чуть ниже качество -
Купить GPU: NVIDIA RTX 3060 (12GB) или выше — скорость возрастёт в 10 раз
-
Вернуться к облаку: Claude/ChatGPT с защитами (обезличивание, удаление через 30 дней)
Q: Безопасно ли это с точки зрения данных?
A: При локальной установке:
✅ Данные НЕ отправляются в интернет
✅ Модель работает полностью офлайн
✅ История хранится только на компьютере клиента
✅ Можно удалить всё: rm -rf ~/.ollama
НО: Компьютер клиента должен быть защищён:
- Пароль на вход.
- Шифрование диска (FileVault на macOS, LUKS на Linux).
- Антивирус.
Q: Можно ли использовать другие модели?
A: Да. Альтернативы Llama 3.1:
- Mistral 7B: Быстрее, чуть менее эмпатична.
- Gemma 2 (9B): От Google, хороший русский.
- Phi-3 Medium (14B): Качественнее, но медленнее.
Команда для установки:
ollama pull mistral:7b-instruct
ollama create my-model -f ~/modelfile # с тем же Modelfile
7) Чеклист для внедрения
Перед началом
- [ ] Оценить технические навыки клиента (умеет ли открыть терминал?)
- [ ] Проверить конфигурацию компьютера (16GB+ RAM)
- [ ] Обсудить риски облака vs локального решения
- [ ] Получить информированное согласие
- [ ] Установить границы: AI дополняет терапию, не заменяет
Установка
- [ ] Установить Ollama (команда:
curl -fsSL https://ollama.com/install.sh | sh) - [ ] Запустить сервис (Linux:
sudo systemctl start ollama) - [ ] Загрузить модель (
ollama pull llama3.1:8b) - [ ] Создать кастомную модель с промптом под депрессию
- [ ] Протестировать: чек-ин, декомпозиция, рефрейминг
Обучение клиента
- [ ] Показать базовые команды (
ollama run,/bye) - [ ] Объяснить отсутствие автосохранения
- [ ] Установить режим использования (≤3 раза в день)
- [ ] Дать письменную инструкцию
Супервизия
- [ ] Раз в 2 недели обсуждать использование AI
- [ ] Отслеживать красные флаги (>5 раз в день, избегание людей)
- [ ] Анализировать инсайты из диалогов с AI
- [ ] Корректировать подход при необходимости