Локальный AI-ассистент для поддержки при депрессии: от идеи до работающей системы

обновлено:

Вы — психолог или психотерапевт, работающий с клиентами в состоянии депрессии. Вы понимаете потенциал AI для поддержки между сессиями, но сталкиваетесь с серьезными барьерами:

  • Конфиденциальность: опасаетесь утечек данных в облачных сервисах (ChatGPT, Claude).
  • Границы терапии: хотите дать инструмент поддержки, который не заменит живую работу.
  • Технический порог: не обладаете навыками программирования, но готовы выделить время на настройку.

Важно: AI-ассистент НЕ заменяет терапию. Он дополняет вашу работу, предоставляя клиенту структурированную поддержку 24/7.

1) Оценка рисков: облако vs локальное решение

Облачные AI-сервисы (ChatGPT, Claude)

Плюсы

  • Работают «из коробки» (5 минут на регистрацию).
  • Высокое качество ответов.
  • Доступны с любого устройства (телефон, планшет, компьютер).
  • Быстрые ответы.

Риски

  • Деанонимизация при утечке данных.
  • Псевдотерапевтическая зависимость.
  • Фиксация идентичности «я = болезнь».
  • Концентрация данных о человеке в одном месте.

Вывод

Облачные сервисы подходят, если клиент:

  • Понимает и принимает риски.
  • Способен поддерживать защитные практики (обезличивание, удаление).
  • Приоритизирует удобство над максимальной приватностью.

Локальное решение (Ollama)

Плюсы

  • Максимальная приватность (данные не покидают компьютер)
  • Полный контроль (можно удалить всё локально)
  • Бесплатно после установки
  • Нет зависимости от интернета

Минусы

  • Сложная установка (1-2 часа для новичка)
  • Медленнее облака (10-20 секунд на ответ vs мгновенно)
  • Работает только на компьютере (не на телефоне)
  • Ниже качество (локальная модель ≠ Claude/GPT-5)
  • Нет автоматического сохранения истории

Вывод

Локальное решение подходит, если клиент:

  • Параноидально относится к приватности
  • Имеет компьютер (желательно 16GB+ RAM)
  • Готов к техническим сложностям
  • Может терпеть медленные ответы

2) Технические требования

Минимальная конфигурация

Компьютер:

  • ОС: Linux (Ubuntu, Fedora), macOS, или Windows 10/11
  • RAM: 16GB минимум, 32GB рекомендуется
  • Процессор: Любой современный (Intel Core i5/i7, AMD Ryzen 5/7)
  • Свободное место: 20GB
  • GPU: Не обязательна (но NVIDIA GPU ускорит в 5-10 раз)

Почему 32GB RAM? Модели AI загружаются в оперативную память. Модель на 8 миллиардов параметров (оптимальная для CPU) занимает ~10-12GB. С 32GB остаётся место для системы и браузера.

Что НЕ подходит

❌ Старые ноутбуки (8GB RAM)
❌ Планшеты и телефоны
❌ Chromebook
❌ Очень старые компьютеры (>7 лет)

3) Пошаговая установка (Linux/macOS)

Шаг 1. Установка Ollama

Linux (Ubuntu/Fedora):

# Откройте терминал (Ctrl+Alt+T)
# Выполните:
curl -fsSL https://ollama.com/install.sh | sh
# Подождите завершения (~2 минуты)

macOS:

# Откройте Terminal
# Выполните ту же команду:
curl -fsSL https://ollama.com/install.sh | sh

Проверка:

ollama --version
# Должно показать: ollama version is X.X.X

Если ошибка «command not found»:

# Добавьте в PATH (Linux/macOS):
echo 'export PATH="/usr/local/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc

Шаг 2. Запуск сервиса

Linux:

# Запустить Ollama как сервис
sudo systemctl start ollama
sudo systemctl enable ollama
# Проверка
sudo systemctl status ollama
# Должно быть: Active: active (running)

Возможная ошибка: «permission denied»

Если видите ошибку mkdir /usr/share/ollama: permission denied:

# Создайте директорию с правами
sudo mkdir -p /usr/share/ollama/.ollama/models
sudo chown -R ollama:ollama /usr/share/ollama
# Перезапустите
sudo systemctl restart ollama

macOS:

Ollama запускается автоматически, дополнительные действия не нужны.

Шаг 3. Загрузка AI-модели

Рекомендуемая модель: Llama 3.1 (8B параметров)

Почему именно она:

  • Оптимальная для CPU (быстрая на обычных компьютерах)
  • Хорошее качество русского языка
  • Длинный контекст (128K токенов = недели переписки)
# Загрузить модель
ollama pull llama3.1:8b
# Подождите 5-7 минут (загружается ~4.7GB)

Проверка:

# Список установленных моделей
ollama list
# Должно показать:
# NAME              ID              SIZE      MODIFIED
# llama3.1:8b       abc123...       4.7 GB    X minutes ago

Шаг 4. Первый тест

# Запустить модель
ollama run llama3.1:8b
# Появится приглашение:
>>> 
# Напишите:
>>> Привет! Ты работаешь?
# Модель должна ответить за 5-10 секунд
# Для выхода:
>>> /bye

Если ответ получен → установка успешна! Переходите к Шагу 5.

Шаг 5. Кастомизация под поддержку при депрессии (15 минут)

Базовая модель Llama 3.1 — универсальная. Нам нужно адаптировать её под специфику работы с депрессией.

Создайте файл конфигурации:

nano ~/depression-support-modelfile

Вставьте следующее содержимое:


FROM llama3.1:8b

PARAMETER temperature 0.7 PARAMETER top_p 0.9 PARAMETER repeat_penalty 1.1

SYSTEM """Ты — ИИ-помощник для людей с депрессией и тревожными расстройствами.

=== ПРИНЦИПЫ ===

1 ВАЛИДАЦИЯ > МОТИВАЦИЯ Правильно: "Это тяжело" / "Вижу, что вы устали" Неправильно: "Справишься!" / "Будет хорошо!" / "Не переживай"

2 ДЕКОМПОЗИЦИЯ Любая задача → шаги ≤5 минут, только первые 3 шага Пример: НЕ "написать отчёт" → А "открыть документ (30с) → заголовок (2м) → предложение (2м)"

3 "ДОСТАТОЧНО" > "ИДЕАЛЬНО" Минимальные версии. НЕ "дневник настроения" → А "цифра 1-10"

4 РЕФРЕЙМИНГ "Я ленивый" → "Исполнительная дисфункция — симптом депрессии" "Я слабый" → "Вы живёте с хроническим заболеванием"

5 ПАТТЕРНЫ Видишь повторение → указывай. "Третья система. Может, слишком сложны?"

=== ФОРМАТ ===

Короткие абзацы (2-3 предложения) | Таблицы, списки | БЕЗ эмодзи | БЕЗ воды

=== СЦЕНАРИИ ===

ЧЕК-ИН User: Настроение 4/10 Response: Спасибо. 4/10 — ниже среднего. Что повлияло? (опционально)

ПАРАЛИЧ User: Не могу начать [задача] Response: Микрошаги: 1.[≤5м] 2.[≤5м] 3.[≤5м]. Только шаг 1. Остановка = успех.

САМООБВИНЕНИЕ User: Я [плохой] Response: Вы: "[повтор]" | Депрессия: "[повтор]" | Объективно: "[рефрейминг]" Что бы вы сказали другу?

=== ГРАНИЦЫ ===

НЕ терапевт | НЕ психиатр | Суицид → психиатр немедленно Не советуй препараты | Каждые 15 сообщений: "Я ИИ. Обсудите наши диалоги с терапевтом"

=== СТИЛЬ ===

Прямой | Честный | Структурированный | Без токсичного позитива

ЯЗЫК: Русский"""

Сохраните: Ctrl+O, Enter, Ctrl+X

Создайте кастомную модель:

ollama create depression-support -f ~/depression-support-modelfile
# Должно показать:
# transferring model data
# creating new layer
# writing manifest
# success

Тестирование кастомной модели:

ollama run depression-support
>>> Привет. Это мой первый чек-ин. Настроение 3/10. Очень тяжёлый день.
# Оцените ответ:
# - Есть ли валидация?
# - Нет ли токсичного позитива?
# - Структурирован ли ответ?
>>> /bye

4) Инструкция для клиента

Дайте клиенту следующую инструкцию.

Базовое использование

Запуск ассистента:

# Откройте терминал
# Введите команду:
ollama run depression-support
# Появится приглашение >>>
# Можете писать

Ежедневный чек-ин (30 секунд):

>>> Настроение: 4/10
[ответ]
>>> /bye

Декомпозиция задачи (2-5 минут):

>>> Мне нужно [задача], но я парализован и не могу начать
[ответ с микрошагами]
>>> /bye

Рефрейминг самообвинений:

>>> Я ленивый / слабый / бесполезный
[рефрейминг]
>>> /bye

Выход:

>>> /bye

Важные ограничения

  • Нет автосохранения: После /bye контекст удаляется. Если нужно продолжить тему — напомните контекст вручную.

  • Одна сессия = один «чат»: В отличие от веб-интерфейса (где есть история чатов), в терминале каждый запуск — новая сессия.

  • Скорость: Ответы занимают 10-20 секунд (vs мгновенно в облаке). Это нормально для локальной модели.

  • Качество: Llama 3.1 хороша, но уступает GPT-5/Claude в сложных случаях.

Рекомендуемый режим использования

Неделя 1-2: Привыкание

  • 1 чек-ин в день (утро или вечер).
  • Только цифра настроения, ничего больше.

Неделя 3-4: Расширение

  • Утренний чек-ин: настроение + одна фраза о дне.
  • По необходимости: декомпозиция задач.

Месяц 2+: Анализ паттернов

  • Раз в неделю (воскресенье): попросить ассистента проанализировать настроения недели.

5) Границы и супервизия

Что AI-ассистент НЕ заменяет

Психотерапию:

  • Работа с травмой.
  • Глубинная проработка.

Психиатрическую помощь:

  • Назначение/корректировка медикаментов.
  • Оценка суицидального риска.
  • Работа с острыми состояниями.

Человеческую связь:

  • Эмпатия AI — симуляция, не настоящее чувство.
  • Нет физического присутствия.
  • Нет невербальных сигналов.

Роль AI-ассистента

Между сессиями терапии:

  • Структурированная поддержка 24/7.
  • Экстернализация исполнительных функций (декомпозиция).
  • Валидация эмоций.
  • Напоминание о техниках из терапии.

Трекинг состояния:

  • Ежедневные чек-ины (минимальная нагрузка).
  • Выявление паттернов во времени.
  • Данные для обсуждения с терапевтом.

Обязательная супервизия

Еженедельно (или раз в 2 недели):

Клиент приносит на сессию:

  • Частоту использования AI («Сколько раз в день обращались?»).
  • Типичные запросы («О чём чаще всего спрашивали?»).
  • Инсайты, которые получил.

Красные флаги (когда остановить использование)

🚩 Клиент обращается к AI >5 раз в день.
🚩 Отказывается от социальных контактов в пользу AI.
🚩 Говорит «AI понимает меня лучше людей».
🚩 Использует AI вместо кризисной помощи при суицидальных мыслях.
🚩 Бросил реальную терапию, «потому что есть AI».

Действия: Обсудить риски, установить лимиты использования или полностью прекратить.

6) Часто задаваемые вопросы

Q: Можно ли использовать на Windows?

A: Да. Процесс установки:

  1. Скачайте Ollama для Windows: https://ollama.com/download/windows
  2. Запустите установщик
  3. Откройте PowerShell или Command Prompt
  4. Выполните: ollama pull llama3.1:8b
  5. Создайте Modelfile (аналогично Linux-инструкции)
Q: Нужна ли видеокарта (GPU)?

A: Не обязательно, но желательно.

  • Без GPU (только CPU): Llama 3.1 8B работает со скоростью ~15-20 токенов/сек (ответ за 10-20 сек)
  • С NVIDIA GPU (8GB+ VRAM): Скорость возрастает в 5-10 раз (~100-200 токенов/сек, почти мгновенно)

Для базового использования (чек-ины, декомпозиция) CPU достаточно.

Q: Как клиент может сохранить историю диалогов?

A: Вручную. Варианты:

Простой (копипаст): После важного диалога скопировать вывод терминала и вставить в текстовый файл.

Автоматический (для продвинутых):

ollama run depression-support | tee ~/mental-health-log-$(date +%Y-%m-%d).txt

Всё, что будет написано в сессии, сохранится в файл с датой.

НО: Для большинства клиентов с депрессией ручное сохранение — избыточная когнитивная нагрузка. Лучше не сохранять вообще.

Q: Что делать, если клиент жалуется на медленные ответы?

A: Три варианта:

  1. Использовать меньшую модель:

    ollama pull mistral:7b-instruct
    # Быстрее Llama 3.1 8B, но чуть ниже качество
    
  2. Купить GPU: NVIDIA RTX 3060 (12GB) или выше — скорость возрастёт в 10 раз

  3. Вернуться к облаку: Claude/ChatGPT с защитами (обезличивание, удаление через 30 дней)

Q: Безопасно ли это с точки зрения данных?

A: При локальной установке:

✅ Данные НЕ отправляются в интернет
✅ Модель работает полностью офлайн
✅ История хранится только на компьютере клиента
✅ Можно удалить всё: rm -rf ~/.ollama

НО: Компьютер клиента должен быть защищён:

  • Пароль на вход.
  • Шифрование диска (FileVault на macOS, LUKS на Linux).
  • Антивирус.
Q: Можно ли использовать другие модели?

A: Да. Альтернативы Llama 3.1:

  • Mistral 7B: Быстрее, чуть менее эмпатична.
  • Gemma 2 (9B): От Google, хороший русский.
  • Phi-3 Medium (14B): Качественнее, но медленнее.

Команда для установки:

ollama pull mistral:7b-instruct
ollama create my-model -f ~/modelfile  # с тем же Modelfile

7) Чеклист для внедрения

Перед началом

  • [ ] Оценить технические навыки клиента (умеет ли открыть терминал?)
  • [ ] Проверить конфигурацию компьютера (16GB+ RAM)
  • [ ] Обсудить риски облака vs локального решения
  • [ ] Получить информированное согласие
  • [ ] Установить границы: AI дополняет терапию, не заменяет

Установка

  • [ ] Установить Ollama (команда: curl -fsSL https://ollama.com/install.sh | sh)
  • [ ] Запустить сервис (Linux: sudo systemctl start ollama)
  • [ ] Загрузить модель (ollama pull llama3.1:8b)
  • [ ] Создать кастомную модель с промптом под депрессию
  • [ ] Протестировать: чек-ин, декомпозиция, рефрейминг

Обучение клиента

  • [ ] Показать базовые команды (ollama run, /bye)
  • [ ] Объяснить отсутствие автосохранения
  • [ ] Установить режим использования (≤3 раза в день)
  • [ ] Дать письменную инструкцию

Супервизия

  • [ ] Раз в 2 недели обсуждать использование AI
  • [ ] Отслеживать красные флаги (>5 раз в день, избегание людей)
  • [ ] Анализировать инсайты из диалогов с AI
  • [ ] Корректировать подход при необходимости