ShipAI
СЦЕНАРИЙ SHIPAI · RAG И БАЗА ЗНАНИЙ
TelegramRAGбаза знанийSupabasepgvector

Telegram-бот отвечает по базе знаний ShipAI

Когда материалов становится много, их неудобно искать вручную в уроках, постах, кейсах и файлах. В этом сценарии пользователь задаёт вопрос в Telegram, система находит подходящие фрагменты базы знаний и возвращает ответ со ссылками на источники.

1

Материалы становятся базой знаний, а не лежат разрозненно в постах, уроках и файлах.

2

Бот ищет подходящие фрагменты и отвечает на вопрос только по найденному контексту.

3

Ответ возвращается со ссылками, чтобы можно было открыть исходный материал.

Какая проблема решается

Когда материалов становится много, база знаний быстро превращается в архив, по которому неудобно искать. Уроки, посты, кейсы, SQL-скрипты, workflow и технические разборы уже есть, но нужный ответ всё равно приходится искать вручную: вспоминать, где был материал, листать канал, открывать старые посты или снова спрашивать человека. Главная боль: знания накоплены, но доступ к ним остаётся ручным и медленным.

Что меняется после внедрения

Было

Материалы лежат в канале, файлах и постах, а человек ищет нужный ответ руками.

Стало

Пользователь задаёт вопрос в Telegram, система ищет подходящие фрагменты в базе знаний и возвращает ответ со ссылками на источники.

Главный результат

Появляется первый рабочий RAG-бот, который отвечает по базе знаний, а не просто генерирует ответ из головы модели.

Что делает система

  • Принимает вопрос пользователя в Telegram.
  • Ищет подходящие материалы в базе знаний.
  • Находит близкие по смыслу фрагменты через векторный поиск.
  • Собирает найденные фрагменты в контекст для ИИ.
  • Формирует ответ только на основе найденного контекста.
  • Добавляет ссылки на исходные материалы.
  • Сообщает, если точного ответа в базе знаний нет.

Что важно понять

RAG начинается не с модели

Сначала система находит релевантный контекст в базе знаний, а уже потом ИИ формирует ответ. Поэтому бот работает с конкретными материалами проекта, а не только с общими знаниями модели.

Главное — путь данных

В кейсе важно увидеть цепочку: исходный материал → документ → чанк → эмбеддинг → поиск → контекст → ответ. Это основа, на которую можно наращивать более сложную базу знаний.

Это первая версия, а не финальная RAG-платформа

Текущая схема специально упрощена: материалы загружаются вручную, один материал равен одному чанку, а качество поиска дальше нужно улучшать.

Как это устроено

Пользователь видит простой сценарий: вопрос в Telegram → поиск по базе знаний → ответ со ссылками. Технически внутри работает связка Telegram, n8n, Supabase / Postgres, pgvector и ИИ.

1

Подготовка материалов

Материалы вручную складываются в t_rag_history: текст, ссылка на источник, тип источника, уровень доступа, заголовок и дата публикации.

2

Документы и чанки

Из исходной записи создаётся карточка документа в t_rag_docs и фрагмент для поиска в t_rag_chunks. В первой версии используется простой принцип: один материал равен одному чанку.

3

Эмбеддинги и поиск

Для чанка создаётся эмбеддинг через text-embedding-3-small и сохраняется в vector(1536). При вопросе пользователя Supabase Vector Store ищет близкие по смыслу чанки через pgvector.

4

Контекст для ИИ

n8n собирает найденные фрагменты в контекст. В модель уходит не вся база, а только материалы, которые подходят под вопрос.

5

Ответ в Telegram

ИИ формирует ответ по найденному контексту, добавляет ссылки на источники и честно сообщает, если точного ответа в базе знаний нет.

Видео и краткий конспект кейса

Можно посмотреть кейс прямо на странице или открыть видео на YouTube, если удобнее там.

Короткое описание кейса

В этом кейсе собрана первая версия RAG-системы для базы знаний ShipAI. Пользователь пишет вопрос в Telegram, n8n передаёт его в контур поиска, Supabase с pgvector ищет близкие по смыслу фрагменты, а ИИ формирует ответ на основе найденного контекста.

Что приложил к посту

  • SQL-скрипт для создания базы RAG в Supabase
  • схема rag: prepare data для подготовки базы знаний
  • схема rag: answer для ответа на вопросы через Telegram

Для кого подходит кейс

  • для проектов, у которых уже накопились посты, инструкции, уроки, кейсы или внутренние материалы;
  • для компаний, где сотрудники часто спрашивают одно и то же в чатах;
  • для команд, которым нужна база знаний с поиском по смыслу;
  • для образовательных проектов, закрытых сообществ и экспертных каналов;
  • для тех, кто хочет понять RAG на практике, а не на абстрактных примерах;
  • для специалистов, которые собирают ИИ-автоматизации на n8n, Supabase и Telegram.

Что это значит на практике

Кейс показывает, как накопленные материалы превращаются в рабочий контур ответов: человек задаёт вопрос обычным языком, бот ищет подходящие фрагменты и возвращает ответ, который можно проверить по источникам.

FAQ

Короткие ответы на типовые вопросы перед тем, как забирать материалы или повторять схему.

RAG — это подход, при котором ИИ сначала ищет нужные материалы в базе знаний, а потом отвечает на вопрос на основе найденного контекста.

Чтобы модель отвечала не из общих знаний, а по конкретным материалам проекта: урокам, постам, кейсам, инструкциям, SQL-скриптам и workflow.

Supabase удобен для первого RAG-кейса, потому что позволяет хранить документы, чанки, служебные данные и эмбеддинги в одной базе Postgres с расширением pgvector.

pgvector — это расширение PostgreSQL, которое позволяет хранить векторы и сравнивать их между собой. В этом кейсе оно используется для поиска фрагментов, близких по смыслу к вопросу пользователя.

Эмбеддинг — это числовое представление смысла текста. Благодаря эмбеддингам система может искать не только по точному совпадению слов, а по смысловой близости.

Так проще показать базовую механику RAG. Это не идеальная схема для больших материалов, но хороший старт для первого рабочего прототипа.

Да. Такой подход подходит для корпоративных баз знаний, регламентов, юридических документов, технической документации, клиентской поддержки, онбординга сотрудников и внутренних материалов компании.

Если модель отвечает без найденных материалов, она может начать выдумывать. В RAG-системе важно ограничить ответ найденным контекстом и ссылками на источники.

Планируется добавить автоматическую загрузку новых постов, нормальный chunking, улучшение качества поиска, логи, поиск как инструмент ИИ-агента, чат на сайте и отдельную векторную базу.

Забрать материалы по RAG-кейсу

SQL-скрипт, workflow n8n и детали реализации доступны в Сообществе ShipAI. Ссылка ведёт к сообщению с материалами, вход — через бота.