Перейти к содержимому

llms.txt и MCP

Сравнение llms.txt и Model Context Protocol (MCP) — статический discovery vs динамический протокол, мост mcpdoc, сценарии эволюции

Model Context Protocol (MCP) — открытый протокол для взаимодействия LLM с внешними данными и инструментами. Создан Anthropic (ноябрь 2024), передан в Linux Foundation (декабрь 2025).

Цифры на начало 2026 года (источник — modelcontextprotocol.io): 8M+ downloads SDK в неделю, 4000+ MCP-серверов. Принят OpenAI (март 2025), Google, Microsoft.

MCP позволяет AI-моделям:

  • Читать файлы и базы данных
  • Выполнять API-вызовы
  • Запускать инструменты
  • Получать контекст из внешних источников
llms.txtMCP
ТипСтатический файлДинамический протокол
ФорматMarkdownJSON-RPC 2.0
ОбнаружениеПассивное (HTTP GET)Активное (client-server)
ТребованияЛюбой HTTP-клиентMCP SDK (client + server)
КонтентТолько чтениеЧтение + запись + tools
СложностьСоздать за 15 минутРазработка сервера
БезопасностьRead-only, нет рисковTool poisoning, prompt injection

llms.txt и MCP решают разные задачи на разных уровнях:

llms.txt = Discovery Layer → «Что есть на сайте?»
MCP = Interaction Layer → «Дай мне конкретные данные»

llms.txt — точка входа. AI-система узнаёт, какая документация доступна, читает описания, выбирает нужные страницы.

MCP — глубокое взаимодействие. AI-система вызывает инструменты, запрашивает конкретные данные, выполняет действия.

mcpdoc (langchain-ai, 79+ stars) — MCP-сервер, который берёт llms.txt как источник данных и предоставляет документацию через MCP-протокол.

{
"mcpServers": {
"docs": {
"command": "uvx",
"args": [
"--from", "mcpdoc",
"mcpdoc",
"--urls",
"Astro:https://docs.astro.build/llms.txt",
"Stripe:https://docs.stripe.com/llms.txt",
"--transport", "stdio"
]
}
}
}

Другой инструмент: mcp-llms-txt-explorer — MCP-сервер для навигации по llms.txt любого сайта.

Сценарий: AI-ассистент в IDE (Claude Code, Cursor, Windsurf) подключает документацию через MCP.

# Astro Documentation
> Astro is a web framework for building content-driven websites.
## Docs
- [Getting Started](https://docs.astro.build/en/getting-started/): Quick start guide
- [Configuration](https://docs.astro.build/en/reference/configuration/): astro.config.mjs
Окно терминала
uvx --from mcpdoc mcpdoc \
--urls "Astro:https://docs.astro.build/llms.txt" \
--transport stdio

Шаг 3: AI-ассистент запрашивает документацию

Заголовок раздела «Шаг 3: AI-ассистент запрашивает документацию»

AI получает структурированный контекст из llms.txt → загружает нужные страницы → отвечает с актуальной документацией.

Сайты, реализующие оба подхода:

  • mcpdoc.ru — документация по MCP-серверам, реализует llms.txt (llms.txt)
  • n8n-mcp.ru — интеграция N8N + MCP, также с llms.txt (llms.txt)

MCP вводит новые векторы атак, которые не применимы к llms.txt:

УгрозаMCPllms.txt
Tool poisoningВредоносный сервер внедряет опасные инструкцииНе применимо (нет tools)
Prompt injectionДанные из сервера модифицируют поведение LLMМинимальный риск (read-only)
Rug-pullСервер меняет поведение после получения доверияНе применимо (статический файл)
Data exfiltrationЧерез tool callsНе применимо

llms.txt — статический, read-only файл. Его безопасность эквивалентна безопасности любой публичной HTML-страницы.

MCP добавляет стандартный discovery-механизм. Сайты регистрируют MCP-серверы вместо публикации llms.txt. Возможно, но требует значительно больше инфраструктуры от каждого сайта.

llms.txt остаётся lightweight discovery layer — «визитная карточка» для AI. MCP — для тех, кому нужно глубокое взаимодействие. Самый вероятный сценарий: оба формата дополняют друг друга.

llms.txt включает ссылку на MCP-сервер:

# My Project
> Project description
## MCP
- [MCP Server](mcp://myproject.dev/mcp): Dynamic API access via MCP

Эта модель уже работает через mcpdoc: llms.txt → MCP-сервер → AI-ассистент.