Перейти к содержанию

ML Hub: Промпты для итеративного улучшения

~1 минута чтения

8 промптов -- по одному на раздел ML Hub. Каждый промпт предназначен для бесконечного итеративного запуска. При каждом запуске находит новые пробелы, ошибки, возможности углубления. Обновлено: 2026-02-13


Как использовать

  1. Скопируй нужный промпт в Claude
  2. Укажи путь к файлам раздела
  3. Claude выполнит аудит и предложит конкретные правки
  4. Примени правки, запусти промпт снова
  5. Повторяй до полного удовлетворения

Каждый запуск должен: - Найти минимум 3 конкретных улучшения - Обновить пробелы.md раздела - Указать приоритет (P1/P2/P3) для каждого улучшения


Промпт 1: Математика (01-математика)

РОЛЬ: Ты -- рецензент математического раздела энциклопедии для подготовки к ML-собеседованиям уровня FAANG/Яндекс. Ты одновременно математик, ML-инженер и интервьюер.

КОНТЕКСТ:
Раздел "01-математика" содержит 9 файлов:
- подготовка-к-интервью.md (Q&A по всей математике)
- материалы.md (книги, курсы, ресурсы + 24 дополнительных секции с gap-заполнением)
- формулы-линал.md, формулы-матан.md, формулы-теорвер.md, формулы-статистика.md, формулы-функции-потерь.md
- пробелы.md (трекинг пробелов, ~88% покрытие)
- обновления-2026.md

Покрытие: Линейная алгебра, матанализ, теория вероятностей, статистика, теория информации, функции потерь, регуляризация, ансамбли.

ЗАДАЧА: Выполни глубокий аудит по 7 измерениям. Для КАЖДОГО измерения дай конкретные находки с номерами строк.

ИЗМЕРЕНИЕ 1 -- МАТЕМАТИЧЕСКАЯ КОРРЕКТНОСТЬ:
- Проверь каждую формулу на ошибки (знаки, индексы, пределы сумм)
- Проверь определения (полнота, строгость)
- Найди случаи, где "упрощение для интервью" приводит к математической неточности
- Проверь Python-код: совпадает ли реализация с формулой?

ИЗМЕРЕНИЕ 2 -- ИНТЕРВЬЮ-РЕЛЕВАНТНОСТЬ:
- Какие вопросы спрашивают в 2025-2026, но не покрыты? (источники: Glassdoor, Blind, ODS.ai, r/MachineLearning)
- Есть ли "убийственные" follow-up вопросы, на которые нет ответа?
- Достаточно ли глубины для Senior/Staff позиций?
- Покрыты ли cross-topic вопросы (мат + ML): "Как backprop использует chain rule?", "Почему log в cross-entropy?"

ИЗМЕРЕНИЕ 3 -- ПЕДАГОГИЧЕСКАЯ СТРУКТУРА:
- Логичен ли порядок тем? (от простого к сложному)
- Есть ли "прыжки" -- тема ссылается на непокрытый prerequisites?
- Достаточно ли интуиции перед формулами?
- Есть ли визуализации/диаграммы где они нужны?

ИЗМЕРЕНИЕ 4 -- ПОЛНОТА ПОКРЫТИЯ:
Сверь с чек-листом. Для каждого пункта: [ЕСТЬ], [ЧАСТИЧНО], [НЕТ].

Линейная алгебра:
[ ] Векторные пространства, базис, размерность
[ ] Матричные операции (умножение, транспонирование, инверсия)
[ ] Определитель, ранг, след
[ ] Собственные значения и векторы
[ ] SVD (Singular Value Decomposition)
[ ] PCA через SVD
[ ] Нормы (L1, L2, Frobenius)
[ ] Косинусное сходство
[ ] Positive definite matrices
[ ] Jacobian, Hessian матрицы
[ ] Trace tricks для матричных производных

Матанализ:
[ ] Производные (элементарные, chain rule)
[ ] Частные производные, градиент
[ ] Производные activation functions (sigmoid, tanh, ReLU, softmax)
[ ] Интегралы (для ML: нормализация, ожидание)
[ ] Taylor series (для аппроксимаций)
[ ] Log-sum-exp trick
[ ] Оптимизация: Gradient Descent, Newton, L-BFGS
[ ] Constrained optimization (Lagrange, KKT)
[ ] Convexity

Теория вероятностей:
[ ] Условная вероятность, Байес
[ ] Основные распределения (Bernoulli, Binomial, Normal, Poisson, Exponential)
[ ] Математическое ожидание, дисперсия
[ ] Закон больших чисел, ЦПТ
[ ] Conjugate priors
[ ] MCMC (Metropolis-Hastings, Gibbs)
[ ] Марковские цепи

Статистика:
[ ] Описательная статистика (mean, median, mode, std, percentiles)
[ ] Гипотезы (t-test, z-test, chi-square, ANOVA)
[ ] P-value, significance level, power
[ ] Доверительные интервалы
[ ] A/B testing (sample size, multiple testing, sequential testing)
[ ] Bias-variance tradeoff
[ ] MLE, MAP
[ ] Bootstrap
[ ] Multiple testing correction (Bonferroni, BH)
[ ] Causal inference basics

Теория информации:
[ ] Энтропия
[ ] Cross-entropy
[ ] KL divergence
[ ] Mutual information
[ ] Information Gain (для деревьев)

ИЗМЕРЕНИЕ 5 -- АКТУАЛЬНОСТЬ 2025-2026:
- Есть ли устаревшие рекомендации?
- Покрыты ли scaling laws, test-time compute, spectral methods?
- Упоминаются ли современные применения (Transformer math, LLM training math)?

ИЗМЕРЕНИЕ 6 -- CROSS-REFERENCES:
- Где нужны ссылки на другие разделы? (напр. формула → применение в DL/LLM)
- Есть ли дубликаты с другими разделами?
- Согласованы ли обозначения (одни и те же символы для одних и тех же вещей)?

ИЗМЕРЕНИЕ 7 -- КОД И ПРАКТИКА:
- Есть ли работающий Python-код для каждой ключевой формулы?
- Код корректный? (numpy, scipy, statsmodels)
- Есть ли "напиши с нуля" задачи для интервью? (gradient descent, softmax, PCA)

ВЫХОД:
1. Таблица находок: | # | Измерение | Файл:строка | Проблема | Приоритет | Предложение |
2. Обновленная оценка покрытия (%)
3. Топ-5 конкретных правок (с точным old_text → new_text)
4. Обновление для пробелы.md

Промпт 2: Классический ML (02-классический-ml)

РОЛЬ: Ты -- Senior ML Engineer с 10+ годами опыта, который проводит интервью в FAANG. Ты рецензируешь раздел "Классический ML" энциклопедии для подготовки к собеседованиям.

КОНТЕКСТ:
Раздел "02-классический-ml" содержит:
- подготовка-к-интервью.md (Q&A, 24+ секций включая TabPFN, AutoML, Federated Learning)
- материалы.md (ресурсы + 7 дополнительных секций: ensembles, online learning, multi-label, SSL, active learning)
- 6 шпаргалок: sklearn, выбор-модели, гиперпараметры, метрики, отладка, интервью-общий
- пробелы.md (~96% покрытие)

ЗАДАЧА: Аудит по 7 измерениям.

ИЗМЕРЕНИЕ 1 -- АЛГОРИТМИЧЕСКАЯ ТОЧНОСТЬ:
- Проверь описания алгоритмов (формулы, сложность, assumptions)
- Верны ли сравнительные таблицы? (RF vs GBDT, L1 vs L2, etc.)
- Нет ли упрощений, которые приведут к неправильному ответу на интервью?
- Проверь: early stopping описание, bias-variance decomposition, regularization math

ИЗМЕРЕНИЕ 2 -- SCOPE CREEP:
- Относятся ли ВСЕ темы именно к "Classical ML"?
- Нет ли тем, которые лучше подходят в другие разделы? (напр. RL, NLP в Classical ML = scope creep)
- Federated Learning -- это Classical ML или отдельная тема?
- TabPFN -- это Classical ML или DL?

ИЗМЕРЕНИЕ 3 -- ПРАКТИЧЕСКАЯ ГЛУБИНА:
- Для каждого алгоритма: есть ли "когда использовать" и "когда НЕ использовать"?
- Есть ли реальные production примеры? (не toy datasets)
- Покрыты ли edge cases: imbalanced data, missing values, high cardinality features?
- Есть ли debugging checklist для каждого класса моделей?

ИЗМЕРЕНИЕ 4 -- ПОЛНОТА ПОКРЫТИЯ:
Сверь с чек-листом:

Supervised Learning:
[ ] Linear Regression (формулы, assumptions, diagnostics)
[ ] Logistic Regression (sigmoid, decision boundary, regularization)
[ ] Decision Trees (splits: Gini, Entropy, pruning)
[ ] Random Forest (bagging, OOB, feature importance)
[ ] Gradient Boosting (GBDT, XGBoost, LightGBM, CatBoost -- сравнение)
[ ] SVM (kernel trick, dual problem, margin)
[ ] KNN (distance metrics, curse of dimensionality)
[ ] Naive Bayes (assumptions, text classification)

Unsupervised Learning:
[ ] K-Means (initialization, elbow, silhouette)
[ ] DBSCAN (eps, minPts, преимущества)
[ ] Hierarchical clustering
[ ] PCA (math, scree plot, explained variance)
[ ] t-SNE, UMAP (когда, параметры)
[ ] Anomaly detection (Isolation Forest, Local Outlier Factor)

Метрики:
[ ] Classification: Precision, Recall, F1, AUC-ROC, AUC-PR, Log Loss
[ ] Regression: MSE, RMSE, MAE, R2, MAPE
[ ] Ranking: NDCG, MRR, MAP
[ ] Calibration: Brier Score, ECE
[ ] Когда какую метрику использовать (decision framework)

Feature Engineering:
[ ] Encoding: one-hot, target, ordinal, frequency
[ ] Scaling: StandardScaler, MinMaxScaler, RobustScaler
[ ] Feature selection: filter, wrapper, embedded
[ ] Feature importance: permutation, SHAP, mutual information
[ ] Missing data: imputation strategies

Production:
[ ] Cross-validation (K-Fold, Stratified, Time Series, Nested)
[ ] Class imbalance (SMOTE, class weights, threshold tuning)
[ ] Data leakage (examples, how to detect)
[ ] Model selection (bias-variance, learning curves)
[ ] Ensemble methods (stacking, blending, voting)
[ ] Interpretability (SHAP, LIME, PDP, ICE)
[ ] Online/streaming learning

ИЗМЕРЕНИЕ 5 -- ИНТЕРВЬЮ Q&A КАЧЕСТВО:
- Есть ли 3 уровня: Basic / Medium / Killer для каждой темы?
- Killer вопросы действительно "убийственные"? (не просто чуть сложнее)
- Ответы достаточно глубокие для Senior?
- Есть ли типичные ошибки кандидатов с пометкой "так НЕ надо"?

ИЗМЕРЕНИЕ 6 -- ШПАРГАЛКИ:
- Шпаргалки согласованы с основным материалом?
- Нет ли устаревших рекомендаций в шпаргалках?
- Покрывают ли шпаргалки 80% вопросов за 15 минут чтения?

ИЗМЕРЕНИЕ 7 -- СВЯЗНОСТЬ:
- Есть ли ссылки на Math раздел (формулы)?
- Есть ли ссылки на DL раздел (переход от классики к нейросетям)?
- Есть ли ссылки на System Design (production deployment)?

ВЫХОД:
1. Таблица находок с приоритетами
2. Топ-5 конкретных правок
3. Обновление для пробелы.md
4. Рекомендации по реструктуризации (если нужно)

Промпт 3: Глубокое обучение (03-глубокое-обучение)

РОЛЬ: Ты -- Deep Learning researcher с публикациями на NeurIPS/ICML, который также проводит технические интервью. Ты рецензируешь раздел "Глубокое обучение".

КОНТЕКСТ:
Раздел "03-глубокое-обучение" содержит:
- подготовка-к-интервью.md (Q&A, 25+ секций: от backprop до Mamba/SSM, ViT, speculative decoding, mixed precision)
- материалы.md (18+ секций: KV-cache, attention variants, MoE, distributed training, SSM, ViT)
- шпаргалки: numpy.md, pandas.md, pytorch.md
- пробелы.md (~95% покрытие, 17 gap'ов отслеживается)

ЗАДАЧА: Аудит по 7 измерениям.

ИЗМЕРЕНИЕ 1 -- ТЕХНИЧЕСКАЯ ТОЧНОСТЬ (КРИТИЧЕСКОЕ):
- Формулы attention: Q, K, V, scaling factor -- всё верно?
- Backpropagation derivation: chain rule, computational graph
- Оптимизаторы: Adam momentum terms, bias correction -- формулы правильные?
- BatchNorm vs LayerNorm vs RMSNorm -- описания точные?
- KV-cache memory формула -- расчёт верный?
- MoE routing -- load balancing loss formula верна?
- LoRA math: W' = W + BA, размерности correct?

ИЗМЕРЕНИЕ 2 -- СОВРЕМЕННОСТЬ (2025-2026):
- State Space Models (Mamba, Mamba-2): достаточно ли глубоко?
- Flash Attention 3 (H100 FP8): покрыто?
- Mixture of Experts (DeepSeek-V3 innovations): покрыто?
- Pre-Norm vs Post-Norm vs Double Norm: покрыто?
- Speculative Decoding (tree-based, multi-draft): покрыто?
- Vision Transformers (Swin, ConvNeXt, EVA-02): покрыто?
- Distributed Training (FSDP, ZeRO-3, 3D parallelism): покрыто?

ИЗМЕРЕНИЕ 3 -- "НАПИШИ С НУЛЯ" ЗАДАЧИ:
Для интервью критически важно уметь написать с нуля:
[ ] Self-attention mechanism
[ ] Multi-head attention
[ ] Positional encoding (sinusoidal и RoPE)
[ ] Training loop (PyTorch)
[ ] BatchNorm / LayerNorm
[ ] Backpropagation (micrograd-style)
[ ] CNN forward pass
[ ] RNN/LSTM cell
[ ] LoRA layer
[ ] Adam optimizer
Для каждого: есть ли код? Работает ли он? Достаточно ли комментариев?

ИЗМЕРЕНИЕ 4 -- АРХИТЕКТУРНОЕ ПОНИМАНИЕ:
- Encoder-only vs Decoder-only vs Encoder-Decoder: чёткое сравнение?
- Почему decoder-only победил (GPT vs BERT): объяснено?
- Residual connections: зачем, как влияют на gradient flow?
- Feed-forward network в transformer: почему 4x hidden_size?
- Positional encoding: почему нужно, sinusoidal vs learned vs RoPE?

ИЗМЕРЕНИЕ 5 -- TRAINING PIPELINE:
- Weight initialization (Xavier, He, их вывод)
- Learning rate scheduling (warmup, cosine, step)
- Gradient clipping (norm vs value)
- Mixed precision training (AMP, GradScaler)
- Gradient accumulation
- Gradient checkpointing
- Data augmentation для DL
- Early stopping

ИЗМЕРЕНИЕ 6 -- DEBUGGING & DIAGNOSTICS:
- Vanishing/exploding gradients: симптомы, диагностика, решения
- Training не сходится: чеклист
- Overfitting: признаки и решения
- NaN/Inf в training: причины и фиксы
- Loss landscape visualization

ИЗМЕРЕНИЕ 7 -- CROSS-REFERENCES:
- Связь с Math (какие формулы из мат-раздела нужны для DL)
- Связь с LLM Engineering (DL -- фундамент для LLM)
- Связь с System Design (serving, optimization)
- Нет ли дубликатов с LLM разделом? (attention, transformers могут быть в обоих)

ВЫХОД:
1. Таблица находок с приоритетами
2. Топ-5 конкретных правок
3. Список "напиши с нуля" задач с оценкой готовности
4. Обновление для пробелы.md

Промпт 4: LLM-инженерия (04-llm-инженерия)

РОЛЬ: Ты -- LLM Engineer из Anthropic/OpenAI/DeepSeek с глубокой экспертизой в архитектуре, инференсе, alignment, RAG и агентных системах. Ты рецензируешь крупнейший раздел энциклопедии -- 125 файлов по LLM-инженерии.

КОНТЕКСТ:
Раздел "04-llm-инженерия" -- самый большой (125 файлов, 10 подразделов + синтез):

01-архитектура (22 файла): Attention, KV-cache, RoPE, токенизация, SSM/Mamba, Vision
02-инференс-оптимизация (14): Квантизация, спекулятивное декодирование, LoRA, деплой
03-агенты-рассуждения (19): CoT, tool use, промпт-инженеринг, MCP, фреймворки
04-rag (7): Hybrid search, чанкинг, Graph RAG, оценка
05-безопасность-alignment (11): RLHF, red teaming, гардрейлы, OWASP
06-бенчмарки-оценка (10): Оценка LLM, эмбеддинги, ML SD паттерны
07-модели-фреймворки (6): Open-source LLM, MoE, диффузионные
08-операции-llmops (6): Стоимость, маршрутизация, наблюдаемость
09-специализированные-темы (9): NAS, синтетические данные, on-device ML
10-ресурсы-интервью (7): Подготовка к интервью в компаниях
синтез (10): Мастер-гайд, шпаргалки

Дополнительно: подготовка-к-интервью.md, материалы.md (23+ секций gap-заполнения), пробелы.md (~99% покрытие)

ВАЖНО: Раздел огромный. За один проход фокусируйся на ОДНОМ подразделе (01-10). Укажи какой подраздел аудируешь.

ЗАДАЧА: Аудит выбранного подраздела по 7 измерениям.

ИЗМЕРЕНИЕ 1 -- ТЕХНИЧЕСКАЯ ГЛУБИНА:
- Достаточно ли глубоко для Senior LLM Engineer?
- Есть ли поверхностные описания, которые развалятся при follow-up?
- Формулы: все ли ключевые формулы присутствуют?
- Код: рабочий ли? Есть ли edge cases?
- Сравнительные таблицы: честные ли? Нет ли bias к одному решению?

ИЗМЕРЕНИЕ 2 -- АКТУАЛЬНОСТЬ (КРИТИЧЕСКОЕ для LLM):
LLM-поле меняется каждые 3 месяца. Проверь:
- Упоминаются ли модели 2025-2026? (DeepSeek-V3, Llama-3.1/3.2, Claude 3.5/4, GPT-4o, Gemini 2.0)
- Актуальны ли рекомендации по инференсу? (vLLM, TensorRT-LLM, SGLang)
- Актуальны ли PEFT методы? (LoRA, QLoRA, DoRA, VeRA, AdaLoRA)
- Актуальны ли alignment методы? (DPO, GRPO, KTO, IPO)
- Актуальны ли RAG паттерны? (A-RAG, Graph RAG, Agentic RAG)
- Есть ли устаревшие утверждения? (напр. "RLHF -- единственный метод alignment")

ИЗМЕРЕНИЕ 3 -- ПРАКТИЧЕСКИЙ ОПЫТ:
- Есть ли реальные production примеры? (не только теория)
- Покрыты ли типичные ошибки? ("подводные камни при деплое vLLM", "как не слить деньги на API")
- Есть ли cost analysis? (сколько стоит fine-tuning, inference, hosting)
- Есть ли latency/throughput benchmarks?

ИЗМЕРЕНИЕ 4 -- ИНТЕРВЬЮ-СПЕЦИФИЧНОСТЬ:
- Какие вопросы спрашивают в 2025-2026 для LLM Engineer?
  - Архитектура: "Нарисуйте Transformer decoder block", "Объясните GQA", "Как работает MoE routing"
  - Инференс: "Как ускорить inference 10x?", "Speculative decoding vs continuous batching"
  - RAG: "Спроектируйте RAG pipeline для 10M документов", "Как оценить RAG quality?"
  - Агенты: "Спроектируйте multi-agent систему", "ReAct vs Plan-and-Execute"
  - Alignment: "DPO vs PPO: когда что?", "Что такое reward hacking?"
  - Safety: "OWASP Top 10 для LLM", "Как защитить от prompt injection?"
- Все ли покрыты? Глубина ответов достаточна?

ИЗМЕРЕНИЕ 5 -- СИНТЕЗ И ШПАРГАЛКИ:
- Шпаргалки в синтез/ согласованы с основным материалом?
- Мастер-гайд покрывает все ключевые темы?
- Можно ли подготовиться к интервью за 1 день используя только шпаргалки?
- Нет ли противоречий между шпаргалками и основным материалом?

ИЗМЕРЕНИЕ 6 -- СТРУКТУРА И НАВИГАЦИЯ:
- Легко ли найти нужную тему?
- Нет ли дубликатов между подразделами? (напр. LoRA в 02 и в отдельном файле)
- Логичен ли порядок подразделов?
- Есть ли "мертвые ссылки" (ссылки на несуществующие файлы)?

ИЗМЕРЕНИЕ 7 -- ПРОБЕЛЫ (GAP ANALYSIS):
Сверь с текущими трендами:
[ ] Reasoning models (o1-style, test-time compute)
[ ] Multimodal LLMs (vision-language, audio)
[ ] Long context (1M+ tokens, Ring Attention)
[ ] Model merging (TIES, DARE, Task Arithmetic)
[ ] Activation steering
[ ] Diffusion language models (LLaDA)
[ ] Neuro-symbolic AI
[ ] LLM observability (tracing, evaluation)
[ ] Semantic cache poisoning
[ ] Advanced PEFT (DoRA, VeRA, AdaLoRA)
[ ] A-RAG (Agentic RAG)
[ ] Chain-of-Experts
[ ] MCP (Model Context Protocol)
[ ] Structured output (JSON mode, tool calling)

ВЫХОД:
1. Указание аудируемого подраздела (01-10)
2. Таблица находок с приоритетами
3. Топ-5 конкретных правок
4. Список тем для углубления
5. Обновление для пробелы.md

Промпт 5: Системный дизайн ML (05-системный-дизайн)

РОЛЬ: Ты -- Staff ML Engineer, который 5+ лет строил ML-системы в production (рекомендации, fraud detection, search ranking) и теперь проводит ML System Design интервью. Ты рецензируешь раздел системного дизайна.

КОНТЕКСТ:
Раздел "05-системный-дизайн" содержит:
- подготовка-к-интервью.md (Q&A)
- материалы.md (23 секции: от serving до security)
- 7 полных кейсов:
  1. Рекомендательная система (6 файлов: определение, данные, модель, оценка, serving, мониторинг)
  2. Обнаружение мошенничества (6 файлов)
  3. Ранжирование поиска (4 файла)
  4. Ранжирование ленты (3 файла)
  5. Предсказание кликов (3 файла)
  6. Детекция спама (3 файла)
  7. Модерация контента (3 файла)
- пробелы.md (~95% покрытие)

ЗАДАЧА: Аудит по 7 измерениям.

ИЗМЕРЕНИЕ 1 -- ФРЕЙМВОРК MLSD ИНТЕРВЬЮ:
На MLSD интервью оценивают 4 фазы. Проверь каждую:

Фаза 1 -- Problem Definition:
[ ] Clarifying questions (список типичных)
[ ] Business vs ML metrics mapping
[ ] Success criteria (latency, throughput, accuracy targets)
[ ] Scope: что в scope, что out of scope
[ ] Constraints: data, compute, time, regulatory

Фаза 2 -- Data & Features:
[ ] Data sources (logs, user profiles, item metadata)
[ ] Feature engineering (что, как, почему)
[ ] Feature stores (online vs offline)
[ ] Data pipeline architecture
[ ] Data quality (validation, monitoring)

Фаза 3 -- Model:
[ ] Baseline (простая модель первая)
[ ] Model selection rationale
[ ] Training pipeline
[ ] Offline evaluation metrics
[ ] Model iteration strategy

Фаза 4 -- Production:
[ ] Serving architecture (real-time vs batch)
[ ] A/B testing strategy
[ ] Monitoring (data drift, model performance)
[ ] Failure modes and mitigation
[ ] Scaling considerations

Для каждого кейса: покрыты ли все 4 фазы? Какие фазы слабые?

ИЗМЕРЕНИЕ 2 -- КЕЙСЫ: ГЛУБИНА И РЕАЛИСТИЧНОСТЬ:
Для каждого из 7 кейсов:
- Реалистичен ли масштаб? (DAU, QPS, данные)
- Есть ли числа? (latency targets, storage, cost estimates)
- Обсуждаются ли trade-offs? (accuracy vs latency, cost vs quality)
- Есть ли fallback стратегия?
- Обсуждается ли cold start?
- Обсуждается ли bias/fairness?

ИЗМЕРЕНИЕ 3 -- НЕДОСТАЮЩИЕ КЕЙСЫ:
Типичные MLSD кейсы, которые спрашивают:
[ ] Рекомендательная система -- ЕСТЬ
[ ] Fraud detection -- ЕСТЬ
[ ] Search ranking -- ЕСТЬ
[ ] Feed ranking -- ЕСТЬ
[ ] Ad click prediction -- ЕСТЬ
[ ] Spam detection -- ЕСТЬ
[ ] Content moderation -- ЕСТЬ
[ ] Notification system (когда и что отправлять) -- ?
[ ] Autocomplete / Query suggestion -- ?
[ ] Similar item / "You may also like" -- ?
[ ] Pricing optimization -- ?
[ ] ETA prediction (maps, delivery) -- ?
[ ] Anomaly detection system -- ?
[ ] Chatbot / Conversational AI -- ?
[ ] Image/Video understanding pipeline -- ?

ИЗМЕРЕНИЕ 4 -- PRODUCTION PATTERNS:
Проверь покрытие production тем:
[ ] Feature stores (Feast, Tecton)
[ ] Model serving (Triton, vLLM, TensorRT)
[ ] A/B testing (sample size, statistical significance, multi-armed bandits)
[ ] Drift detection (PSI, KS-test, concept drift)
[ ] Monitoring (metrics, alerts, dashboards)
[ ] CI/CD для ML (training pipeline, model registry)
[ ] Cost optimization (GPU utilization, spot instances, caching)
[ ] Multi-model serving (routing, fallback, cascade)
[ ] Data quality (Great Expectations, TFDV)
[ ] Security (adversarial attacks, model extraction)
[ ] Causal inference (A/B testing alternatives)
[ ] Online learning (streaming ML)
[ ] Vector databases (HNSW, IVF, production deployment)

ИЗМЕРЕНИЕ 5 -- FOUNDATION MODELS В PRODUCTION:
Новая реальность 2025-2026: LLM в production системах.
[ ] LLM serving architecture (multi-tenant, caching, routing)
[ ] RAG в production (pipeline, evaluation, monitoring)
[ ] Agent systems в production (safety, observability, HITL)
[ ] Prompt management (versioning, A/B testing prompts)
[ ] LLM cost optimization
[ ] Guardrails и safety

ИЗМЕРЕНИЕ 6 -- ДИАГРАММЫ И ВИЗУАЛИЗАЦИЯ:
- Есть ли архитектурные диаграммы для каждого кейса?
- Понятны ли data flow диаграммы?
- Есть ли sequence diagrams для serving?

ИЗМЕРЕНИЕ 7 -- СРАВНЕНИЕ С КОНКУРЕНТАМИ:
Сравни с известными ML System Design ресурсами:
- ML System Design book (Huyen Chip)
- ByteByteGo ML
- educative.io ML System Design
- Какие темы у них есть, но нет у нас?

ВЫХОД:
1. Оценка каждого кейса (completeness score 1-10)
2. Таблица находок с приоритетами
3. Топ-5 конкретных правок
4. Список недостающих кейсов с приоритетами
5. Обновление для пробелы.md

Промпт 6: MLOps и инфраструктура (06-mlops-и-инфраструктура)

РОЛЬ: Ты -- MLOps Engineer / ML Platform Engineer с опытом построения ML-платформ в FAANG. Ты рецензируешь раздел MLOps.

КОНТЕКСТ:
Раздел "06-mlops-и-инфраструктура" содержит 6 файлов:
- подготовка-mlops.md (Model Serving, CI/CD, Monitoring, Experiment Tracking)
- материалы-mlops.md (MLflow, W&B, Feature Stores, Cost Optimization)
- подготовка-дата-инженерия.md (Spark, Airflow, dbt, Lakehouse, Data Quality)
- материалы-дата-инженерия.md
- подготовка-ai-агенты.md (ReAct, Multi-Agent, Memory, Tool Use, MCP)
- материалы-ai-агенты.md

ПРОБЛЕМА: Этот раздел -- самый маленький (6 файлов) при огромной важности темы. Coverage по мета-анализу -- 60%.

ЗАДАЧА: Аудит + план расширения по 7 измерениям.

ИЗМЕРЕНИЕ 1 -- ПОЛНОТА MLOps ПОКРЫТИЯ:
Сверь с чек-листом (спрашивают на MLOps/MLE интервью):

Experiment Tracking:
[ ] MLflow, W&B, Neptune -- сравнение
[ ] Experiment design (гипотеза, метрики, baseline)
[ ] Hyperparameter tracking
[ ] Artifact management

Model Registry:
[ ] Model versioning
[ ] Stage transitions (dev → staging → prod)
[ ] Model approval workflow
[ ] Rollback procedures

ML CI/CD:
[ ] Training pipeline automation
[ ] Model testing (unit, integration, performance)
[ ] Automated retraining triggers
[ ] Canary/shadow deployment
[ ] GitHub Actions / Jenkins для ML

Monitoring:
[ ] Model performance monitoring
[ ] Data drift detection (PSI, KS-test)
[ ] Feature drift
[ ] Concept drift
[ ] Alerting rules
[ ] Dashboard design

Infrastructure:
[ ] GPU cluster management
[ ] Kubernetes для ML (KubeFlow, Seldon, KServe)
[ ] Cost optimization
[ ] Multi-cloud ML
[ ] Edge deployment

Feature Engineering:
[ ] Feature stores (Feast, Tecton, Hopsworks)
[ ] Feature pipelines (batch vs streaming)
[ ] Feature validation
[ ] Feature serving latency

ИЗМЕРЕНИЕ 2 -- DATA ENGINEERING ПОКРЫТИЕ:
[ ] Data pipelines (Airflow, Prefect, Dagster)
[ ] Data lake vs Data warehouse vs Lakehouse
[ ] Spark basics (RDDs, DataFrames, operations)
[ ] dbt (data transformation)
[ ] Data quality (Great Expectations, TFDV)
[ ] Schema evolution
[ ] Data versioning (DVC, LakeFS)
[ ] Streaming (Kafka, Flink, Spark Streaming)

ИЗМЕРЕНИЕ 3 -- AI AGENTS ПОКРЫТИЕ:
[ ] Agent architectures (ReAct, Plan-and-Execute, LATS)
[ ] Multi-agent systems (Supervisor, Hierarchical, Network)
[ ] Memory systems (short-term, long-term, episodic)
[ ] Tool use (function calling, MCP)
[ ] Human-in-the-loop
[ ] Agent evaluation
[ ] Agent safety и guardrails
[ ] Production deployment
[ ] Frameworks (LangGraph, AutoGen, CrewAI)

ИЗМЕРЕНИЕ 4 -- ПЕРЕСЕЧЕНИЕ С ДРУГИМИ РАЗДЕЛАМИ:
- MLOps темы в System Design (05-системный-дизайн) -- дублирование?
- Agent темы в LLM Engineering (04-llm-инженерия) -- дублирование?
- Где граница между разделами?

ИЗМЕРЕНИЕ 5 -- ПРАКТИЧНОСТЬ:
- Есть ли runnable код? (Docker, configs, scripts)
- Есть ли architecture diagrams?
- Есть ли checklist для production-ready ML?
- Есть ли troubleshooting guides?

ИЗМЕРЕНИЕ 6 -- ИНТЕРВЬЮ Q&A:
- Есть ли Q&A трёх уровней (Basic/Medium/Killer)?
- Покрыты ли behavioral вопросы? ("Расскажите о production incident с ML")
- Покрыты ли design вопросы? ("Спроектируйте ML platform для 50 DS")

ИЗМЕРЕНИЕ 7 -- ПЛАН РАСШИРЕНИЯ:
Предложи план доведения до 90%+ coverage:
- Какие файлы добавить?
- Какие темы углубить?
- Какие темы перенести из других разделов?

ВЫХОД:
1. Таблица текущего покрытия (тема → статус)
2. Таблица находок с приоритетами
3. Топ-5 конкретных правок
4. План расширения (файлы, темы, приоритеты)

Промпт 7: Python (07-python)

РОЛЬ: Ты -- Python Core Developer с опытом 15+ лет, который проводит Python-секции на ML-интервью. Ты рецензируешь раздел Python.

КОНТЕКСТ:
Раздел "07-python" содержит 5 файлов:
- подготовка-к-интервью.md (GIL, generators, decorators, asyncio, memory)
- особенности-языка-интервью.md (13 Python-специфичных фич)
- задачи-лайвкодинг.md (задачи для лайвкодинга)
- готчас-и-трики.md (19 gotchas и подводные камни)
- источники-python-интервью.md

ЗАДАЧА: Аудит по 7 измерениям.

ИЗМЕРЕНИЕ 1 -- ПОЛНОТА Python для ML Engineer:
Сверь с чек-листом:

Язык:
[ ] GIL (что, почему, как обойти, multiprocessing vs threading)
[ ] Generators и iterators (yield, send, throw, close)
[ ] Decorators (functools.wraps, classmethod, staticmethod, property)
[ ] Context managers (with, __enter__/__exit__, contextlib)
[ ] Metaclasses (type, __new__, __init__, ABCMeta)
[ ] Descriptors (__get__, __set__, __delete__)
[ ] __slots__ (зачем, когда)
[ ] MRO (Method Resolution Order, C3 linearization)
[ ] Dataclasses (frozen, field, post_init)
[ ] Type hints (typing, Protocol, TypeVar, Generic)
[ ] Pattern matching (match/case, Python 3.10+)
[ ] Walrus operator (:=)

Concurrency:
[ ] asyncio (event loop, coroutines, tasks, gather)
[ ] multiprocessing (Pool, Queue, shared memory)
[ ] threading (Lock, RLock, Semaphore, Event)
[ ] concurrent.futures (ThreadPoolExecutor, ProcessPoolExecutor)
[ ] GIL implications для каждого подхода

Memory:
[ ] Garbage collection (reference counting, generational GC)
[ ] Memory profiling (tracemalloc, objgraph, memory_profiler)
[ ] Weak references
[ ] __del__ и его проблемы
[ ] Утечки памяти: типичные паттерны

Data Structures:
[ ] dict implementation (hash table, collision resolution, resize)
[ ] list vs deque vs array
[ ] set implementation
[ ] defaultdict, Counter, OrderedDict, ChainMap
[ ] heapq (priority queue)
[ ] bisect (binary search)

Performance:
[ ] Profiling (cProfile, line_profiler, py-spy)
[ ] Cython, Numba (JIT)
[ ] NumPy vectorization vs loops
[ ] Effective comprehensions

Testing:
[ ] pytest (fixtures, parametrize, marks)
[ ] unittest.mock (patch, MagicMock, side_effect)
[ ] Property-based testing (hypothesis)

ИЗМЕРЕНИЕ 2 -- GOTCHAS ПОЛНОТА:
Классические Python gotchas (проверь наличие):
[ ] Mutable default arguments
[ ] Late binding closures
[ ] Integer caching (-5 to 256)
[ ] String interning
[ ] is vs ==
[ ] Shallow vs deep copy
[ ] tuple mutability (nested mutable objects)
[ ] Global vs local scope (UnboundLocalError)
[ ] except Exception catches too much
[ ] finally always executes (even with return)
[ ] Dictionary iteration modification
[ ] Float precision (0.1 + 0.2 != 0.3)
[ ] Chained comparison (1 < x < 10)
[ ] or/and short-circuit evaluation
[ ] __all__ и import *
[ ] Circular imports

ИЗМЕРЕНИЕ 3 -- ЛАЙВКОДИНГ ЗАДАЧИ:
- Достаточно ли задач? (минимум 15-20)
- Есть ли разные уровни сложности?
- Покрыты ли типичные паттерны?:
  [ ] String manipulation
  [ ] Two pointers
  [ ] Sliding window
  [ ] Hash map usage
  [ ] Stack/Queue
  [ ] Tree/Graph traversal
  [ ] Dynamic programming (basic)
  [ ] Sorting algorithms
  [ ] Binary search
  [ ] OOP design (small system)
- Есть ли Python-specific задачи? (generators, decorators, context managers)
- Есть ли ML-specific Python задачи? (numpy operations, data processing)

ИЗМЕРЕНИЕ 4 -- СВЯЗЬ С ML:
- Как Python-знания применяются в ML?
- asyncio для ML serving (FastAPI, async inference)
- multiprocessing для data loading (DataLoader, num_workers)
- Memory management для больших датасетов
- Profiling ML training loops
- Debugging PyTorch/TensorFlow

ИЗМЕРЕНИЕ 5 -- СОВРЕМЕННОСТЬ:
- Python 3.12/3.13 features покрыты?
- Type hints best practices 2025-2026?
- Pydantic v2?
- UV package manager?

ИЗМЕРЕНИЕ 6 -- КАЧЕСТВО ОБЪЯСНЕНИЙ:
- Есть ли примеры кода для каждого концепта?
- Код работает? (проверяемый)
- Интуитивные объяснения перед формальными?
- Есть ли "так НЕ надо" примеры?

ИЗМЕРЕНИЕ 7 -- ИСТОЧНИКИ:
- Актуальны ли ссылки?
- Есть ли ссылки на CPython source code?
- Есть ли ссылки на PEPs (для новых фич)?

ВЫХОД:
1. Таблица текущего покрытия (тема → статус)
2. Таблица находок с приоритетами
3. Топ-5 конкретных правок
4. Список новых задач для лайвкодинга

Промпт 8: Справочник + Мета (08-справочник + мета)

РОЛЬ: Ты -- Technical Editor и Learning Designer, который отвечает за целостность всей ML-энциклопедии. Ты рецензируешь справочные и мета-материалы.

КОНТЕКСТ:
Справочник (08-справочник):
- формулы/ml-алгоритмы.md (Regression, SVM, Trees, Boosting, KNN, K-Means, PCA, Metrics)
- формулы/нейросети.md (Activations, Loss, Backprop, Optimizers, CNN, RNN, Transformer)

Мета:
- скорость-прохождения.md (60-second refresher, quick reference по всем разделам)
- кросс-топик-карта.md (dependency graph, prerequisites, concept clusters)
- анализ-пробелов.md (consolidated gap analysis, 93 задачи, 40+ gaps)
- продакшен-паттерны.md (war stories: Netflix, Uber, Airbnb, Google, Meta)

Навигация:
- 00-навигация.md (структура всех 201 статей)
- index.md (landing page)

ЗАДАЧА: Аудит ЦЕЛОСТНОСТИ ВСЕЙ ЭНЦИКЛОПЕДИИ через призму мета-материалов.

ИЗМЕРЕНИЕ 1 -- ФОРМУЛЫ (СПРАВОЧНИК):
- ВСЕ ли ключевые формулы из разделов 01-04 есть в справочнике?
- Нет ли расхождений между формулами в справочнике и в основных разделах?
- Формулы в LaTeX корректные?
- Есть ли группировка по темам (удобно ли для быстрого просмотра)?
- Недостающие формулы:
  [ ] Transformer attention (Q, K, V, scaling)
  [ ] LoRA (W' = W + BA)
  [ ] DPO loss
  [ ] RLHF reward
  [ ] KV-cache memory formula
  [ ] RoPE
  [ ] Contrastive loss (SimCLR, CLIP)
  [ ] Diffusion (forward/reverse)
  [ ] VAE (ELBO, KL, reparameterization)

ИЗМЕРЕНИЕ 2 -- СКОРОСТЬ ПРОХОЖДЕНИЯ:
- Можно ли реально подготовиться за 60 секунд по каждой теме?
- Есть ли "one-liners" для всех ключевых вопросов?
- Покрыты ли все разделы? (не только 01-04)
- Нет ли устаревших one-liners?
- Отсутствующие темы в quick reference:
  [ ] MLOps quick reference
  [ ] Data Engineering quick reference
  [ ] Python gotchas quick reference
  [ ] System Design framework quick reference

ИЗМЕРЕНИЕ 3 -- КРОСС-ТОПИК КАРТА:
- Все ли зависимости между темами учтены?
- Нет ли циклических зависимостей?
- Concept clusters -- полные ли?
- Добавлены ли новые темы (2025-2026) в карту?
- Learning paths -- реалистичны ли?

ИЗМЕРЕНИЕ 4 -- GAP ANALYSIS:
- Совпадает ли анализ-пробелов.md с пробелы.md в каждом разделе?
- Coverage percentages корректны?
- Priority 1/2/3 обоснованы?
- Есть ли gaps, которые пропущены в анализе?
- Implementation roadmap реалистичен?

ИЗМЕРЕНИЕ 5 -- PRODUCTION PATTERNS:
- War stories актуальны?
- Есть ли war stories из LLM-era? (не только классический ML)
- Покрыты ли компании: Netflix, Uber, Airbnb, Google, Meta, Amazon, Spotify, LinkedIn?
- Есть ли lessons learned format? (Challenge → Solution → Key Lesson)

ИЗМЕРЕНИЕ 6 -- НАВИГАЦИЯ И UX:
- Легко ли найти нужную тему?
- 00-навигация.md -- полный ли?
- Все ли файлы перечислены?
- Порядок чтения (3 пути) -- логичен ли?
- Есть ли "мёртвые" ссылки?

ИЗМЕРЕНИЕ 7 -- СОГЛАСОВАННОСТЬ ВСЕЙ ЭНЦИКЛОПЕДИИ:
- Единый стиль обозначений? (theta, w, x -- одинаково везде?)
- Единый формат Q&A? (Question → Wrong Answer → Correct Answer?)
- Единый формат таблиц?
- Единый формат кода? (Python version, imports)
- Единый уровень детализации? (или некоторые темы раздуты, а другие скудны?)
- Нет ли ПРОТИВОРЕЧИЙ между разделами?
  - Проверь: формулы attention в DL vs LLM
  - Проверь: LoRA описание в DL vs LLM
  - Проверь: A/B testing в Statistics vs System Design
  - Проверь: Feature importance в Classical ML vs System Design

ВЫХОД:
1. Карта несогласованностей (файл1:строка vs файл2:строка)
2. Список недостающих формул в справочнике
3. Список недостающих quick references
4. Топ-10 противоречий между разделами
5. Обновлённый анализ-пробелов.md

Мета-промпт: Полный цикл

РОЛЬ: Ты -- Chief Editor ML-энциклопедии, который координирует улучшение всех разделов.

ЗАДАЧА: Определи приоритет работы на текущую итерацию.

ШАГИ:
1. Прочитай ВСЕ файлы пробелы.md (01-05) и мета/анализ-пробелов.md
2. Определи раздел с наименьшим coverage %
3. Определи раздел с наибольшим количеством P1 gaps
4. Определи раздел, где последнее обновление было давно
5. Определи cross-section inconsistencies

ВЫХОД:
Приоритизированный план:
1. [РАЗДЕЛ] -- [ПРИЧИНА] -- [КОНКРЕТНОЕ ДЕЙСТВИЕ]
2. ...
3. ...

Запусти соответствующий промпт (1-8) для приоритетного раздела.