Теги¶
~1 минута чтения
Все статьи энциклопедии организованы по тегам для удобной навигации.
Alignment¶
- Alignment + PEFT
- OWASP LLM
- Безопасность AI (Alignment)
- Безопасность LLM
- Водяные знаки LLM
- Гардрейлы LLM
- Конституционный AI
- Методы Alignment
- Отчет безопасности AI
- Прогресс RLHF
- Ред-тиминг и Jailbreaks
LLM¶
- Alignment + PEFT
- Attention Sinks и Streaming LLM
- BPE токенизатор (реализация)
- Experiment Tracking
- Feature Stores
- Flash Attention 3
- Function Calling и Tool Use
- GNN прогресс
- KV-кэш оптимизация
- LLM агенты
- LLMOps vs MLOps
- LoRA варианты
- MCP vs Function Calling
- ML System Design (интервью)
- ML на устройствах
- MQA/GQA внимание
- Mamba и SSM
- Model Merging и Task Arithmetic
- OWASP LLM
- Open-Source LLM модели
- RoPE и длинный контекст
- Self-Supervised Vision
- Semantic и Prompt Caching
- Step-Decomposed Influence
- Test-Time Compute
- Titans (нейронная память)
- Uncertainty Estimation
- Vision трансформеры
- Vision-Language модели
- vLLM и Paged Attention
- xLSTM
- Анализ противоречий
- Архитектура памяти
- Аудит основ ML
- Безопасность AI (Alignment)
- Безопасность LLM
- Бенчмарк сервинга моделей
- Бенчмарки Function Calling
- Бенчмарки кода
- Бенчмарки оценки LLM
- Водяные знаки LLM
- Воркфлоу AI агентов
- Гайд по бенчмаркам
- Гардрейлы LLM
- Гардрейлы оценки
- Дистилляция знаний
- Диффузионные модели
- Длинный контекст
- Инсайты индустрии
- Инструменты и фреймворки
- Инструменты оценки RAG
- Интервью DeepMind
- Интервью Meta ML
- Интервью OpenAI/Anthropic
- Интервью в компаниях
- Каскадная маршрутизация
- Квантизация LLM
- Кодинг-агенты
- Кодинг-ассистенты
- Конституционный AI
- Кросс-референс карта
- Мастер-гайд подготовки
- Масштабирование рассуждений
- Материалы
- Методы Alignment
- Метрики оценки LLM
- Метрики оценки RAG
- Механистическая интерпретируемость (SAE)
- Модели рассуждений
- Мониторинг дрифта данных
- Мульти-агентная оркестрация
- Мультимодальные модели
- Наблюдаемость LLM
- Наблюдаемость агентов
- Надежность Tool-Use
- Непрерывное обучение
- Нормализация (глубокий разбор)
- Облачный деплой LLM
- Обновления
- Оптимизация инференса
- Оптимизация расходов
- Отчет безопасности AI
- Поведенческие вопросы
- Подготовка к интервью
- Подготовка кодинг ML
- Позиционное кодирование
- Поиск нейросетевой архитектуры
- Последние статьи
- Пробелы
- Прогресс RLHF
- Прогресс глубокого обучения
- Продакшен деплой LLM
- Продвинутые техники RAG
- Проектирование RAG систем
- Промпт-инженеринг
- Протокол памяти MCP
- Прунинг LLM
- Распределенное обучение (FSDP/DeepSpeed)
- Рассуждения CoT
- Реализация внимания с нуля
- Ред-тиминг и Jailbreaks
- Синтетические данные
- Системы памяти агентов
- Слепые пятна и предвзятости
- Спекулятивное декодирование
- Список статей для чтения
- Сравнение MoE моделей
- Сравнение векторных БД
- Сравнение движков инференса
- Сравнение нормализаций
- Сравнение позиционных кодирований
- Сравнение токенизаций
- Сравнение эмбеддингов
- Стратегии чанкинга
- Структурированный вывод
- Техники RAG
- Техники рассуждений
- Техники файнтюнинга
- Токенизация LLM
- Фреймворки AI агентов
- Фреймворки оценки
- Функции активации LLM
- Ценообразование API
- Шпаргалка Alignment/RLHF
- Шпаргалка ML System Design
- Шпаргалка RAG
- Шпаргалка глубокое обучение
- Шпаргалка инференс
- Шпаргалка обучение ML
- Шпаргалка позиционное/внимание
- Эффективные трансформеры
LLMOps¶
- LLMOps vs MLOps
- Инсайты индустрии
- Каскадная маршрутизация
- Наблюдаемость LLM
- Оптимизация расходов
- Ценообразование API
MLOps¶
- Материалы AI агенты
- Материалы Data Engineering
- Материалы MLOps
- Подготовка AI агенты
- Подготовка Data Engineering
- Подготовка MLOps
- Пробелы в покрытии
Open-Source¶
- Open-Source LLM модели
- Диффузионные модели
- Интервью DeepMind
- Интервью OpenAI/Anthropic
- Мультимодальные модели
- Сравнение MoE моделей
Python¶
RAG¶
- Инструменты оценки RAG
- Метрики оценки RAG
- Продвинутые техники RAG
- Проектирование RAG систем
- Сравнение векторных БД
- Стратегии чанкинга
- Техники RAG
System Design¶
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Материалы
- Метрики
- Метрики
- Метрики
- Метрики
- Метрики
- Метрики
- Обновления
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Подготовка к интервью
- Пробелы
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Требования к данным
- Требования к данным
- Требования к данным
Агенты¶
- Function Calling и Tool Use
- LLM агенты
- MCP vs Function Calling
- Воркфлоу AI агентов
- Инструменты и фреймворки
- Кодинг-агенты
- Кодинг-ассистенты
- Масштабирование рассуждений
- Модели рассуждений
- Мульти-агентная оркестрация
- Наблюдаемость агентов
- Надежность Tool-Use
- Промпт-инженеринг
- Протокол памяти MCP
- Рассуждения CoT
- Системы памяти агентов
- Структурированный вывод
- Техники рассуждений
- Фреймворки AI агентов
Архитектура¶
- Attention Sinks и Streaming LLM
- BPE токенизатор (реализация)
- Flash Attention 3
- GNN прогресс
- KV-кэш оптимизация
- MQA/GQA внимание
- Mamba и SSM
- RoPE и длинный контекст
- Titans (нейронная память)
- Vision трансформеры
- Vision-Language модели
- xLSTM
- Архитектура памяти
- Длинный контекст
- Механистическая интерпретируемость (SAE)
- Нормализация (глубокий разбор)
- Позиционное кодирование
- Прогресс глубокого обучения
- Реализация внимания с нуля
- Сравнение нормализаций
- Сравнение позиционных кодирований
- Сравнение токенизаций
- Токенизация LLM
- Функции активации LLM
- Эффективные трансформеры
Безопасность¶
- Alignment + PEFT
- OWASP LLM
- Безопасность AI (Alignment)
- Безопасность LLM
- Водяные знаки LLM
- Гардрейлы LLM
- Конституционный AI
- Методы Alignment
- Отчет безопасности AI
- Прогресс RLHF
- Ред-тиминг и Jailbreaks
Бенчмарки¶
- ML System Design (интервью)
- Бенчмарки Function Calling
- Бенчмарки кода
- Бенчмарки оценки LLM
- Гайд по бенчмаркам
- Гардрейлы оценки
- Метрики оценки LLM
- Последние статьи
- Сравнение эмбеддингов
- Фреймворки оценки
Векторные БД¶
- Инструменты оценки RAG
- Метрики оценки RAG
- Продвинутые техники RAG
- Проектирование RAG систем
- Сравнение векторных БД
- Стратегии чанкинга
- Техники RAG
Глубокое обучение¶
- GNN & RL
- NumPy
- Pandas
- PyTorch
- Vision & Detection
- Архитектуры
- Генеративные модели
- Компрессия & Transfer
- Материалы
- Обновления
- Обучение & Оптимизация
- Основы DL
- Подготовка к интервью
- Пробелы
- Специальные темы
Интервью¶
- Аудит основ ML
- Интервью Meta ML
- Интервью в компаниях
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Метрики
- Метрики
- Метрики
- Метрики
- Метрики
- Метрики
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Поведенческие вопросы
- Подготовка кодинг ML
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Слепые пятна и предвзятости
- Список статей для чтения
- Требования к данным
- Требования к данным
- Требования к данным
Инференс¶
- LoRA варианты
- Model Merging и Task Arithmetic
- Semantic и Prompt Caching
- Test-Time Compute
- Uncertainty Estimation
- vLLM и Paged Attention
- Бенчмарк сервинга моделей
- Дистилляция знаний
- Квантизация LLM
- Облачный деплой LLM
- Оптимизация инференса
- Продакшен деплой LLM
- Прунинг LLM
- Распределенное обучение (FSDP/DeepSpeed)
- Спекулятивное декодирование
- Сравнение движков инференса
- Техники файнтюнинга
Инфраструктура¶
- Материалы AI агенты
- Материалы Data Engineering
- Материалы MLOps
- Подготовка AI агенты
- Подготовка Data Engineering
- Подготовка MLOps
- Пробелы в покрытии
Кейсы¶
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Метрики
- Метрики
- Метрики
- Метрики
- Метрики
- Метрики
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Требования к данным
- Требования к данным
- Требования к данным
Классический ML¶
- Scikit-learn
- Выбор модели
- Гиперпараметры
- Интервью (общий)
- Материалы
- Метрики
- Обновления
- Отладка
- Подготовка к интервью
- Пробелы
Математика¶
- Линейная алгебра
- Математический анализ
- Материалы
- Обновления
- Подготовка к интервью
- Пробелы
- Статистика
- Теория вероятностей
- Функции потерь
Мета¶
- ML Hub: Промпты для итеративного улучшения
- Анализ пробелов
- Аудит: 04-LLM-инженерия
- Аудит: Секции 01-03, 05-08
- Кросс-топик карта
- Продакшен паттерны
- Скорость прохождения
Модели¶
- Open-Source LLM модели
- Диффузионные модели
- Интервью DeepMind
- Интервью OpenAI/Anthropic
- Мультимодальные модели
- Сравнение MoE моделей
Навигация¶
- ML Hub: Промпты для итеративного улучшения
- Анализ пробелов
- Аудит: 04-LLM-инженерия
- Аудит: Секции 01-03, 05-08
- Кросс-топик карта
- Продакшен паттерны
- Скорость прохождения
Оптимизация¶
- LoRA варианты
- Model Merging и Task Arithmetic
- Semantic и Prompt Caching
- Test-Time Compute
- Uncertainty Estimation
- vLLM и Paged Attention
- Бенчмарк сервинга моделей
- Дистилляция знаний
- Квантизация LLM
- Облачный деплой LLM
- Оптимизация инференса
- Продакшен деплой LLM
- Прунинг LLM
- Распределенное обучение (FSDP/DeepSpeed)
- Спекулятивное декодирование
- Сравнение движков инференса
- Техники файнтюнинга
Оценка¶
- ML System Design (интервью)
- Бенчмарки Function Calling
- Бенчмарки кода
- Бенчмарки оценки LLM
- Гайд по бенчмаркам
- Гардрейлы оценки
- Метрики оценки LLM
- Последние статьи
- Сравнение эмбеддингов
- Фреймворки оценки
Подготовка¶
- Аудит основ ML
- Интервью Meta ML
- Интервью в компаниях
- Поведенческие вопросы
- Подготовка кодинг ML
- Слепые пятна и предвзятости
- Список статей для чтения
Продакшен¶
- LLMOps vs MLOps
- Инсайты индустрии
- Каскадная маршрутизация
- Наблюдаемость LLM
- Оптимизация расходов
- Ценообразование API
Рассуждения¶
- Function Calling и Tool Use
- LLM агенты
- MCP vs Function Calling
- Воркфлоу AI агентов
- Инструменты и фреймворки
- Кодинг-агенты
- Кодинг-ассистенты
- Масштабирование рассуждений
- Модели рассуждений
- Мульти-агентная оркестрация
- Наблюдаемость агентов
- Надежность Tool-Use
- Промпт-инженеринг
- Протокол памяти MCP
- Рассуждения CoT
- Системы памяти агентов
- Структурированный вывод
- Техники рассуждений
- Фреймворки AI агентов
Синтез¶
- Анализ противоречий
- Кросс-референс карта
- Мастер-гайд подготовки
- Шпаргалка Alignment/RLHF
- Шпаргалка ML System Design
- Шпаргалка RAG
- Шпаргалка глубокое обучение
- Шпаргалка инференс
- Шпаргалка обучение ML
- Шпаргалка позиционное/внимание
Системный дизайн¶
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Компоненты
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Масштабирование
- Метрики
- Метрики
- Метрики
- Метрики
- Метрики
- Метрики
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Определение задачи
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Прохождение интервью
- Требования к данным
- Требования к данным
- Требования к данным
Специализированные темы¶
- Experiment Tracking
- Feature Stores
- ML на устройствах
- Self-Supervised Vision
- Step-Decomposed Influence
- Мониторинг дрифта данных
- Непрерывное обучение
- Поиск нейросетевой архитектуры
- Синтетические данные
Справочник¶
Трансформеры¶
- Attention Sinks и Streaming LLM
- BPE токенизатор (реализация)
- Flash Attention 3
- GNN прогресс
- KV-кэш оптимизация
- MQA/GQA внимание
- Mamba и SSM
- RoPE и длинный контекст
- Titans (нейронная память)
- Vision трансформеры
- Vision-Language модели
- xLSTM
- Архитектура памяти
- Длинный контекст
- Механистическая интерпретируемость (SAE)
- Нормализация (глубокий разбор)
- Позиционное кодирование
- Прогресс глубокого обучения
- Реализация внимания с нуля
- Сравнение нормализаций
- Сравнение позиционных кодирований
- Сравнение токенизаций
- Токенизация LLM
- Функции активации LLM
- Эффективные трансформеры