Словарь терминов машинного обучения
Материал из MachineLearning.
(опечатка) |
(5 копеек) |
||
Строка 13: | Строка 13: | ||
'''Handcrafted features''' — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков | '''Handcrafted features''' — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков | ||
- | '''Feature learning''' — | + | '''Feature learning''' — обучение признаков |
- | ''' | + | '''Training''' и '''learning''' — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка" |
'''Explaining Away''' — эффект оправдания, эффект редукции причины | '''Explaining Away''' — эффект оправдания, эффект редукции причины | ||
- | '''Word embedding''' — ( | + | '''Word embedding''' — (векторное) представление слова, погружение слова в линейное векторное пространство |
Строка 28: | Строка 28: | ||
'''Stacked Auto-Encoders''' — вложенные автокодировщики | '''Stacked Auto-Encoders''' — вложенные автокодировщики | ||
- | '''Denoising Auto-Encoders''' — шумоподавляющие автокодировщики | + | '''Denoising Auto-Encoders''' — шумоподавляющие (помехоустойчивые) автокодировщики |
'''Contractive Auto-Encoders''' — сжимающие автокодировщики | '''Contractive Auto-Encoders''' — сжимающие автокодировщики | ||
Строка 34: | Строка 34: | ||
'''Support Vector Machine''' — метод (не машина!) опорных векторов | '''Support Vector Machine''' — метод (не машина!) опорных векторов | ||
- | '''Kernel Machine''' — ядровой метод/реализация/модификация в зависимости от контекста | + | '''Kernel Machine''' — ядровой метод / реализация / модификация в зависимости от контекста |
'''MCMC''' — методы Монте-Карло с Марковскими цепями | '''MCMC''' — методы Монте-Карло с Марковскими цепями | ||
Строка 40: | Строка 40: | ||
'''Stochastic Maximum Likelihood''' — алгоритм стохастической максимизации правдоподобия | '''Stochastic Maximum Likelihood''' — алгоритм стохастической максимизации правдоподобия | ||
- | '''Semisupervised embedding''' — представление по обучению с неполной разметкой | + | '''Semisupervised embedding''' — представление по обучению с неполной (частичной) разметкой |
'''Nearest neighbor graph''' - граф ближайших соседей | '''Nearest neighbor graph''' - граф ближайших соседей | ||
Строка 57: | Строка 57: | ||
'''Softmax function''' — функция мягкого максимума, софтмакс | '''Softmax function''' — функция мягкого максимума, софтмакс | ||
- | '''Similarity function''' — функция близости | + | '''Similarity function''' — функция близости (сходства) |
'''Rectified linear unit (ReLU)''' — усеченное линейное преобразование | '''Rectified linear unit (ReLU)''' — усеченное линейное преобразование | ||
Строка 67: | Строка 67: | ||
'''Parameterized transformation''' — параметризованное преобразование | '''Parameterized transformation''' — параметризованное преобразование | ||
+ | '''Perplexity''' — перплексия | ||
Строка 73: | Строка 74: | ||
- | '''Dropout''' — дропаут | + | '''Dropout''' — дропаут? выбивание? вычёркивание? |
- | '''Batches''' (как часть примеров выборки) | + | '''Batches''' — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов) |
- | + | '''Noisecontrastive estimation''' — отделение от шума? конрастивное оценивание? | |
- | + | ||
- | '''Noisecontrastive estimation''' — отделение от шума? | + | |
'''Сontrastive divergence''' — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»? | '''Сontrastive divergence''' — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»? |
Версия 21:47, 6 декабря 2015
В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.
Термины с "уверенным" русскоязычным переводом
Deep learning — глубокое или глубинное обучение
Shallow learning — малослойное обучение (а соответствующие сети малослойные)
Representation Learning, learning representations — обучение представлений
Handcrafted features — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков
Feature learning — обучение признаков
Training и learning — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"
Explaining Away — эффект оправдания, эффект редукции причины
Word embedding — (векторное) представление слова, погружение слова в линейное векторное пространство
Deep belief networks — глубокая сеть доверия
Deep neural network — глубокая нейронная сеть
Stacked Auto-Encoders — вложенные автокодировщики
Denoising Auto-Encoders — шумоподавляющие (помехоустойчивые) автокодировщики
Contractive Auto-Encoders — сжимающие автокодировщики
Support Vector Machine — метод (не машина!) опорных векторов
Kernel Machine — ядровой метод / реализация / модификация в зависимости от контекста
MCMC — методы Монте-Карло с Марковскими цепями
Stochastic Maximum Likelihood — алгоритм стохастической максимизации правдоподобия
Semisupervised embedding — представление по обучению с неполной (частичной) разметкой
Nearest neighbor graph - граф ближайших соседей
Local Coordinate Coding, LCC — алгоритм локального кодирования координат
Leveraging the modeled tangent spaces — использование моделей касательного пространства
Independent Subspace Analysis — анализ независимых подпространств
Smoothed n-gram models — сглаженные n-граммные модели
Pooling (в свёрточных сетях) — агрегирование, операция объединения
Softmax function — функция мягкого максимума, софтмакс
Similarity function — функция близости (сходства)
Rectified linear unit (ReLU) — усеченное линейное преобразование
Cumulative density function (CDF) — функция распределения
Probability density function (PDF) — плотность вероятности
Parameterized transformation — параметризованное преобразование
Perplexity — перплексия
Термины, пока не имеющие хорошего перевода:
Dropout — дропаут? выбивание? вычёркивание?
Batches — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)
Noisecontrastive estimation — отделение от шума? конрастивное оценивание?
Сontrastive divergence — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?
Predictive Sparse Decomposition — Предсказательная разреженная декомпозиция?
Spike-and-Slab RBMs — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, что имеется в виду характерный вид регуляризатора
Сredit assignment path (CAP) —
Manifold Tangent Classifier — Касательный классификатор на базе многообразий?
Score matching —
Estimated score —
Denoising score matching —
Ratio-matching —
mPoT модель (mean-product of Student’s T-distributions model) —
Tiled-convolution traning —
Parametric mapping (в контексте Learning a parametric mapping based on a neighborhood graph) —
Patch-based traning —
Deconvolutional networks (изобретение Зейлера) —