Словарь терминов машинного обучения
Материал из MachineLearning.
(Создан словарь по некоторым терминам машинного обучения, сформированный при совместном обсуждении Дмитрием Ветровым и Константином Во) |
|||
(11 промежуточных версий не показаны.) | |||
Строка 1: | Строка 1: | ||
В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант. | В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант. | ||
+ | Короткая ссылка на эту страницу: [https://bit.ly/31b7aI4 https://bit.ly/31b7aI4] | ||
- | == Термины с "уверенным" русскоязычным | + | == Термины с "уверенным" русскоязычным переводом == |
+ | При написании выпускных квалификационных работ просьба использовать словарь терминов: | ||
+ | |||
+ | 1)часто слова многозначны, и надо давать перевод именно того смысла, что понимается в Машинном обучении, Распознавании образов и Классификации, работах по Искусственному Интеллекту, Искусственным Нейронным сетям и т. д. - исключительно по нашей тематике; | ||
+ | |||
+ | 2)надо стремиться к предельным (а) краткости и (б) точности, что одновременно не просто; | ||
+ | |||
+ | 3)легко впасть в Толковый словарь с объяснением терминов. Иногда такое пояснение необходимо, но в целом этого надо избегать: составление Толкового словаря - огромная работа, не будем за это (пока?) браться. | ||
+ | [[Media:slovar_2.pdf|Slovar]] | ||
'''Deep learning''' — глубокое или глубинное обучение | '''Deep learning''' — глубокое или глубинное обучение | ||
Строка 13: | Строка 22: | ||
'''Handcrafted features''' — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков | '''Handcrafted features''' — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков | ||
- | '''Feature learning''' — | + | '''Feature learning''' — обучение признаков |
- | ''' | + | '''Training''' и '''learning''' — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка" |
'''Explaining Away''' — эффект оправдания, эффект редукции причины | '''Explaining Away''' — эффект оправдания, эффект редукции причины | ||
- | '''Word embedding''' — ( | + | '''Word embedding''' — (векторное) представление слова, погружение слова в линейное векторное пространство |
Строка 28: | Строка 37: | ||
'''Stacked Auto-Encoders''' — вложенные автокодировщики | '''Stacked Auto-Encoders''' — вложенные автокодировщики | ||
- | '''Denoising Auto-Encoders''' — шумоподавляющие автокодировщики | + | '''Denoising Auto-Encoders''' — шумоподавляющие (помехоустойчивые) автокодировщики |
'''Contractive Auto-Encoders''' — сжимающие автокодировщики | '''Contractive Auto-Encoders''' — сжимающие автокодировщики | ||
Строка 34: | Строка 43: | ||
'''Support Vector Machine''' — метод (не машина!) опорных векторов | '''Support Vector Machine''' — метод (не машина!) опорных векторов | ||
- | '''Kernel Machine''' — ядровой метод/реализация/модификация в зависимости от контекста | + | '''Kernel Machine''' — ядровой метод / реализация / модификация в зависимости от контекста |
'''MCMC''' — методы Монте-Карло с Марковскими цепями | '''MCMC''' — методы Монте-Карло с Марковскими цепями | ||
Строка 40: | Строка 49: | ||
'''Stochastic Maximum Likelihood''' — алгоритм стохастической максимизации правдоподобия | '''Stochastic Maximum Likelihood''' — алгоритм стохастической максимизации правдоподобия | ||
- | '''Semisupervised embedding''' — представление по обучению с неполной разметкой | + | '''Semisupervised embedding''' — представление по обучению с неполной (частичной) разметкой |
'''Nearest neighbor graph''' - граф ближайших соседей | '''Nearest neighbor graph''' - граф ближайших соседей | ||
Строка 57: | Строка 66: | ||
'''Softmax function''' — функция мягкого максимума, софтмакс | '''Softmax function''' — функция мягкого максимума, софтмакс | ||
- | '''Similarity function''' — функция близости | + | '''Similarity function''' — функция близости (сходства) |
'''Rectified linear unit (ReLU)''' — усеченное линейное преобразование | '''Rectified linear unit (ReLU)''' — усеченное линейное преобразование | ||
Строка 67: | Строка 76: | ||
'''Parameterized transformation''' — параметризованное преобразование | '''Parameterized transformation''' — параметризованное преобразование | ||
+ | '''Perplexity''' — перплексия | ||
+ | '''Credit assignment path (CAP)''' — путь передачи ответственности (цепочка преобразований от входа к выходу) | ||
- | + | '''Credit assignment''' — присвоение коэффициентов доверия | |
+ | '''Policy gradient''' — градиентный спуск по стратегиям | ||
- | ''' | + | '''Fully connected''' — полносвязная |
- | ''' | + | '''Reward Signal''' — сигнал вознаграждения (подкрепления) |
- | ''' | + | '''Training set''' — обучающая выборка |
- | '''Noisecontrastive estimation''' — отделение от шума? | + | '''Validation set''' — проверочная выборка |
+ | |||
+ | '''Good Old-Fashioned Artificial Intelligence''' — символический искусственный интеллект | ||
+ | |||
+ | '''Generalization performance/ability''' — обобщающая способность | ||
+ | |||
+ | '''Spiking neuron''' — импульсный нейрон | ||
+ | |||
+ | '''Group Method of Data Handling''' — [[метод группового учёта аргументов]] | ||
+ | |||
+ | '''Subsampling''' — подвыборка | ||
+ | |||
+ | '''Downsampling''' — субдискретизация | ||
+ | |||
+ | '''Time-Delay Neural Network''' — нейронная сеть с временной задержкой | ||
+ | |||
+ | '''Weight decay''' — сокращение веса | ||
+ | |||
+ | '''Constant error carousel''' — карусель константной ошибки | ||
+ | |||
+ | '''Long Short-Term Memory (LSTM)''' — Долгая краткосрочная память | ||
+ | |||
+ | == Термины, пока не имеющие хорошего перевода: == | ||
+ | |||
+ | |||
+ | '''Dropout''' — дропаут? выбивание? вычёркивание? | ||
+ | |||
+ | '''Batches''' — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов) | ||
+ | |||
+ | '''Noisecontrastive estimation''' — отделение от шума? конрастивное оценивание? | ||
'''Сontrastive divergence''' — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»? | '''Сontrastive divergence''' — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»? | ||
Строка 87: | Строка 128: | ||
'''Spike-and-Slab RBMs''' — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, | '''Spike-and-Slab RBMs''' — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, | ||
что имеется в виду характерный вид регуляризатора | что имеется в виду характерный вид регуляризатора | ||
- | |||
- | |||
'''Manifold Tangent Classifier''' — Касательный классификатор на базе многообразий? | '''Manifold Tangent Classifier''' — Касательный классификатор на базе многообразий? | ||
Строка 111: | Строка 150: | ||
[[Категория:Учебные материалы]] | [[Категория:Учебные материалы]] | ||
+ | [[Категория:Энциклопедия анализа данных]] | ||
[[Категория:Рекомендации для студентов]] | [[Категория:Рекомендации для студентов]] |
Текущая версия
В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.
Короткая ссылка на эту страницу: https://bit.ly/31b7aI4
Термины с "уверенным" русскоязычным переводом
При написании выпускных квалификационных работ просьба использовать словарь терминов:
1)часто слова многозначны, и надо давать перевод именно того смысла, что понимается в Машинном обучении, Распознавании образов и Классификации, работах по Искусственному Интеллекту, Искусственным Нейронным сетям и т. д. - исключительно по нашей тематике;
2)надо стремиться к предельным (а) краткости и (б) точности, что одновременно не просто;
3)легко впасть в Толковый словарь с объяснением терминов. Иногда такое пояснение необходимо, но в целом этого надо избегать: составление Толкового словаря - огромная работа, не будем за это (пока?) браться. Slovar
Deep learning — глубокое или глубинное обучение
Shallow learning — малослойное обучение (а соответствующие сети малослойные)
Representation Learning, learning representations — обучение представлений
Handcrafted features — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков
Feature learning — обучение признаков
Training и learning — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"
Explaining Away — эффект оправдания, эффект редукции причины
Word embedding — (векторное) представление слова, погружение слова в линейное векторное пространство
Deep belief networks — глубокая сеть доверия
Deep neural network — глубокая нейронная сеть
Stacked Auto-Encoders — вложенные автокодировщики
Denoising Auto-Encoders — шумоподавляющие (помехоустойчивые) автокодировщики
Contractive Auto-Encoders — сжимающие автокодировщики
Support Vector Machine — метод (не машина!) опорных векторов
Kernel Machine — ядровой метод / реализация / модификация в зависимости от контекста
MCMC — методы Монте-Карло с Марковскими цепями
Stochastic Maximum Likelihood — алгоритм стохастической максимизации правдоподобия
Semisupervised embedding — представление по обучению с неполной (частичной) разметкой
Nearest neighbor graph - граф ближайших соседей
Local Coordinate Coding, LCC — алгоритм локального кодирования координат
Leveraging the modeled tangent spaces — использование моделей касательного пространства
Independent Subspace Analysis — анализ независимых подпространств
Smoothed n-gram models — сглаженные n-граммные модели
Pooling (в свёрточных сетях) — агрегирование, операция объединения
Softmax function — функция мягкого максимума, софтмакс
Similarity function — функция близости (сходства)
Rectified linear unit (ReLU) — усеченное линейное преобразование
Cumulative density function (CDF) — функция распределения
Probability density function (PDF) — плотность вероятности
Parameterized transformation — параметризованное преобразование
Perplexity — перплексия
Credit assignment path (CAP) — путь передачи ответственности (цепочка преобразований от входа к выходу)
Credit assignment — присвоение коэффициентов доверия
Policy gradient — градиентный спуск по стратегиям
Fully connected — полносвязная
Reward Signal — сигнал вознаграждения (подкрепления)
Training set — обучающая выборка
Validation set — проверочная выборка
Good Old-Fashioned Artificial Intelligence — символический искусственный интеллект
Generalization performance/ability — обобщающая способность
Spiking neuron — импульсный нейрон
Group Method of Data Handling — метод группового учёта аргументов
Subsampling — подвыборка
Downsampling — субдискретизация
Time-Delay Neural Network — нейронная сеть с временной задержкой
Weight decay — сокращение веса
Constant error carousel — карусель константной ошибки
Long Short-Term Memory (LSTM) — Долгая краткосрочная память
Термины, пока не имеющие хорошего перевода:
Dropout — дропаут? выбивание? вычёркивание?
Batches — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)
Noisecontrastive estimation — отделение от шума? конрастивное оценивание?
Сontrastive divergence — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?
Predictive Sparse Decomposition — Предсказательная разреженная декомпозиция?
Spike-and-Slab RBMs — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, что имеется в виду характерный вид регуляризатора
Manifold Tangent Classifier — Касательный классификатор на базе многообразий?
Score matching —
Estimated score —
Denoising score matching —
Ratio-matching —
mPoT модель (mean-product of Student’s T-distributions model) —
Tiled-convolution traning —
Parametric mapping (в контексте Learning a parametric mapping based on a neighborhood graph) —
Patch-based traning —
Deconvolutional networks (изобретение Зейлера) —