Словарь терминов машинного обучения
Материал из MachineLearning.
(категория) |
|||
(7 промежуточных версий не показаны.) | |||
Строка 1: | Строка 1: | ||
В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант. | В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант. | ||
+ | Короткая ссылка на эту страницу: [https://bit.ly/31b7aI4 https://bit.ly/31b7aI4] | ||
== Термины с "уверенным" русскоязычным переводом == | == Термины с "уверенным" русскоязычным переводом == | ||
+ | При написании выпускных квалификационных работ просьба использовать словарь терминов: | ||
+ | |||
+ | 1)часто слова многозначны, и надо давать перевод именно того смысла, что понимается в Машинном обучении, Распознавании образов и Классификации, работах по Искусственному Интеллекту, Искусственным Нейронным сетям и т. д. - исключительно по нашей тематике; | ||
+ | |||
+ | 2)надо стремиться к предельным (а) краткости и (б) точности, что одновременно не просто; | ||
+ | |||
+ | 3)легко впасть в Толковый словарь с объяснением терминов. Иногда такое пояснение необходимо, но в целом этого надо избегать: составление Толкового словаря - огромная работа, не будем за это (пока?) браться. | ||
+ | [[Media:slovar_2.pdf|Slovar]] | ||
'''Deep learning''' — глубокое или глубинное обучение | '''Deep learning''' — глубокое или глубинное обучение | ||
Строка 70: | Строка 79: | ||
+ | '''Credit assignment path (CAP)''' — путь передачи ответственности (цепочка преобразований от входа к выходу) | ||
+ | |||
+ | '''Credit assignment''' — присвоение коэффициентов доверия | ||
+ | |||
+ | '''Policy gradient''' — градиентный спуск по стратегиям | ||
+ | |||
+ | '''Fully connected''' — полносвязная | ||
+ | |||
+ | '''Reward Signal''' — сигнал вознаграждения (подкрепления) | ||
+ | |||
+ | '''Training set''' — обучающая выборка | ||
+ | |||
+ | '''Validation set''' — проверочная выборка | ||
+ | |||
+ | '''Good Old-Fashioned Artificial Intelligence''' — символический искусственный интеллект | ||
+ | |||
+ | '''Generalization performance/ability''' — обобщающая способность | ||
+ | |||
+ | '''Spiking neuron''' — импульсный нейрон | ||
+ | |||
+ | '''Group Method of Data Handling''' — [[метод группового учёта аргументов]] | ||
+ | |||
+ | '''Subsampling''' — подвыборка | ||
+ | |||
+ | '''Downsampling''' — субдискретизация | ||
+ | |||
+ | '''Time-Delay Neural Network''' — нейронная сеть с временной задержкой | ||
+ | |||
+ | '''Weight decay''' — сокращение веса | ||
+ | |||
+ | '''Constant error carousel''' — карусель константной ошибки | ||
+ | |||
+ | '''Long Short-Term Memory (LSTM)''' — Долгая краткосрочная память | ||
== Термины, пока не имеющие хорошего перевода: == | == Термины, пока не имеющие хорошего перевода: == | ||
Строка 86: | Строка 128: | ||
'''Spike-and-Slab RBMs''' — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, | '''Spike-and-Slab RBMs''' — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, | ||
что имеется в виду характерный вид регуляризатора | что имеется в виду характерный вид регуляризатора | ||
- | |||
- | |||
'''Manifold Tangent Classifier''' — Касательный классификатор на базе многообразий? | '''Manifold Tangent Classifier''' — Касательный классификатор на базе многообразий? |
Текущая версия
В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.
Короткая ссылка на эту страницу: https://bit.ly/31b7aI4
Термины с "уверенным" русскоязычным переводом
При написании выпускных квалификационных работ просьба использовать словарь терминов:
1)часто слова многозначны, и надо давать перевод именно того смысла, что понимается в Машинном обучении, Распознавании образов и Классификации, работах по Искусственному Интеллекту, Искусственным Нейронным сетям и т. д. - исключительно по нашей тематике;
2)надо стремиться к предельным (а) краткости и (б) точности, что одновременно не просто;
3)легко впасть в Толковый словарь с объяснением терминов. Иногда такое пояснение необходимо, но в целом этого надо избегать: составление Толкового словаря - огромная работа, не будем за это (пока?) браться. Slovar
Deep learning — глубокое или глубинное обучение
Shallow learning — малослойное обучение (а соответствующие сети малослойные)
Representation Learning, learning representations — обучение представлений
Handcrafted features — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков
Feature learning — обучение признаков
Training и learning — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"
Explaining Away — эффект оправдания, эффект редукции причины
Word embedding — (векторное) представление слова, погружение слова в линейное векторное пространство
Deep belief networks — глубокая сеть доверия
Deep neural network — глубокая нейронная сеть
Stacked Auto-Encoders — вложенные автокодировщики
Denoising Auto-Encoders — шумоподавляющие (помехоустойчивые) автокодировщики
Contractive Auto-Encoders — сжимающие автокодировщики
Support Vector Machine — метод (не машина!) опорных векторов
Kernel Machine — ядровой метод / реализация / модификация в зависимости от контекста
MCMC — методы Монте-Карло с Марковскими цепями
Stochastic Maximum Likelihood — алгоритм стохастической максимизации правдоподобия
Semisupervised embedding — представление по обучению с неполной (частичной) разметкой
Nearest neighbor graph - граф ближайших соседей
Local Coordinate Coding, LCC — алгоритм локального кодирования координат
Leveraging the modeled tangent spaces — использование моделей касательного пространства
Independent Subspace Analysis — анализ независимых подпространств
Smoothed n-gram models — сглаженные n-граммные модели
Pooling (в свёрточных сетях) — агрегирование, операция объединения
Softmax function — функция мягкого максимума, софтмакс
Similarity function — функция близости (сходства)
Rectified linear unit (ReLU) — усеченное линейное преобразование
Cumulative density function (CDF) — функция распределения
Probability density function (PDF) — плотность вероятности
Parameterized transformation — параметризованное преобразование
Perplexity — перплексия
Credit assignment path (CAP) — путь передачи ответственности (цепочка преобразований от входа к выходу)
Credit assignment — присвоение коэффициентов доверия
Policy gradient — градиентный спуск по стратегиям
Fully connected — полносвязная
Reward Signal — сигнал вознаграждения (подкрепления)
Training set — обучающая выборка
Validation set — проверочная выборка
Good Old-Fashioned Artificial Intelligence — символический искусственный интеллект
Generalization performance/ability — обобщающая способность
Spiking neuron — импульсный нейрон
Group Method of Data Handling — метод группового учёта аргументов
Subsampling — подвыборка
Downsampling — субдискретизация
Time-Delay Neural Network — нейронная сеть с временной задержкой
Weight decay — сокращение веса
Constant error carousel — карусель константной ошибки
Long Short-Term Memory (LSTM) — Долгая краткосрочная память
Термины, пока не имеющие хорошего перевода:
Dropout — дропаут? выбивание? вычёркивание?
Batches — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)
Noisecontrastive estimation — отделение от шума? конрастивное оценивание?
Сontrastive divergence — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?
Predictive Sparse Decomposition — Предсказательная разреженная декомпозиция?
Spike-and-Slab RBMs — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, что имеется в виду характерный вид регуляризатора
Manifold Tangent Classifier — Касательный классификатор на базе многообразий?
Score matching —
Estimated score —
Denoising score matching —
Ratio-matching —
mPoT модель (mean-product of Student’s T-distributions model) —
Tiled-convolution traning —
Parametric mapping (в контексте Learning a parametric mapping based on a neighborhood graph) —
Patch-based traning —
Deconvolutional networks (изобретение Зейлера) —