Словарь терминов машинного обучения
Материал из MachineLearning.
 (опечатка)  | 
				 (5 копеек)  | 
			||
| Строка 13: | Строка 13: | ||
'''Handcrafted features''' — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков  | '''Handcrafted features''' — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков  | ||
| - | '''Feature learning''' —   | + | '''Feature learning''' — обучение признаков  | 
| - | '''  | + | '''Training''' и '''learning''' — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"  | 
'''Explaining Away''' —  эффект оправдания, эффект редукции причины  | '''Explaining Away''' —  эффект оправдания, эффект редукции причины  | ||
| - | '''Word embedding''' — (  | + | '''Word embedding''' — (векторное) представление слова, погружение слова в линейное векторное пространство  | 
| Строка 28: | Строка 28: | ||
'''Stacked Auto-Encoders''' — вложенные автокодировщики  | '''Stacked Auto-Encoders''' — вложенные автокодировщики  | ||
| - | '''Denoising Auto-Encoders''' — шумоподавляющие автокодировщики  | + | '''Denoising Auto-Encoders''' — шумоподавляющие (помехоустойчивые) автокодировщики  | 
'''Contractive Auto-Encoders''' — сжимающие автокодировщики  | '''Contractive Auto-Encoders''' — сжимающие автокодировщики  | ||
| Строка 34: | Строка 34: | ||
'''Support Vector Machine''' — метод (не машина!) опорных векторов  | '''Support Vector Machine''' — метод (не машина!) опорных векторов  | ||
| - | '''Kernel Machine''' — ядровой метод/реализация/модификация в зависимости от контекста  | + | '''Kernel Machine''' — ядровой метод / реализация / модификация в зависимости от контекста  | 
'''MCMC''' — методы Монте-Карло с Марковскими цепями  | '''MCMC''' — методы Монте-Карло с Марковскими цепями  | ||
| Строка 40: | Строка 40: | ||
'''Stochastic Maximum Likelihood''' — алгоритм стохастической максимизации правдоподобия  | '''Stochastic Maximum Likelihood''' — алгоритм стохастической максимизации правдоподобия  | ||
| - | '''Semisupervised embedding''' — представление по обучению с неполной разметкой  | + | '''Semisupervised embedding''' — представление по обучению с неполной (частичной) разметкой  | 
'''Nearest neighbor graph''' - граф ближайших соседей  | '''Nearest neighbor graph''' - граф ближайших соседей  | ||
| Строка 57: | Строка 57: | ||
'''Softmax function''' — функция мягкого максимума, софтмакс  | '''Softmax function''' — функция мягкого максимума, софтмакс  | ||
| - | '''Similarity function''' — функция близости  | + | '''Similarity function''' — функция близости (сходства)  | 
'''Rectified linear unit (ReLU)''' — усеченное линейное преобразование  | '''Rectified linear unit (ReLU)''' — усеченное линейное преобразование  | ||
| Строка 67: | Строка 67: | ||
'''Parameterized transformation''' — параметризованное преобразование  | '''Parameterized transformation''' — параметризованное преобразование  | ||
| + | '''Perplexity''' —  перплексия  | ||
| Строка 73: | Строка 74: | ||
| - | '''Dropout''' — дропаут   | + | '''Dropout''' — дропаут? выбивание? вычёркивание?  | 
| - | '''Batches''' (как часть примеров выборки)   | + | '''Batches''' — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)   | 
| - | + | '''Noisecontrastive estimation''' — отделение от шума? конрастивное оценивание?   | |
| - | + | ||
| - | '''Noisecontrastive estimation''' — отделение от шума?  | + | |
'''Сontrastive divergence''' — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?  | '''Сontrastive divergence''' — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?  | ||
Версия 21:47, 6 декабря 2015
В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.
Термины с "уверенным" русскоязычным переводом
Deep learning — глубокое или глубинное обучение
Shallow learning — малослойное обучение (а соответствующие сети малослойные)
Representation Learning, learning representations — обучение представлений
Handcrafted features — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков
Feature learning — обучение признаков
Training и learning — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"
Explaining Away — эффект оправдания, эффект редукции причины
Word embedding — (векторное) представление слова, погружение слова в линейное векторное пространство
Deep belief networks — глубокая сеть доверия
Deep neural network — глубокая нейронная сеть
Stacked Auto-Encoders — вложенные автокодировщики
Denoising Auto-Encoders — шумоподавляющие (помехоустойчивые) автокодировщики
Contractive Auto-Encoders — сжимающие автокодировщики
Support Vector Machine — метод (не машина!) опорных векторов
Kernel Machine — ядровой метод / реализация / модификация в зависимости от контекста
MCMC — методы Монте-Карло с Марковскими цепями
Stochastic Maximum Likelihood — алгоритм стохастической максимизации правдоподобия
Semisupervised embedding — представление по обучению с неполной (частичной) разметкой
Nearest neighbor graph - граф ближайших соседей
Local Coordinate Coding, LCC — алгоритм локального кодирования координат
Leveraging the modeled tangent spaces — использование моделей касательного пространства
Independent Subspace Analysis — анализ независимых подпространств
Smoothed n-gram models — сглаженные n-граммные модели
Pooling (в свёрточных сетях) — агрегирование, операция объединения
Softmax function — функция мягкого максимума, софтмакс
Similarity function — функция близости (сходства)
Rectified linear unit (ReLU) — усеченное линейное преобразование
Cumulative density function (CDF) — функция распределения
Probability density function (PDF) — плотность вероятности
Parameterized transformation — параметризованное преобразование
Perplexity — перплексия
Термины, пока не имеющие хорошего перевода:
Dropout — дропаут? выбивание? вычёркивание?
Batches — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)
Noisecontrastive estimation — отделение от шума? конрастивное оценивание?
Сontrastive divergence — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?
Predictive Sparse Decomposition — Предсказательная разреженная декомпозиция?
Spike-and-Slab RBMs — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, что имеется в виду характерный вид регуляризатора
Сredit assignment path (CAP) —
Manifold Tangent Classifier — Касательный классификатор на базе многообразий?
Score matching —
Estimated score —
Denoising score matching —
Ratio-matching —
mPoT модель (mean-product of Student’s T-distributions model) —
Tiled-convolution traning —
Parametric mapping (в контексте Learning a parametric mapping based on a neighborhood graph) —
Patch-based traning —
Deconvolutional networks (изобретение Зейлера) —

