Обсуждение участника:Юлия Власова
Материал из MachineLearning.
м (Adding welcome message to new user's talk page) |
(→Статья Backfitting: Новая тема) |
||
Строка 1: | Строка 1: | ||
{{MediaWiki:NewUserMessage|Юлия Власова}} | {{MediaWiki:NewUserMessage|Юлия Власова}} | ||
+ | |||
+ | == Статья [[Backfitting]] == | ||
+ | |||
+ | |||
+ | Во-первых, о названии. Мой перевод: [[метод настройки с возвращениями]]. Возможно, не очень удачный, т.к. «backfit» — это неологизм, означающий «доводка, доработка путём незначительных модификаций». В принципе, это очень точно соотвествует смыслу процедуры. С другой стороны, fitting в статистическом обучении — это настройка параметров модели по выборке. Получается термин с двойным смыслом. Как это передать по-русски, не понятно. Попадавшиеся мне переводы «обратный фиттинг», «обратная настройка» — это чисто школярское понимание слова back. То есть вообще не катит. | ||
+ | |||
+ | Во-вторых, описанный здесь вариант этой процедуры взят из моих лекций прошлого года. В этом году я рассказал упрощённывй вариант, в котором не надо на каждом шаге пересчитывать линейные коэффициенты <tex>\theta</tex>. Это действительно избыточно, т.к. при использовании непараметрических методов подгонка масштабного коэффициента по каждому признаку происходит сама собой. У авторов в разных статьях я встречал оба варианта. Но нигде не попадалось их сравнение. Очевидно, решать задачу многомерной линейной регрессии на каждом шаге не хочется. Хочется обойтись одним разом (для формирования начального приближения), а потом начать итерации с одномерными сглаживаниями, которые очень просты. | ||
+ | |||
+ | Короче, было бы здорово, если бы в этой статье были упомянуты обе модификации метода. | ||
+ | И совсем здорово, если удастся найти их сравнение или хотя бы собрать более полный набор ссылок на работы авторов метода. |
Текущая версия
Юлия Власова, поздравляем с успешной регистрацией на MachineLearning.ru
Перед началом работы рекомендуем ознакомиться с двумя основными документами:
- Концепция Ресурса — короткий документ, в котором объясняется, чем наш Ресурс отличается от Википедии, как его можно использовать для совместной научной и учебной работы, и каким он должен стать в перспективе;
- Инструктаж — длинный документ, в котором мы постарались собрать все сведения, необходимые для работы с Ресурсом, включая правила вики-разметки и сведения об основных категориях Ресурса.
Ссылки на эти и другие справочные материалы собраны на странице Справка.
В нашем сообществе принято представляться. Поэтому, прежде чем приступить к созданию или редактированию страниц, заполните, пожалуйста, свою страницу участника. Сделать это очень просто — достаточно кликнуть на Ваше имя Участника (оно показывается в самой верхней строке на любой странице Ресурса). Желательно, чтобы кроме обычных формальностей (фамилии, имени, отчества, места работы или учёбы, степени, звания, и т.д.) Вы указали свои научные интересы. Удобнее всего сделать это в виде списка ссылок на интересные Вам статьи или категории нашего Ресурса. Не беда, если некоторые из них окажутся «красными ссылками» — это означает, что таких статей пока нет, и у Вас есть шанс их написать. Кстати, вики-движок собирает все «красные ссылки» в список требуемых статей — в него тоже стоит заглянуть. Для создания новой статьи достаточно кликнуть по «красной ссылке» или набрать её название в строке поиска.
По любым вопросам, связанным с работой нашего Ресурса, обращайтесь к Администраторам (см. список администраторов).
С уважением,
ваш M.L.Ru
Статья Backfitting
Во-первых, о названии. Мой перевод: метод настройки с возвращениями. Возможно, не очень удачный, т.к. «backfit» — это неологизм, означающий «доводка, доработка путём незначительных модификаций». В принципе, это очень точно соотвествует смыслу процедуры. С другой стороны, fitting в статистическом обучении — это настройка параметров модели по выборке. Получается термин с двойным смыслом. Как это передать по-русски, не понятно. Попадавшиеся мне переводы «обратный фиттинг», «обратная настройка» — это чисто школярское понимание слова back. То есть вообще не катит.
Во-вторых, описанный здесь вариант этой процедуры взят из моих лекций прошлого года. В этом году я рассказал упрощённывй вариант, в котором не надо на каждом шаге пересчитывать линейные коэффициенты . Это действительно избыточно, т.к. при использовании непараметрических методов подгонка масштабного коэффициента по каждому признаку происходит сама собой. У авторов в разных статьях я встречал оба варианта. Но нигде не попадалось их сравнение. Очевидно, решать задачу многомерной линейной регрессии на каждом шаге не хочется. Хочется обойтись одним разом (для формирования начального приближения), а потом начать итерации с одномерными сглаживаниями, которые очень просты.
Короче, было бы здорово, если бы в этой статье были упомянуты обе модификации метода. И совсем здорово, если удастся найти их сравнение или хотя бы собрать более полный набор ссылок на работы авторов метода.