Обсуждение участника:Юлия Власова

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м (Adding welcome message to new user's talk page)
(Статья Backfitting: Новая тема)
 
Строка 1: Строка 1:
{{MediaWiki:NewUserMessage|Юлия Власова}}
{{MediaWiki:NewUserMessage|Юлия Власова}}
 +
 +
== Статья [[Backfitting]] ==
 +
 +
 +
Во-первых, о названии. Мой перевод: [[метод настройки с возвращениями]]. Возможно, не очень удачный, т.к. «backfit» — это неологизм, означающий «доводка, доработка путём незначительных модификаций». В принципе, это очень точно соотвествует смыслу процедуры. С другой стороны, fitting в статистическом обучении — это настройка параметров модели по выборке. Получается термин с двойным смыслом. Как это передать по-русски, не понятно. Попадавшиеся мне переводы «обратный фиттинг», «обратная настройка» — это чисто школярское понимание слова back. То есть вообще не катит.
 +
 +
Во-вторых, описанный здесь вариант этой процедуры взят из моих лекций прошлого года. В&nbsp;этом году я рассказал упрощённывй вариант, в котором не надо на каждом шаге пересчитывать линейные коэффициенты&nbsp;<tex>\theta</tex>. Это действительно избыточно, т.к. при использовании непараметрических методов подгонка масштабного коэффициента по каждому признаку происходит сама собой. У авторов в разных статьях я встречал оба варианта. Но нигде не попадалось их сравнение. Очевидно, решать задачу многомерной линейной регрессии на каждом шаге не хочется. Хочется обойтись одним разом (для формирования начального приближения), а потом начать итерации с одномерными сглаживаниями, которые очень просты.
 +
 +
Короче, было бы здорово, если бы в этой статье были упомянуты обе модификации метода.
 +
И&nbsp;совсем здорово, если удастся найти их сравнение или хотя бы собрать более полный набор ссылок на работы авторов метода.

Текущая версия

Юлия Власова, поздравляем с успешной регистрацией на MachineLearning.ru

Перед началом работы рекомендуем ознакомиться с двумя основными документами:

  • Концепция Ресурса — короткий документ, в котором объясняется, чем наш Ресурс отличается от Википедии, как его можно использовать для совместной научной и учебной работы, и каким он должен стать в перспективе;
  • Инструктаж — длинный документ, в котором мы постарались собрать все сведения, необходимые для работы с Ресурсом, включая правила вики-разметки и сведения об основных категориях Ресурса.

Ссылки на эти и другие справочные материалы собраны на странице Справка.

В нашем сообществе принято представляться. Поэтому, прежде чем приступить к созданию или редактированию страниц, заполните, пожалуйста, свою страницу участника. Сделать это очень просто — достаточно кликнуть на Ваше имя Участника (оно показывается в самой верхней строке на любой странице Ресурса). Желательно, чтобы кроме обычных формальностей (фамилии, имени, отчества, места работы или учёбы, степени, звания, и т.д.) Вы указали свои научные интересы. Удобнее всего сделать это в виде списка ссылок на интересные Вам статьи или категории нашего Ресурса. Не беда, если некоторые из них окажутся «красными ссылками» — это означает, что таких статей пока нет, и у Вас есть шанс их написать. Кстати, вики-движок собирает все «красные ссылки» в список требуемых статей — в него тоже стоит заглянуть. Для создания новой статьи достаточно кликнуть по «красной ссылке» или набрать её название в строке поиска.

По любым вопросам, связанным с работой нашего Ресурса, обращайтесь к Администраторам (см. список администраторов).

С уважением,
ваш M.L.Ru

Статья Backfitting

Во-первых, о названии. Мой перевод: метод настройки с возвращениями. Возможно, не очень удачный, т.к. «backfit» — это неологизм, означающий «доводка, доработка путём незначительных модификаций». В принципе, это очень точно соотвествует смыслу процедуры. С другой стороны, fitting в статистическом обучении — это настройка параметров модели по выборке. Получается термин с двойным смыслом. Как это передать по-русски, не понятно. Попадавшиеся мне переводы «обратный фиттинг», «обратная настройка» — это чисто школярское понимание слова back. То есть вообще не катит.

Во-вторых, описанный здесь вариант этой процедуры взят из моих лекций прошлого года. В этом году я рассказал упрощённывй вариант, в котором не надо на каждом шаге пересчитывать линейные коэффициенты \theta. Это действительно избыточно, т.к. при использовании непараметрических методов подгонка масштабного коэффициента по каждому признаку происходит сама собой. У авторов в разных статьях я встречал оба варианта. Но нигде не попадалось их сравнение. Очевидно, решать задачу многомерной линейной регрессии на каждом шаге не хочется. Хочется обойтись одним разом (для формирования начального приближения), а потом начать итерации с одномерными сглаживаниями, которые очень просты.

Короче, было бы здорово, если бы в этой статье были упомянуты обе модификации метода. И совсем здорово, если удастся найти их сравнение или хотя бы собрать более полный набор ссылок на работы авторов метода.

Личные инструменты