Участник:EvgSokolov/Песочница
Материал из MachineLearning.
м |
|||
Строка 45: | Строка 45: | ||
В первую очередь делается поправка интенсивностей проб для учета коэффициента сродства: | В первую очередь делается поправка интенсивностей проб для учета коэффициента сродства: | ||
+ | {{eqno|2}} | ||
::<tex> Y_{ijln}^* = Y_{ijln} - \hat \phi_{jn} \approx \theta_{in} + \gamma_{jln} + \varepsilon_{ijln} </tex> | ::<tex> Y_{ijln}^* = Y_{ijln} - \hat \phi_{jn} \approx \theta_{in} + \gamma_{jln} + \varepsilon_{ijln} </tex> | ||
Строка 64: | Строка 65: | ||
==== Партия микрочипов ==== | ==== Партия микрочипов ==== | ||
- | В данном случае индекс <tex>l</tex> может быть опущен, так как обрабатывается одна партия микрочипов. | + | В данном случае индекс <tex>l</tex> может быть опущен, так как обрабатывается одна партия микрочипов. Число чипов в новой партии будем обозначать через <tex>I</tex> |
+ | |||
+ | Введем следующие обозначения: | ||
+ | * <tex> {\mathbf X} = 1_{J_n \times 1} \otimes \mathbf{E}_{I \times I} } </tex> — индикаторная матрица (<tex> 1_{m \times n} </tex> — матрица из единиц размера <tex> m \times n </tex>; <tex> {\mathbf E}_{n \times n} </tex> — единичная матрица размера <tex> n \times n </tex>; <tex> \otimes </tex> — [http://ru.wikipedia.org/wiki/Произведение_Кронекера произведение Кронекера]). | ||
+ | * <tex> {\mathbf \theta} = \left( \theta_{1 n}, \dots, \theta_{I n} \right) </tex> — вектор экспрессий. | ||
+ | * <tex> {\mathbf Y_{jn}^*} = \left( Y_{ijn}^* \right)_{i = 1}^{I} \in \mathbb{R}^I </tex> — вектор интенсивностей пробы <tex>j</tex> набора <tex>n</tex> на всех чипах партии. | ||
+ | * <tex> {\mathbf Y_n^*} = \left( {\mathbf Y_{1,n}^*, \dots, Y_{J_n, n}^* } \right)^T \in \mathbb{R}^{I J_n}</tex> — вектор интенсивностей всех проб к гену <tex>n</tex> на всех чипах партии. | ||
+ | * <tex> {\mathbf \delta} \in \mathbb{R}^{I J_n} </tex> — вектор случайных ошибок, соответствующих интенсивностям из <tex> {\mathbf Y_n^*} </tex>. | ||
+ | |||
+ | Тогда модель {{eqref|2}} можно записать в матричном виде: | ||
+ | ::<tex> \mathbf Y_n^* = X \theta + \delta </tex> |
Версия 07:38, 24 октября 2011
Содержание |
fRMA (Frozen Robust Multi-Array Analysis)
Рассматривается следующая модель уровня экспрессии:
Здесь используются следующие обозначения:
- — номер партии микрочипов . Два чипа относятся к одной партии, если эксперименты с ними были проведены в одной лаборатории в одно и то же время.
- — номер микрочипа .
- — номер набора проб . Также через мы будем обозначать номер гена, соответствующего -му набору проб.
- — номер пробы .
- — предобработанная (с вычтенным фоном и нормализованная) логарифмированная интенсивность пробы из набора проб микрочипа из партии микрочипов .
- — экспрессия гена на -м микрочипе.
- — коэффициент сродства пробы гену .
- — случайная ошибка, вызывающая различия между партиями проб.
- — случайная ошибка, вызывающая различия между пробами на чипах одной партии.
В данной модели предполагается, что пробы на разных чипах имеют одинаковую дисперсию случайной ошибки: . Также делается предположение, что — это случайная величина, дисперсия которой не зависит от партии чипов: .
Обучение модели
Для обучения необходимы данные с большого числа микрочипов.
Сначала ко всем микрочипам применяется метод квантильной нормализации, приводящий все данные к одному распределению. В дальнейшем будем называть это распределение «представительным».
Непосредственная настройка модели (1) при наличии выбросов в обучающей выборке крайне сложна, поэтому предлагается перейти к более простой задаче. Рассматривается упрощенная модель
- .
По обучающей выборке находятся робастные оценки параметров и для данной модели. Затем вычисляются остатки , с помощью которых оцениваются дисперсии и :
- ;
- ,
где .
Обработка новых чипов
Рассмотрим процесс обработки новых чипов. Сначала делается фоновая поправка всех чипов методом RMA-свертки, затем с помощью квантильной нормализации интенсивности новых чипов приводятся к представительному распределению, полученному на этапе обучения. Последним шагом является суммаризация, которая подробно описана ниже.
В первую очередь делается поправка интенсивностей проб для учета коэффициента сродства:
(здесь — это индекс новой партии микрочипов).
Далее из скорректированных интенсивностей нужно получить робастную оценку для . Это делается разными способами в зависимости от того, из скольких чипов состоит партия.
Один микрочип
В данном случае индексы и могут быть опущены опущены, так как обрабатывается один микрочип и одна партия.
Логарифмированная концентрация оценивается следующим образом:
- ,
где — оценка дисперсии скорректированной интенсивности , а — веса, соответствующие некоторой M-оценке.
Данная оценка учитывает с низкими весами выбросы (так как им соответствуют маленькие ) и пробы с большой дисперсией шума.
Партия микрочипов
В данном случае индекс может быть опущен, так как обрабатывается одна партия микрочипов. Число чипов в новой партии будем обозначать через
Введем следующие обозначения:
- — индикаторная матрица ( — матрица из единиц размера ; — единичная матрица размера ; — произведение Кронекера).
- — вектор экспрессий.
- — вектор интенсивностей пробы набора на всех чипах партии.
- — вектор интенсивностей всех проб к гену на всех чипах партии.
- — вектор случайных ошибок, соответствующих интенсивностям из .
Тогда модель (2) можно записать в матричном виде: