Предобработка данных ДНК-микрочипов
Материал из MachineLearning.
м (→Модель: уточнение, формулы) |
м (→Ссылки: ссылки) |
||
(1 промежуточная версия не показана) | |||
Строка 65: | Строка 65: | ||
::<tex>p(\lambda, \Psi | \{x\}) \; \propto \; p(\{x\} | \lambda, \Psi) p(\lambda, \Psi)</tex>. | ::<tex>p(\lambda, \Psi | \{x\}) \; \propto \; p(\{x\} | \lambda, \Psi) p(\lambda, \Psi)</tex>. | ||
- | Для априорной плотности вероятности мы предполагаем, что <tex>p(\lambda, \Psi) = p(\lambda)</tex>, то есть что априорная вероятность параметра <tex>\lambda</tex> не зависит от параметра <tex>\Psi</tex> и что последняя неинформативна. Априорная плотность вероятности для <tex>\lambda</tex> вычисляется по формуле <tex>\lambda = \prod_{j=1}^N{p(\lambda_j)}</tex>, где <tex>\lambda_j</tex> из исправленного нормального распределения <tex>\textit{N}_{rect}(\mu_{\lambda}, \sigma_{\lambda})</tex>, для которого | + | Для априорной плотности вероятности мы предполагаем, что <tex>p(\lambda, \Psi) = p(\lambda)</tex>, то есть что априорная вероятность параметра <tex>\lambda</tex> не зависит от параметра <tex>\Psi</tex> и что последняя неинформативна. Априорная плотность вероятности для <tex>\lambda</tex> вычисляется по формуле <tex>p(\lambda) = \prod_{j=1}^N{p(\lambda_j)}</tex>, где <tex>\lambda_j</tex> из исправленного нормального распределения <tex>\textit{N}_{rect}(\mu_{\lambda}, \sigma_{\lambda})</tex>, для которого |
::<tex>\lambda_j = \max\{y_j, 0\}, \; y_j \sim \textit{N}(\mu_{\lambda}, \sigma_{\lambda}).</tex> | ::<tex>\lambda_j = \max\{y_j, 0\}, \; y_j \sim \textit{N}(\mu_{\lambda}, \sigma_{\lambda}).</tex> | ||
Строка 80: | Строка 80: | ||
Два гиперпараметра <tex>\rho</tex> и <tex>\mu_{\lambda}</tex> позволяют определить разные аспекты априорных знаний. Например, значение <tex>\mu_{\lambda}</tex> около нуля предполагает, что большинство генов не содержат сигналов и вносят смещение значений <tex>\lambda</tex> к нулю. | Два гиперпараметра <tex>\rho</tex> и <tex>\mu_{\lambda}</tex> позволяют определить разные аспекты априорных знаний. Например, значение <tex>\mu_{\lambda}</tex> около нуля предполагает, что большинство генов не содержат сигналов и вносят смещение значений <tex>\lambda</tex> к нулю. | ||
- | Второй | + | Второй множитель апостериорной плотности - это правдоподобие, которое вычисляется как |
::<tex> p(\{x\}|\lambda, \Psi) = \prod_{i=1}^N{\textit{N}(0, \lambda\lambda^T + \Psi)(x_i)},</tex> | ::<tex> p(\{x\}|\lambda, \Psi) = \prod_{i=1}^N{\textit{N}(0, \lambda\lambda^T + \Psi)(x_i)},</tex> | ||
Строка 86: | Строка 86: | ||
где <tex>\textit{N}(0, \lambda\lambda^T + \Psi)(x_i)</tex> это плотность распределения, измеренная в <tex>x_i</tex>. | где <tex>\textit{N}(0, \lambda\lambda^T + \Psi)(x_i)</tex> это плотность распределения, измеренная в <tex>x_i</tex>. | ||
- | Мы оцениваем параметры факторного анализа с помощью EM-алгоритма, модифицированного для максимизации байесовской апостериорной плотности вероятности. EM-алгоритм | + | Мы оцениваем параметры факторного анализа с помощью EM-алгоритма, модифицированного для максимизации байесовской апостериорной плотности вероятности. EM-алгоритм оценивает параметры <tex>\lambda,\;\Psi</tex> и апостериорные значения плотности вероятности для <tex>z</tex> для каждого <tex>x</tex>. Аналогично EM-алгоритму, максимизирующему правдоподобие, модифицированный EM-алгоритм максимизирует нижнюю границу апостериорной плотности логарифмов |
- | ::<tex> -\frac{1}{2}\sigma_{\lambda}^{-2}(\lambda-\mu_{\lambda}1)^T(\lambda-\mu_{\lambda}1) + \frac{nN}{2}\log{2\pi} - \frac{N}{2}\log{\|\Psi|} - \frac{1}{2} \sum_{i=1}^N{E_{z_i|x_i}((x_i-\lambda z_i)^T\Psi^{-1}(x_i-\lambda z_i)),</tex> | + | ::<tex> -\frac{1}{2}\sigma_{\lambda}^{-2}(\lambda-\mu_{\lambda}1)^T(\lambda-\mu_{\lambda}1) \; + \; \frac{nN}{2}\log{2\pi} \; - \; \frac{N}{2}\log{\|\Psi|} \; - \; \frac{1}{2} \sum_{i=1}^N{E_{z_i|x_i}((x_i-\lambda z_i)^T\Psi^{-1}(x_i-\lambda z_i)),</tex> |
- | + | где <tex>x</tex> уже нормализован и имеет нулевое матожидание и | |
::<tex> z_i | x_i \sim \textit{N}(\mu_{z_i|x_i}, \;\sigma_{z_i|x_i}^2),</tex> | ::<tex> z_i | x_i \sim \textit{N}(\mu_{z_i|x_i}, \;\sigma_{z_i|x_i}^2),</tex> | ||
Строка 96: | Строка 96: | ||
::<tex> \sigma_{z_i|x_i}^2 = 1 - \lambda^T(\lambda \lambda^T + \Psi)^{-1}\lambda.</tex> | ::<tex> \sigma_{z_i|x_i}^2 = 1 - \lambda^T(\lambda \lambda^T + \Psi)^{-1}\lambda.</tex> | ||
- | Отметим, что максимальный апостериорный факторный анализ позволяет выделить и ненормально распределённые сигналы. Ковариационная матрица правдоподобия равна <tex>\lambda \lambda^T + \Psi</tex>, поэтому увеличение диагональных элементов <tex>\Psi</tex> приведёт к большему уменьшению правдоподобия, чем увеличение одного собственного значения с помощью <tex>\lambda \lambda^T</tex> (отметим, что при приведении ненормального распределения к единичной дисперсии <tex>\lambda</tex> увеличивается). Причиной большего уменьшения правдоподобия в первом случае является суммарный эффект увеличения <tex>n</tex> собственных значений ковариационной матрицы. | + | Отметим, что максимальный апостериорный факторный анализ позволяет выделить и ненормально распределённые сигналы. Ковариационная матрица правдоподобия равна <tex>\lambda \lambda^T + \Psi</tex>, поэтому увеличение диагональных элементов <tex>\Psi</tex> приведёт к большему уменьшению правдоподобия, чем увеличение одного собственного значения с помощью <tex>\lambda \lambda^T</tex> (отметим, что при приведении ненормального распределения к единичной дисперсии <tex>\lambda</tex> увеличивается). Причиной большего уменьшения правдоподобия в первом случае является суммарный эффект увеличения <tex>n</tex> собственных значений ковариационной матрицы. |
=====3. Оценка действительной интенсивности===== | =====3. Оценка действительной интенсивности===== | ||
Строка 117: | Строка 117: | ||
---- | ---- | ||
- | === | + | ===[[Сравнение методов предобработки данных ДНК-микрочипов]]=== |
+ | ===Литература=== | ||
{{книга | {{книга | ||
|автор = Hochreiter, S.; Clevert, D.-A.; Obermayer, K. | |автор = Hochreiter, S.; Clevert, D.-A.; Obermayer, K. |
Текущая версия
Предобработка данных - необходимый этап анализа данных, полученных в ходе эксперимента с ДНК-микрочипом. Выделяют три основных подэтапа предобработки:
- Фоновая поправка
Фоновая поправка в анализе ДНК-микрочипов
- Нормализация
- Суммаризация
Суммаризация - этап предобработки данных, в ходе которого суммируются интенсивности нескольких ДНК-микрочипов, использованных на одной стадии эксперимента, с целью получить финальные значения интенсивностей проб. Как правило, суммаризация является составной частью алгоритма, реализующего комплекс методов предобработки данных.
Содержание |
Факторный анализ для робастной суммаризации микрочипов (Factor Analysis For Robust Microarray Summarization (FARMS))
Данный подход к суммаризации интенсивностей микрочипов базируется на линейной модели с гауссовским шумом.
Модель
Обозначим нормализованный логарифм наблюдаемой интенсивности (с нулевым матожиданием) , а - нормализованный логарифм концентрации РНК в исследуемом препарате. Будем предполагать, что между логарифмом наблюдаемой интенсивности и логарифмом концентрации РНК существует связь вида
- , где
и
- .
это многомерное нормальное распределение с вектором матожидания и ковариационной матрицей . обычно называют фактором. это диагональная матрица ковариаций шума. и статистически независимы. Согласно принятой модели, наблюдаемый вектор распределён нормально со следующими параметрами:
Следовательно, интенсивности (PM проб) логарифмически нормально распределены. это параметры формы логарифмически нормального распределения для каждой пробы .
Теперь рассмотрим отдельный ген, множество микрочипов , на каждом из которых проб , соответствующих этому гену. Обозначим - истинный сигнал на микрочипе , то есть логарифм концентрации РНК рассматриваемого гена в препарате. Пусть - сигнал , нормализованный так, что он имеет нулевое матожидание и дисперсию 1, то есть
- .
Теперь предположим, что для каждой пробы сигнал отклоняется на и от истинных значений и соответственно. Таким образом,
- ,
где предполагается, что и распределены с нулевым матожиданием. Величина определяет дисперсию -го измерения , а - его матожидание. Таким образом, мы предполагаем, что каждый олигонуклеотид, соответствующий , имеет свои характеристики (например, эффективность гибридизации). Добавляя к измерениям шум , получим
- ,
где - гауссовский шум с нулевым матожиданием. Значения и стандартного отклонения могут зависеть от интенсивностей экспрессии гена на разных микрочипах. В некоторых работах показано, что дисперсия шума зависит от силы сигнала. Поэтому при оценке значений необходимо принимать во внимание фактическую интенсивность экспрессии генов.
Если мы обозначим и нормализуем наблюдение , чтобы оно имело нулевое матожидание, вычитая
- ,
где аппроксимация возможна в сделанных предположениях о нулевых матожиданиях и , мы придём к базовой модели (1). Согласно модели, , поэтому данный метод лучше всего подходит для генов с сильным нормально распределенным сигналом или для генов с низкими интенсивностями сигнала (маленькими ). Эксперименты показали, что этот подход даёт хорошие результаты и для ненормальных распределений , потому что ненормальность имеет сравнительно небольшое влияние на правдоподобность модели.
Оценка параметров модели и сигнала
Оценка настоящей интенсивности (сигнала) состоит из трёх шагов:
1. Нормализация наблюдений
Чтобы наблюдаемые значения соответствовали сделанным в модели предположением, нормализуем их, вычитая , оцениваемое с помощью уравнения (*). Таким образом, они будут иметь нулевое матожидание.
2. Максимальный апостериорный факторный анализ
Пусть - исходные данные. Тогда байесовская апостериорная плотность вероятности параметров пропорциональна произведению правдоподобия и априорной плотности вероятности :
- .
Для априорной плотности вероятности мы предполагаем, что , то есть что априорная вероятность параметра не зависит от параметра и что последняя неинформативна. Априорная плотность вероятности для вычисляется по формуле , где из исправленного нормального распределения , для которого
выбрана пропорционально матожиданию вариации наблюдений, чтобы фактор отражал вариацию данных, то есть
Априорная плотность вероятности отражает следующие факты:
- наблюдаемые вариации в данных часто небольшие, поэтому большие значения маловероятны,
- микрочип обычно содержит во много раз больше генов с постоянным сигналом (), чем генов с меняющимся сигналом (большие значения ),
- отрицательные значения неправдоподобны, так как это значит, что интенсивность сигналов убывает с увеличением концентрации РНК.
Два гиперпараметра и позволяют определить разные аспекты априорных знаний. Например, значение около нуля предполагает, что большинство генов не содержат сигналов и вносят смещение значений к нулю.
Второй множитель апостериорной плотности - это правдоподобие, которое вычисляется как
где это плотность распределения, измеренная в .
Мы оцениваем параметры факторного анализа с помощью EM-алгоритма, модифицированного для максимизации байесовской апостериорной плотности вероятности. EM-алгоритм оценивает параметры и апостериорные значения плотности вероятности для для каждого . Аналогично EM-алгоритму, максимизирующему правдоподобие, модифицированный EM-алгоритм максимизирует нижнюю границу апостериорной плотности логарифмов
где уже нормализован и имеет нулевое матожидание и
Отметим, что максимальный апостериорный факторный анализ позволяет выделить и ненормально распределённые сигналы. Ковариационная матрица правдоподобия равна , поэтому увеличение диагональных элементов приведёт к большему уменьшению правдоподобия, чем увеличение одного собственного значения с помощью (отметим, что при приведении ненормального распределения к единичной дисперсии увеличивается). Причиной большего уменьшения правдоподобия в первом случае является суммарный эффект увеличения собственных значений ковариационной матрицы.
3. Оценка действительной интенсивности
Наша задача - определить действительную интенсивность с помощью оцененного значения , то есть нужно оценить и . Для каждой пробы мы имеем
Мы определяем и методом наименьших квадратов. Учитывая, что и и взяты из распределения с нулевым матожиданием, получаем:
Действительная интенсивность в таком случае представляется в виде
где это фактор, который компенсирует уменьшение вариации данных в ходе предобработки и факторного анализа (вариация данных в некоторой степени рассматривается как шум). Значение эмпирически определено на модельных данных для разных методов нормализации: для квантильной нормализации и для циклической сглаживающей кривой.
Сравнение методов предобработки данных ДНК-микрочипов
Литература
Hochreiter, S.; Clevert, D.-A.; Obermayer, K. A new summarization method for Affymetrix probe level data // Bioinformatics. — (Oxford, England): 2006 T. 22. — С. 943-9.
Kogadeeva 02:45, 4 декабря 2010 (MSK)