Материал из MachineLearning.
< Участник:EvgSokolov(Различия между версиями)
|
|
(26 промежуточных версий не показаны.) |
Строка 1: |
Строка 1: |
- | == LESN (Low End Signal is Noise) ==
| |
- | Данный метод основывается на двух принципах: фоновая поправка должна сохранять порядок интенсивностей проб и наименьшим интенсивностям должна соответствовать наибольшая поправка<ref name="bolstad04analysis">Bolstad, B. M. (2004). Low-level Analysis of High-density Oligonucleotide Array Data: Background, Normalization and Summarization. Analysis. UNIVERSITY OF CALIFORNIA, BERKELEY.</ref>.
| |
| | | |
- | Обозначим через <tex>p_{min}</tex> наименьшее значение интенсивности пробы на чипе.
| |
- | Пусть <tex>w(P)</tex> - невозрастающая весовая функция, принимающая значения из <tex>[0, 1]</tex> и такая, что <tex>w(p_{min}) = 1</tex>.
| |
- | Тогда если <tex>P_i</tex> - интенсивность <tex>i</tex>-й пробы, то поправка вычисляется по следующей формуле:
| |
- | ::<tex>P_i' = P_i - w(P_i)(p_{min} - p_0)</tex>
| |
- | Здесь <tex>p_0</tex> - некоторая маленькая константа, необходимая для того, чтобы интенсивности не обращались в ноль.
| |
- |
| |
- | В качестве весовой функции предлагается использовать экспоненциальную или гауссову:
| |
- | ::<tex>w_E(P) = exp(- \frac{P - p_{min}}{\theta})</tex>
| |
- |
| |
- | ::<tex>w_G(P) = exp(- \frac{(P - p_{min})^2}{\theta^2})</tex>.
| |
- |
| |
- | Отметим, что авторы рекомендуют перед вычислением поправок перейти к логарифмической шкале.
| |
Текущая версия