Математические методы прогнозирования/Осень 2022

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Lab 309)
Текущая версия (20:03, 14 февраля 2023) (править) (отменить)
(Continous-time models)
 
(19 промежуточных версий не показаны.)
Строка 369: Строка 369:
The datasets for any lab work (if it is not specified) are 1) synthetic, are generated from the explicit solution of some differential equation, 2) from existing datasets, but not too long, 3) the self-made measurements are welcome. All of us have accelerometer, microphone, photo-video camera in the mobile phone.
The datasets for any lab work (if it is not specified) are 1) synthetic, are generated from the explicit solution of some differential equation, 2) from existing datasets, but not too long, 3) the self-made measurements are welcome. All of us have accelerometer, microphone, photo-video camera in the mobile phone.
-
====References====
+
* Latent ODEs for Irregularly-Sampled Time Series [https://arxiv.org/abs/1907.03907 text][https://github.com/YuliaRubanova/latent_ode Code Rubanova]
 +
* Replacing Neural Networks with Black-Box ODE Solvers [https://www.cs.toronto.edu/~duvenaud/talks/ode-talk-google.pdf slides Rubanova]
 +
* Neural Controlled Differential Equations for Irregular Time Series [https://arxiv.org/pdf/2005.08926.pdf text][https://github.com/patrick-kidger/NeuralCDE code Kridger] see [https://www.youtube.com/watch?v=TGfGiBhDEi0 his video]
 +
* Go with the Flow: Adaptive Control for Neural ODEs [https://hal.archives-ouvertes.fr/hal-03311766/document paper Mathieu Chalvidal]
* Neural Ordinary Differential Equations by Ricky T. Q. Chen, Yulia Rubanova, Jesse Bettencourt, David K. Duvenaud // NeurIPS 2018 [https://arxiv.org/pdf/1806.07366.pdf]
* Neural Ordinary Differential Equations by Ricky T. Q. Chen, Yulia Rubanova, Jesse Bettencourt, David K. Duvenaud // NeurIPS 2018 [https://arxiv.org/pdf/1806.07366.pdf]
* Learning neural event functions for ordinary differential equations by Ricky T. Q. Chen, Brandon Amos, Maximilian Nickel // ICLR 2021, arXiv:2011.03902v4
* Learning neural event functions for ordinary differential equations by Ricky T. Q. Chen, Brandon Amos, Maximilian Nickel // ICLR 2021, arXiv:2011.03902v4
Строка 376: Строка 379:
* How To Train Your Neural ODE ChrisFinlay et al. [https://www.researchgate.net/profile/Levon-Nurbekyan/publication/339139726_How_to_train_your_neural_ODE/links/5e93a7ed299bf13079945d07/How-to-train-your-neural-ODE.pdf] or [http://proceedings.mlr.press/v119/finlay20a.html]
* How To Train Your Neural ODE ChrisFinlay et al. [https://www.researchgate.net/profile/Levon-Nurbekyan/publication/339139726_How_to_train_your_neural_ODE/links/5e93a7ed299bf13079945d07/How-to-train-your-neural-ODE.pdf] or [http://proceedings.mlr.press/v119/finlay20a.html]
-
====Code====
+
===Neural Controlled DE===
 +
* [https://www.youtube.com/watch?v=sbcIKugElZ4 Explained by Patrick Kidger] and [https://github.com/patrick-kidger/NeuralCDE his code]
 +
* Neural Controlled Differential Equations for Online Prediction Tasks by James Morrill, Patrick Kidger, Lingyi Yang, Terry Lyons, 2021 [https://arxiv.org/pdf/2106.11028.pdf] and [https://github.com/jambo6/online-neural-cdes code]
 +
* Forecasting the outcome of spintronic experiments with Neural Ordinary Differential Equations by Xing Chen, Flavio Abreu Araujo, Mathieu Riou, Jacob Torrejon, Dafiné Ravelosona, Wang Kang, Weisheng Zhao, Julie Grollier & Damien Querlioz, 2022 [https://www.nature.com/articles/s41467-022-28571-7 Nature], [https://www.nature.com/articles/s41467-022-28571-7 PDF]
 +
* [https://papertalk.org/papertalks/9864 collection] Neural Controlled Differential Equations for Irregular Time Series by Patrick Kidger, James Morrill, James Foster, Terry Lyons, 2020
 +
* Continuous-Time Modeling of Counterfactual Outcomes Using Neural Controlled Differential Equations by Nabeel Seedat, Fergus Imrie, Alexis Bellot, Zhaozhi Qian, Mihaela van der Schaar, 2022 [https://arxiv.org/pdf/2206.08311]
 +
* Attentive Neural Controlled Differential Equations for Time-series Classification and Forecasting by Sheo Yon Jhin, Heejoo Shin, Seoyoung Hong, Solhee Park, Noseong Park, 2021 [https://arxiv.org/pdf/2109.01876]
 +
* Graph Neural Controlled Differential Equations for Traffic Forecasting by Jeongwhan Choi, Hwangyong Choi, Jeehyun Hwang, Noseong Park, 2021 [https://arxiv.org/pdf/2112.03558]
 +
* Implicit energy regularization of neural ordinary-differential-equation control by Lucas Böttcher, Nino Antulov-Fantulin, Thomas Asikis, 2021 [https://arxiv.org/pdf/2103.06525.pdf]
 +
 
 +
===Code===
* PyTorch Implementation of Differentiable ODE Solvers by Ricky Chen [https://github.com/rtqichen/torchdiffeq]
* PyTorch Implementation of Differentiable ODE Solvers by Ricky Chen [https://github.com/rtqichen/torchdiffeq]
 +
* Neural Controlled Differential Equations for Irregular Time Series by Patrick Kidger [https://github.com/patrick-kidger/NeuralCDE]
* A PyTorch library dedicated to neural differential equations and implicit models (the simplest implement, 100 lines). Maintained by DiffEqML [https://github.com/DiffEqML/torchdyn]
* A PyTorch library dedicated to neural differential equations and implicit models (the simplest implement, 100 lines). Maintained by DiffEqML [https://github.com/DiffEqML/torchdyn]
* Neural Ordinary Differential Equations by Mikhail Surtsukov [https://github.com/msurtsukov/neural-ode/blob/master/Neural%20ODEs%20(Russian).ipynb (Russian explanation)]
* Neural Ordinary Differential Equations by Mikhail Surtsukov [https://github.com/msurtsukov/neural-ode/blob/master/Neural%20ODEs%20(Russian).ipynb (Russian explanation)]
Строка 564: Строка 578:
*[[Математические методы прогнозирования (лекции, В.В. Стрижов)/Группы 674, 774, весна 2021]]. (Взять лабы и материалы)
*[[Математические методы прогнозирования (лекции, В.В. Стрижов)/Группы 674, 774, весна 2021]]. (Взять лабы и материалы)
*[[Математические методы прогнозирования (лекции, А.В. Грабовой, В.В. Стрижов)/Осень 2021]] (Взять материалы без лаб)
*[[Математические методы прогнозирования (лекции, А.В. Грабовой, В.В. Стрижов)/Осень 2021]] (Взять материалы без лаб)
 +
 +
 +
==Organizational part==
 +
Preparing to Lab Series III
 +
 +
Motivation
 +
* The basic goal is to reduce programming time and boost quality of the code.
 +
* The long-term goal is to make more complex experiments.
 +
 +
Organization part
 +
Ensure:
 +
# The author has right to pack external code to the library.
 +
# The author shows contribution as the code creator, assembler, and experimenter.
 +
# The author’s upload is shareable. Other students can use it.
 +
 +
Todo:
 +
# Find a proper source code for the Lab 301-310.
 +
# Make an example from an existing student work.
 +
# Set a page with list of examples.
 +
# Publish a simple manual how to pack a lab-work into the library.
 +
 +
==Topics to discuss==
 +
* What are the criterions for criterions index selection?
 +
* Can we rotate the time as a tensor index?
 +
* Can we count multi periodicity as a multi-index and HO-SVD?
 +
* Why we need to reduce the dimensionality?
 +
* How to sample the case trajectory by sliding and random windows?
 +
* Time series or a spectrogram (time or frequency domain)?
 +
* What is the difference between SVD, PLS, CCA?
 +
* CCM between two phase trajectories with various number of indexes?
 +
* How to detect a phase of the quasi periodic signal?
 +
* How the tensor product and SVD are connected?
 +
* How to align the indexes in HOPLS?
 +
* How to detect are the time-stamps regular or not?
 +
* Is the linearity of time important for the convolution?

Текущая версия

Each tuesday 16:10 at the channel m1p.org/go_zoom

Содержание

Ведущие Алина Самохина, Денис Тихонов, Святослав Панченко

Короткая ссылка bit.ly/3QAOYPd

Mathematical forecasting

This course delivers methods of model selection in machine learning and forecasting. The modelling data are videos, audios, encephalograms, fMRIs and another measurements in natural science. The models are linear, tensor, deep neural networks, and neural ODEs. The practical examples are brain-computer interfaces, weather forecasting and various spatial-time series forecasting. The lab works are organised as paper-with-code reports.

Schedule

  • [Sep] 6-s1, 13-s2, 20-s3, 27-s4 – lab 1
  • [Oct] 4, 14, 18, 25 – lab 2, 3
  • [Nov] 1s7, 8, 15, 22, 29 – lab 3, 4
  • [Dec] 6, 13 exam

playlist 2022-2023 2021-2022

Discussion and course page

Lab works

Lab work contains report in the notebook and talk with discussion

  1. Title and motivated abstract
  2. Problem statement
  3. Model, problem solution
  4. Code, analysis and illustrative plots
  5. References

Note: the model (and sometimes data) are personal. The rest – infrastructure, error functions, plots, are welcome to be created collectively and shared.

Topics of the lab works are

  • Autoregressive forecasting (Singular Structure Analysis)
  • Spatial-time forecasting (Tensor Decomposition)
  • Signal decoding (Projection to Latent Space)
  • Continuous-time forecasting (Neural Differential Equations)

Exam and grading

Four lab works within deadlines and the exam on topics with problems and discussion.

Each lab gives 2.5pt, all_labs = 10

The exam gives 10pt, final mark=(all_labs + exam) / 2

Terminology and list of notations

See PhD thesis by Roman Isachenko See also

Lecture topics

  • Energy forecasting example
  • Regression
  • Linear model
  • Model selection call
  • Forecasting protocol
  • Error functions
  • Singular spectrum analysis
  • SSA forecasting
  • Forecasting protocols and verification (before AR)
  • Autoregression
  • Singular values decomposition (PCA, AE, Kar-Lo)
  • QPFS model selection
  • Auto, cross-correlation, cointegration
  • Diagrams for ML and PLS
  • Projection to latent space and relation to PCA, canonical-correlation analysis
  • PLS-QPFS model selection
  • Higher-order SSA
  • Tensor decomposition
  • Tensor model selection
  • HOPLS
  • Granger causality test
  • Convergent cross mapping
  • HOCCM to invent
  • Taken’s theorem
  • ResNet, Neural ODE
  • Adjoint and back-propagation
  • Flows and forecasting
  • Space state models
  • S4, Hippo, SaShiMi models
  • (if room) Neural PDE, Lagrangian, Hamiltonian nns.

\\ To include

  • RNN, LSTM, attention, transformer models
  • Directional regression
  • Harmonic functions
  • Phase extraction
  • Non-parametric regression and customer demands forecasting
  • Graph earth prediction

Format of the lab works

  1. Create a .pynb or .py file Surname2022Lab in the folder
  2. The report also could be in the .tex file.
  3. Find the format of your report above.
  4. The computational experiment contains common part and individual part.
  5. Common part:
    1. use four short sample set [airplane], [electricity], [accelerometer hand motion], [video hand motion],
    2. prepare the design matrix and target a scalar/vector for each time sample (in the form time, vecx, vecy),
    3. set the forecast horizon, plot the forecast and estimate the error.
  6. Individual part:
    1. select a lab work and specify your model (you can adopt any code available for),
    2. tune parameters, make your forecast according the horizon,
    3. write the report.
  7. Error analysis is a part of the report:
  8. plot of the forecast,
  9. MAPE error (and your optimization error, if available) and its standard deviation,
  10. prove your model has the optimal structure, try various structure parameters.

Details:

  1. time refers to each sample (in unix or any useful format),
  2. the horizon is an expected fundamental period,
  3. note that the historical time ends before the forecasting period, it means we could use either historical data or the forecasted data (the historical data are not updated after history ends),
  4. the forecasting protocol is in parer, text, slides by Nikita Uvarov.

Examples:

  1. Old format of the report
  2. Code and project
  3. Previous project from Sourceforge.net

Lab work series I

Autoregression models

  1. Time series (collection of examples)
  2. Time series and datasets collection
  3. Временной ряд
  4. Прогнозирование ежедневных цен на электроэнергию (отчет)
  5. Daily electricity price forecasting (report), Example
  6. Прогнозирование временных рядов методом SSA (пример)
  7. Многомерная гусеница, выбор длины и числа компонент гусеницы (пример)
  8. Прогнозирование функциями дискретного аргумента (пример)
  9. Численные методы обучения по прецедентам (практика, В.В. Стрижов)/Группа 874, весна 2011
  10. Руководство исследовательскими проектами (практика, В.В. Стрижов)
  11. Выделение периодической компоненты временного ряда (пример)
  12. Сравнение временных рядов при авторегрессионном прогнозе (пример)
  13. Прогнозирование финансовых пузырей (пример)
  14. Прогнозирование объемов продаж групп товаров (отчет)
  15. Долгосрочное прогнозирование ежедневных цен на электроэнергию (пример)
  16. Обнаружение жизненного цикла товаров (отчет)
  17. Непараметрическая регрессия
  18. Непараметрическая регрессия: ядерное сглаживание

Lab 101 Kernel smoothing

Метод ядерного сглаживания временного ряда, как один из видов непараметрической регрессии. Он восстанавливает функцию времени взвешенной линейной комбинацией точек из некоторой окрестности. Непрерывную ограниченную симметричную вещественную весовую функцию называют ядром. Полученная ядерная оценка используется для прогнозирования следующей точки ряда. Исследуется зависимость качества прогнозирования от параметров ядра и наложенного шума см. Хардле. Select an optimal kernel to forecast a point of a phase trajectory in multivariate time series. Example

Lab 102 Exponential smoothing

Алгоритм экспоненциального сглаживания для прогнозирования временных рядов. Он учитывает предыдущие значения ряда с весами, убывающими по мере удаления от исследуемого участка временного ряда. Изучить поведение алгоритма на модельных данных в различных моделях весов. Проанализировать работу алгоритма на биржевых индексах. Select points of phase trajectory to smooth. Модели экспоненциального сглаживания:

  1. Модель Брауна — экспоненциальное сглаживание
  2. Модель Хольта — учитываются линейный тренд без сезонности
  3. Модель Хольта-Уинтерса — учитываются мультипликативный тренд и сезонность
  4. Модель Тейла-Вейджа — учитываются аддитивный тренд и сезонность
  5. Модель Тригга-Лича — следящий контрольный сигнал используется для адаптации параметров адаптации
  6. Сезонность

Example

Lab 103 Local forecasting

Временной ряд делится на отдельные участки, каждому из которых сопоставляется точка в n-мерном пространстве признаков. Локальная модель рассчитывается в три последовательных этапа. Первый – находит k-ближайших соседей наблюдаемой точки. Второй – строит простую модель, используя только этих k соседей. Третий – используя данную модель, по наблюдаемой точке прогнозирует следующую. Многие исследователи, используют эвклидову метрику для измерения расстояний между точками. Данная работа призвана сравнить точность прогнозирования при использовании различных метрик, в первую очередь Махаланобиса. В частности, требуется исследовать оптимальный набор весов во взвешенной метрике для максимизации точности прогнозирования. Example

Lab 103a Local forecasting with invariants

Find invariant translation in time (linear or non-linear) and in phase space (shift and scale). В проекте используются локальные методы прогнозирования временных рядов. В этих методах не находится представления временного ряда в классе заданных функций от времени. Вместо этого прогноз осуществляется на основе данных о каком-то участке временного ряда (используется локальная информация). В данной работе подробно исследован следующий метод (обобщение классического «ближайшего соседа»).

Пусть имеется временной ряд, и стоит задача продолжить его. Предполагается, что такое продолжение определяется предысторией, т.е. в ряде нужно найти часть, которая после некоторого преобразования A становится схожа с той частью, которую мы стремимся прогнозировать. Поиск такого преобразования A и есть цель данного проекта. Для определения степени сходства используется функция B – функция близости двух отрезков временного ряда (подробнее об этом см. здесь). Так мы находим ближайшего соседа к нашей предыстории. В общем случае ищем несколько ближайших соседей. Продолжение запишется в виде их линейной комбинации.

Lab 104 Singular spectrum analysis

В работе описывается метод гусеницы и его применение для прогнозирования временных рядов. Алгоритм основан на выделении из изучаемого временного ряда его информативных компонент и последующего построения прогноза. Исследуется зависимость точности прогнозов от выбора длины гусеницы и числа ее компонент. В вычислительном эксперименте приводятся результаты работы алгоритма на периодических рядах с разным рисунком внутри периода, на рядах с нарушением периодичности, а так же на реальных рядах почасовой температуры.

(Old variant Метод содержит четыре этапа - представление временного ряда в виде матрицы при помощи сдвиговой процедуры, вычисление ковариационной матрицы выборки и сингулярное ее разложение, отбор главных компонент,относящихся к различным составляющим ряда (от медленно меняющихся и периодических до шумовых), и, наконец, восстановление ряда. Областью применения алгоритма являются задачи как метеорологии и геофизики, так и экономики и медицины. Целью данной работы является выяснение зависимости эффективности алгоритма от выбора временных рядов, используемых в его работе.) Example, Example, Example

Lab 104a Singular spectrum analysis

Forecast a multivariate series, the target time series are subset of the design.

Lab 105 Simple neural network

Forecast a (multivariate) time series with 2-NN. Find the optimal number of neurons. (Old variant Исследование зависимости качества прогнозирования нейронными сетями без обратной связи (одно- и многослойными перцептронами) от выбранной функции активации нейронов в сети, а также от параметров этой функции. Результат – оценка качества прогнозирования нейронными сетями в зависимости от типа и параметров функции активации.) Example, Example

Lab 106 ARIMA

Find the optimal p,d,q. ARIMA model examples [1] , [2] , [3] , [4] , [5] !!!!!! , [6] , [7] , [8] , [9] , [10]. Example

Lab 106a GARCH

Plot the forecast and error(t).

Lab 107 Vector autoregression

Forecast a multivariate time series. Find an optimal structure of VAR-model.

Lab 108 Discrete functions to forecast MIDI

Прогнозирование музыкальных произведений. Прогнозирование функциями дискретного аргумента (пример) В работе исследуются короткие временные ряды на примере монофонических музыкальных мелодий. Происходит прогнозирование одной ноты экспоненциальным сглаживанием, локальным методом, а также методом поиска постоянных закономерностей. Вычислительный эксперимент проводится на двух мелодиях, одна из которых имеет точно повторяющиеся фрагменты. Example

Lab 109 Spline approximation and forecasting

The description and code is here.

Lab 110: SVN–regression and forecasting

Use a linear model with or without kernel trick with quadratic or SVN error function.

Lab 111: Flexible Least Squares

Example

Lab 112: Event forecasting

Event and change-point forecasting models Example

Lab 106b: Histogram forecasting

Example and error correction (Uvarov's paper)

RESUME of Lab series I

Golden rules of forecasting

  1. The forecast horizon is a segment in the time-scale (there is no one-point forecast).
  2. Multivariate time series only (there are no single-variate ones). Sometimes the time series are spatial.

Lab Series II

Tensor low-rank approximation

  1. Коренев, Г.В. Тензорное исчисление, 2000, 240 с., lib.mipt.ru.
  2.  Roger Penrose, "Applications of negative dimensional tensors," in Combinatorial Mathematics and its Applications, Academic Press (1971). See Vladimir Turaev, Quantum invariants of knots and 3-manifolds (1994), De Gruyter, p. 71 for a brief commentary PDF.
  3. Tai-Danae Bradley, At the Interface of Algebra and Statistics, 2020, ArXiv.
  4. Oseledets, I.V. Tensor-Train Decomposition //SIAM Journal on Scientific Computing, 2011, 33(5): 2295–2317, DOI, RG, lecture, GitHub, Tutoiral.
  5. Wikipedia: SVD, Multilinear subspace learning, HOSVD.
  6. Seminar 4 in 2021
  7. HOTTBOX: Higher Order Tensors ToolBOX is the entrance point
  8. TensorLy: Fast & Simple Tensor Learning In Python
  9. Tensor Toolbox for MATLAB
  10. Examples and links 2021
  11. AlphaTensor by DeepMind explained

Lab 201

Tensor approximation. Approximate the 2, 3 and 4 index matrices using low-rank decompositions, linear and nonlinear. The data sets are: a picture, a short animation movie (basic variant), a sound spectrogram, an fMRI. Plot the sequence of data approximations with ranks 1,..,n. Plot the error: x-axis is the rank, y-axis is the approximation error. Plot the variance of the error for various samples of data, if possible.

  • Code [Tucker, PARAFAC-CANDECOMP, Tensor-train, and variants]
  • Data sets [Cartoon, Sound, fMRI, and variants]

Lab 202

PCA on higher orders. Construct a linear map of pairwise distance matrix to a space of lower dimensionality and plot the data. There are two possibilities: high-rank dimensional reduction and order reduction. If you could demonstrate the order reduction, it would be great. The pictures are appreciated.

  • Code [Tucker, Tensor-train, and variants]
  • Data sets [Cartoon, Sound, fMRI, and variants]

Lab 203

Three-dimensional image reconstruction. Use sinograms of the computed tomography scans. Show the sequential approximation like in the lab work 1 with plots.

  • Code [linear and NN]
  • Data [Sinogram to fMRI]

Lab 204

Formalize the set of low-rank approximation quality criterions (for multilinear operators with pseudo-inverses): precision, stability, computational complexity. Compare the decomposition methods from hottbox.

  • Code [Hottbox]
  • Data [Synthetic data with a simple visual/geometric visualization, like TF logo]

Lab 205

Construct a phase trajectory of a spatial time series (a video, cartoon) and make a forecast with the higher order singular structure analysis.

  • Code [SSA, HOSVD]
  • Data [Cartoon with a walking hero]

Lab 206

Construct two phase trajectories of spatial time series and discover a casualty with the higher order convergent cross mapping.

  • Code [CCM, HOSVD]
  • Data [Cartoon with a walking hero]

Lab 207

Reduction an index on the tensor representation of the data, along with dimensionality reduction. The data is synthetic video, in more than 4D space, visualised by 3D projections.

  • Code [HOSVD, HOPCA]
  • Data [Synthetic 4D+ video]

Lab 208

Higher order spectra analysis versus (higher order) Fourier transform on six-dimensional gyrokinetic data. Reduce number of indexes in tensor data.

  • Code [HOSVD]
  • Data [Gyrokinetic data 10.1016/j.jcp.2012.02.007]

Lab 209

Combine higher-order PLS with CCN to predict eye-movement.

  • Code [HOPLS]
  • Data [Systhesic video and eye-movement]

Lab 210

Higher order PLS for multiway data

  • Code [HOPLS]
  • Data [Accelerometer under various conditions to predict gyro data]

Lab 211

Tensor caterpillar (see paper)

  • Code [HOSSA]
  • Data [Energy] cut with two or three periodics

RESUME of Lab series II

Golden rules of forecasting

  1. The periods, frequencies, spaces, and all cartesian-product-dependencies, which could be represented as multi-way matrix, must be represented like that.
  2. The number of ways must be optimal.

Lab Series III

This series goes to the BCI-ML library. You have to upload an algorithm in py and its usage in (pynb) along with the example data. The series require the data from IMU: accelerometer and gyroscope. These data must acquire some periodic activity from one of more sensors with common time. Examples:

  • two phones in a pocket of a walking person,
  • two phones in a pocket and an opposite hand of a walking person,
  • phones in pockets of several dancing persons.

For some tasks the the time series must be splitted in-phase or randomly in a set of segments. For some tasks the trajectory matrix is the main object to model.

Each set of time series includes three components (x,y,z) for accelerometer and for gyroscope.

Lab 301

Use IMU time series. Cut randomly one or two periods from time-series data (x,y,z of accelerometer) to make a segment. Collect a set of the segments. Variate sizes are welcome. Make the pairwise DTW alignment. Plot the results. Suggest a model of a linear path of minimum cost with a free time-ending (use weighted distance). W-DTW, paper,paper, toolbox, PwC.

Lab 302

Use IMU time series. Cut in-phase one or two periods from time-series data (x,y,z of accelerometer) to make a set of segments. Find the barycenter using DBA algorithm. Plot the result. W-DTW, paper,paper, toolbox, PwC-hard.

Lab 303

Reconstruct the phase of a time series. The Nadaraya-Watson algorithm is basic. For a quasi-periodic stationary time series make its phase trajectory. Recover regression for each sample of the phase. Show the convergence along the time. Plot the time series and its phase.

Basic code by Denis Tikhonov. See also example

Lab 304

Reconstruct the directional regression pynb, txt. Use IMU time series for walking. Basic code by Denis Tikhonov, Karina Usmanova.

Lab 306

Reconstruct the spherical regression. Use IMU time series for walking. Basic code by Denis Tikhonov.

Lab 307

Detect if two time series describe one dynamic system. There given two time series, accelerometers and gyroscopes of two dancers (waltz preferred). Show that these two persons are a single dynamic system. Convergence cross-mapping. text. Basic code by Denis Tikhonov.

Lab 308

Granger test: if the forecasting error decrease after the model appends new time series, consider previous and new time series related. Show that accelerations of two hands of a walking persons are related. W, paper, p. 51

Lab 309

A person walks with two phones. One in a hand and the other in the opposite pocket. The problem is to forecast the hand movement with the pocket movement only. W PLS, W CCA, paper Roman Isachenko. Ask for the PLS code.

Lab 309a

Run the QPFS model selection algorithms to find an optimal subset of the model components.

Lab 310

There given a low-resolution video of a pendulum as the source. And two time series, angle and acceleration, of this pendulum as the target. Given a point of the phase trajectory in the source space (4-way matrix), we have to forecast the angle and acceleration of the pendulum. See HOPLS, text. Ask for code.

Lab 311

SEMOR, the self-modeling regression is the reminder of the umbrella alignment in the latent, analysed space of the sinal decoding model. We analyse

  1. Granger, causality
  2. CCM, relation
  3. DTW, DBA, time-alignment
  4. SEMOR itself, scale-alignment
  5. PLS, dimensionality alignment
  6. HOPLS, index alignment

in this space. The reason for analysis of prepared data is the high complexity of the time-series data. So the test of causality and relation should be run in some subspace.

Since SEMOR itself looks trivial, while the whole list looks sophisticated, there is no lab work for this item.



Lab works, Series IV

Continous-time models

The datasets for any lab work (if it is not specified) are 1) synthetic, are generated from the explicit solution of some differential equation, 2) from existing datasets, but not too long, 3) the self-made measurements are welcome. All of us have accelerometer, microphone, photo-video camera in the mobile phone.

  • Latent ODEs for Irregularly-Sampled Time Series textCode Rubanova
  • Replacing Neural Networks with Black-Box ODE Solvers slides Rubanova
  • Neural Controlled Differential Equations for Irregular Time Series textcode Kridger see his video
  • Go with the Flow: Adaptive Control for Neural ODEs paper Mathieu Chalvidal
  • Neural Ordinary Differential Equations by Ricky T. Q. Chen, Yulia Rubanova, Jesse Bettencourt, David K. Duvenaud // NeurIPS 2018 [11]
  • Learning neural event functions for ordinary differential equations by Ricky T. Q. Chen, Brandon Amos, Maximilian Nickel // ICLR 2021, arXiv:2011.03902v4
  • Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs by Talgat Daulbaev, Alexandr Katrutsa, Larisa Markeeva, Julia Gusak, Andrzej Cichocki, Ivan Oseledets // 2020, arXiv:2003.05271v2
  • Dynamical Systems with Applications using Python by Stephen Lynch, 2018
  • How To Train Your Neural ODE ChrisFinlay et al. [12] or [13]

Neural Controlled DE

  • Explained by Patrick Kidger and his code
  • Neural Controlled Differential Equations for Online Prediction Tasks by James Morrill, Patrick Kidger, Lingyi Yang, Terry Lyons, 2021 [14] and code
  • Forecasting the outcome of spintronic experiments with Neural Ordinary Differential Equations by Xing Chen, Flavio Abreu Araujo, Mathieu Riou, Jacob Torrejon, Dafiné Ravelosona, Wang Kang, Weisheng Zhao, Julie Grollier & Damien Querlioz, 2022 Nature, PDF
  • collection Neural Controlled Differential Equations for Irregular Time Series by Patrick Kidger, James Morrill, James Foster, Terry Lyons, 2020
  • Continuous-Time Modeling of Counterfactual Outcomes Using Neural Controlled Differential Equations by Nabeel Seedat, Fergus Imrie, Alexis Bellot, Zhaozhi Qian, Mihaela van der Schaar, 2022 [15]
  • Attentive Neural Controlled Differential Equations for Time-series Classification and Forecasting by Sheo Yon Jhin, Heejoo Shin, Seoyoung Hong, Solhee Park, Noseong Park, 2021 [16]
  • Graph Neural Controlled Differential Equations for Traffic Forecasting by Jeongwhan Choi, Hwangyong Choi, Jeehyun Hwang, Noseong Park, 2021 [17]
  • Implicit energy regularization of neural ordinary-differential-equation control by Lucas Böttcher, Nino Antulov-Fantulin, Thomas Asikis, 2021 [18]

Code

  • PyTorch Implementation of Differentiable ODE Solvers by Ricky Chen [19]
  • Neural Controlled Differential Equations for Irregular Time Series by Patrick Kidger [20]
  • A PyTorch library dedicated to neural differential equations and implicit models (the simplest implement, 100 lines). Maintained by DiffEqML [21]
  • Neural Ordinary Differential Equations by Mikhail Surtsukov (Russian explanation)
  • Meta-Solver for Neural Ordinary Differential Equations by Julia Gusak [22], [23]
  • Neural ODE Processes code paper
  • PyTorch Implementation of Differentiable ODE Solvers [github.com/rtqichen/torchdiffeq]
  • Jupyter notebook with Pytorch implementation of Neural Ordinary Differential Equations [github.com/msurtsukov/neural-ode]
  • DiffEqFlux.jl – A Julia Library for Neural Differential Equations Julia [24]

Lab 401

Plot the direction field and approximation by ODE-Net near the special points for simple ODEs like y’=y/x (uniform/узел), y’=-y/x saddle, y’=-x/y center, y’=(x+y)/(x-y) spiral.

Lab 402

Plot the stable and unstable phase portraits and approximations for simple ODE.

Lab 403

Find the ODE and plot the solution and ODE-Net approximation to compare and show difference between ODEsolvers: Euler, RK4 and others.

Lab 404

Approximate and plot the electricity consumption time series. Compare the ODE-Net and LSTM or another model you like.

Lab 405

Plot and approximate by ODE-Net the phase portrait of a pendulum with decay.

Lab 405a

Plot and approximate the phase portrait of coupled pendula.

Lab 406

Approximate an accelerometer (walking time series) by a solution of the pendulum ODE.

Lab 406a

Approximate an accelerometer by a solution of the double-pendulum ODE.

Lab 406b

Approximate an accelerometer and a gyroscope (acceleration and velocity) by a solution of the pendulum ODE.

Lab 407

Lorentz attractor, three ODEs. Compare the forecast LSTM (or any model you like) how it differs from the forecast ODE-Net under different initial conditions and under different noise conditions. An option is to immerse the trajectory in a space of a higher dimension by random rotation.

Lab 408

LSTM и ODE-RNN от от Алины Самохиной раздел 2.2.2, только вместо EEG для упрощения временные ряды потребления электроэнергии.

Lab 409

Compare generated and forecaster electricity electricity consumption consumption time series, see section 5 the arXiv:1806.07366v5 and the [ code]

Lab 410

Re-run the normalizing flows from the paper for various examples and analyse properties.

Exam questions

See the course plan above

Ссылки на материалы курса

Тема Ссылка
Вероятностные прогностические модели Стрижов В.В. Функция ошибки в задачах восстановления регрессии // Заводская лаборатория. Диагностика материалов, 2013, 79(5) : 65-73.
Порождение вероятностных моделей Strijov V.V., Krymova E.A., Weber G.W. Evidence optimization for consequently generated models // Mathematical and Computer Modelling, 2013, 57(1-2) : 50-56.
Оценка гиперпараметров вероятностных моделей Kuznetsov M.P., Tokmakova A.A., Strijov V.V. Analytic and stochastic methods of structure parameter estimation // Informatica, 2016, 27(3) : 607-624.
Проблема мультиколлинеарности в задачах прогнозирования Katrutsa A.M., Strijov V.V. Stresstest procedure for feature selection algorithms // Chemometrics and Intelligent Laboratory Systems, 2015, 142 : 172-183.
Выбор признаков и метод Белсли Нейчев Р.Г., Катруца А.М., Стрижов В.В. Выбор оптимального набора признаков из мультикоррелирующего множества в задаче прогнозирования // Заводская лаборатория. Диагностика материалов, 2016, 82(3) : 68-74.
Квадратичное программирование для выбора признаков Katrutsa A.M., Strijov V.V. Comprehensive study of feature selection methods to solve multicollinearity problem according to evaluation criteria // Expert Systems with Applications, 2017, 76 : 1-11.
Авторегрессионное прогнозирование и метод Гусеница (Singular spectrum analysis) Сандуляну Л.Н., Стрижов В.В. Выбор признаков в авторегрессионных задачах прогнозирования // Информационные технологии, 2012, 7 : 11-15.
Прогнозирование сигналов носимых устройств Карасиков М.Е., Стрижов В.В. Классификация временных рядов в пространстве параметров порождающих моделей // Информатика и ее применения, 2016, 10(4) : 121-131.
Выбор прогностических моделей сигналов носимых устройств Карасиков М.Е., Стрижов В.В. Классификация временных рядов в пространстве параметров порождающих моделей // Информатика и ее применения, 2016, 10(4) : 121-131.

Усманова К.Р., Стрижов В.В. Обнаружение зависимостей во временных рядах в задачах построения прогностических моделей // Системы и средства информатики, 2019, 29(2) : 12-30.

Не вошло в материалы (сферическая регрессия в аппроксимации фазовых траекторий) Usmanova K.R., Zhuravev K.V., Rudakov K.V., Strijov V.V. Approximation of quasiperiodic signal phase trajectory using directional regression // Computational Mathematics and Cybernetics, 2020.
Метод частичных наименьших квадратов и канонический корреляционый анализ Isachenko R.V., Vladimirova M.R., Strijov V.V. Dimensionality reduction for time series decoding and forecasting problems // DEStech Transactions on Computer Science and Engineering, 2018, 27349 : 286-296.
Метод частичных наименьших квадратов (нелинейный вариант) Isachenko R.V., Strijov V.V. Quadratic Programming Optimization with Feature Selection for Non-linear Models // Lobachevskii Journal of Mathematics, 2018, 39(9) : 1179-1187.
Построение моделей нейроинтерфейсов Motrenko A.P., Strijov V.V. Multi-way feature selection for ECoG-based brain-computer interface // Expert Systems with Applications, 2018, 114(30) : 402-413.
Прогнозирование волатильности опционных торгов (прикладной проект) Стрижов В.В., Сологуб Р.А. Индуктивное порождение регрессионных моделей предполагаемой волатильности для опционных торгов // Вычислительные технологии, 2009, 14(5) : 102-113.
Сравнение прогностических моделей Уваров Н.Д., Кузнецов М.П., Малькова А.С., Рудаков К.В., Стрижов В.В. Выбор суперпозиции моделей при прогнозировании грузовых железнодорожных перевозок // Вестник Московского университета. Серия 15. Вычислительная математика и кибернетика, 2018, 4 : 41-48.


Выбор моделей в задачах декодирования

  1. Katrutsa A.M., Strijov V.V. Stresstest procedure for feature selection algorithms // Chemometrics and Intelligent Laboratory Systems, 2015, 142 : 172-183.
  2. Katrutsa A.M., Strijov V.V. Comprehensive study of feature selection methods to solve multicollinearity problem according to evaluation criteria // Expert Systems with Applications, 2017, 76 : 1-11.
  3. Isachenko R.V., Vladimirova M.R., Strijov V.V. Dimensionality reduction for time series decoding and forecasting problems // DEStech Transactions on Computer Science and Engineering, 2018, 27349 : 286-296.
  4. [Isachenko R.A., Strijov V.V. Quadratic programming feature selection for multicorrelated signal decoding with partial least squares // Submitted, 2021.]

Построение моделей нейроинтерфейсов

  1. Motrenko A.P., Strijov V.V. Multi-way feature selection for ECoG-based brain-computer interface // Expert Systems with Applications, 2018, 114(30) : 402-413.
  2. Мотренко А.П. Выбор моделей прогнозирования мультикоррелирующих временных рядов (научный руководитель В.В. Стрижов). Московский физико-технический институт, 2019.
  3. Яушев Ф.Ю., Исаченко Р.В., Стрижов В.В. Модели согласования скрытого пространства в задаче прогнозирования // Системы и средства информатики, 2021, 31(1). 

Прогнозирование волатильности опционов

  1. Karsten Ehrig, Ulrike Prange, Gabriele Taentzer, Hartmut Ehrig. Fundamentals of Algebraic Graph Transformation, 2006.
  2. Сологуб Р.А. Алгоритмы индуктивного порождения и трансформации моделей в задачах нелинейной регрессии, 2014.
  3. Kulunchakov A.S., Strijov V.V. Generation of simple structured Information Retrieval functions by genetic algorithm without stagnation // Expert Systems with Applications, 2017, 85 : 221-230.
  4. Стрижов В.В., Сологуб Р.А. Индуктивное порождение регрессионных моделей предполагаемой волатильности для опционных торгов // Вычислительные технологии, 2009, 14(5) : 102-113.
  5. Рудой Г.И., Стрижов В.В. Алгоритмы индуктивного порождения суперпозиций для аппроксимации измеряемых данных // Информатика и её применения, 2013, 7(1) : 17-26.

Выравнивание DTW

параметрическое и непараметрическое, поиск центроидов временных рядов

  1. Исаченко Р.В., Стрижов В.В. Метрическое обучение в задачах многоклассовой классификации временных рядов // Информатика и ее применения, 2016, 10(2) : 48-57.
  2. Гончаров А.В., Стрижов В.В. Выравнивание декартовых произведении упорядоченных множеств // Информатика и ее применения, 2020, 14(1) : 31-39.
  3. Гончаров А.В., Стрижов В.В. Метрическая классификация временных рядов со взвешенным выравниванием относительно центроидов классов // Информатика и ее применения, 2016, 10(2) : 36-47.
  4. Гончаров А.В., Попова М.С., Стрижов В.В. Метрическая классификация временных рядов с выравниванием относительно центроидов классов // Системы и средства информатики, 2015, 25(4) : 52-64.
  5. Goncharov A.V., Strijov V.V. Analysis of dissimilarity set between time series // Computational Mathematics and Modeling, 2018, 29(3) : 359-366.
  6. Goncharov A.V., Strijov V.V. Continuous time series alignment in human actions recognition // Artificial Intelligence and Natural Language and Information Extraction, Social Media and Web Search FRUCT Conference proceedings // AINL FRUCT: Artificial Intelligence and Natural Language Conference, 2016 : 83-86.

Задачи локального прогнозирования

  1. Карасиков М.Е., Стрижов В.В. Классификация временных рядов в пространстве параметров порождающих моделей // Информатика и ее применения, 2016, 10(4) : 121-131.
  2. Isachenko R.V., Bochkarev А.М., Zharikov I.N., Strijov V.V. Feature generation for physical activity classification // Artificial Intelligence and Decision Making, 2018, 3 : 20-27.
  3. Isachenko R.V., Vladimirova M.R., Strijov V.V. Dimensionality reduction for time series decoding and forecasting problems // DEStech Transactions on Computer Science and Engineering, 2018, 27349 : 286-296.
  4. Isachenko R.V., Strijov V.V. Quadratic Programming Optimization with Feature Selection for Non-linear Models // Lobachevskii Journal of Mathematics, 2018, 39(9) : 1179-1187. 

Рейтинги

Прогнозирование элементов частично-упорядоченных множеств

  1. Слайды
  2. Stenina M.M., Kuznetsov M.P., Strijov V.V. Ordinal classification using Pareto fronts // Expert Systems with Applications, 2015, 42(14) : 5947–5953.
  3. Kuznetsov M.P., Strijov V.V. Methods of expert estimations concordance for integral quality estimation // Expert Systems with Applications, 2014, 41(4-2) : 1988-1996.
  4. Кузнецов М.П. Построение моделей обучения по предпочтениям с использованием порядковых экспертных оценок, 2016.

Вероятностные модели

  1. Стрижов В.В. Функция ошибки в задачах восстановления регрессии // Заводская лаборатория. Диагностика материалов, 2013, 79(5) : 65-73.
  2. Strijov V.V., Krymova E.A., Weber G.W. Evidence optimization for consequently generated models // Mathematical and Computer Modelling, 2013, 57(1-2) : 50-56.
  3. Kuznetsov M.P., Tokmakova A.A., Strijov V.V. Analytic and stochastic methods of structure parameter estimation // Informatica, 2016, 27(3) : 607-624.

Youtube video

Видео-канал

  1. Л1: Анализ ошибки и вероятностные модели
  2. Л2: Примеры прогностических моделей и вероятностная интерпретация
  3. Л3: Свертка и фазовая траектория
  4. Л4: Авторегрессионные модели и учет ошибки
  5. Л5: Динамическое выравнивание, локальное прогнозирование
  6. Л6: Метод проекции в скрытые пространства PLS

Ковариационный анализ

  1. Ковариационный анализ
  2. Canonical correlation
  3. Cross-covariance matrix
  4. Причинность по Грейнджеру

ACF: автокорреляционная функция

Коррелограмма

  1. Autocorrelation
  2. Autocorrelation Matrix
  3. FPCA illustration
  4. An Example of ACF in Two Dimensions
  5. Effect of Windowing Function on Autocorrelation Function
  6. Sample ACF and Properties of AR(1) Model
  7. 2.8 Autocorrelation
  8. Autocorrelation Function of Exponential Sequence
  9. Fast way reduce noise of autocorrelation function in python?

References

Main and supplimentary



Organizational part

Preparing to Lab Series III

Motivation

  • The basic goal is to reduce programming time and boost quality of the code.
  • The long-term goal is to make more complex experiments.

Organization part Ensure:

  1. The author has right to pack external code to the library.
  2. The author shows contribution as the code creator, assembler, and experimenter.
  3. The author’s upload is shareable. Other students can use it.

Todo:

  1. Find a proper source code for the Lab 301-310.
  2. Make an example from an existing student work.
  3. Set a page with list of examples.
  4. Publish a simple manual how to pack a lab-work into the library.

Topics to discuss

  • What are the criterions for criterions index selection?
  • Can we rotate the time as a tensor index?
  • Can we count multi periodicity as a multi-index and HO-SVD?
  • Why we need to reduce the dimensionality?
  • How to sample the case trajectory by sliding and random windows?
  • Time series or a spectrogram (time or frequency domain)?
  • What is the difference between SVD, PLS, CCA?
  • CCM between two phase trajectories with various number of indexes?
  • How to detect a phase of the quasi periodic signal?
  • How the tensor product and SVD are connected?
  • How to align the indexes in HOPLS?
  • How to detect are the time-stamps regular or not?
  • Is the linearity of time important for the convolution?
Личные инструменты