Вычисление второй производной по одной переменной

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
Строка 107: Строка 107:
::<tex>\min(R_k+r_k)=Ch_0^p \left( 1+\frac{p}{k} \right) =O\left(\delta^{\frac{p}{p+k}} \right) </tex>.
::<tex>\min(R_k+r_k)=Ch_0^p \left( 1+\frac{p}{k} \right) =O\left(\delta^{\frac{p}{p+k}} \right) </tex>.
-
Меньший шаг невыгоден, а меньшая погрешность, вообще говоря, недостижима (хотя отдельные вычисления случайно окажутся более точными, но мы не сможем этого узнать). Эта минимальная ошиюка тем менее, чем меньше погрешность входных данных и порядок вычисляемой производной и чем выше порядок точности формулы.
+
Меньший шаг невыгоден, а меньшая погрешность, вообще говоря, недостижима (хотя отдельные вычисления случайно окажутся более точными, но мы не сможем этого узнать). Эта минимальная ошибка тем менее, чем меньше погрешность входных данных и порядок вычисляемой производной и чем выше порядок точности формулы.
Очевидно, при <tex>\delta y(x)\to 0</tex> можно получить сколь угодно высокую точность результата, если шаг стремится к нулю, будучи всегда не менее <tex>h_0(\delta)</tex>. Но если допустить <tex>h<h_0(\delta)</tex>, то результат предельного перехода может быть неправильным.
Очевидно, при <tex>\delta y(x)\to 0</tex> можно получить сколь угодно высокую точность результата, если шаг стремится к нулю, будучи всегда не менее <tex>h_0(\delta)</tex>. Но если допустить <tex>h<h_0(\delta)</tex>, то результат предельного перехода может быть неправильным.
-
Эта тонкость связана с некорректностью задачи дифференцирования. Рассмотрим погрешность входных данных вида <tex>\delta y(x)= m^{-1}\sin (m^2 x)</tex>. Она приводит к погрешности первой производной <tex>\delta y'(x) = m \cos (m^2 x)</tex>. При <tex>m \to \infty</tex> погрешность функции в <tex> \| \cdot \|_c </tex> неограниченно убывает, а погрешность производной в той же норме неограниченно растет. Значит, нет непрерывной зависимости производной от функции, то есть дифференцирование некорректно. Особенно сильно это сказывается при нахождении производных высокого порядка.
+
Эта тонкость связана с некорректностью задачи дифференцирования. Рассмотрим погрешность входных данных вида <tex>\delta y(x)= m^{-1}\sin (m^2 x)</tex>. Она приводит к погрешности первой производной <tex>\delta y'(x) = m \cos (m^2 x)</tex>. При <tex>m \to \infty</tex> погрешность функции неограниченно убывает, а погрешность производной в той же норме неограниченно растет. Значит, нет непрерывной зависимости производной от функции, то есть дифференцирование некорректно. Особенно сильно это сказывается при нахождении производных высокого порядка.
Изложенный выше способ определения оптимального шага и запрещение вести расчет шагом меньше оптимального есть некоторый способ регуляризации дифференцирования, так называемая регуляризация по шагу.
Изложенный выше способ определения оптимального шага и запрещение вести расчет шагом меньше оптимального есть некоторый способ регуляризации дифференцирования, так называемая регуляризация по шагу.
Строка 118: Строка 118:
== Числовые примеры ==
== Числовые примеры ==
-
# Пример приведен в качестве иллюстрации некорректности задачи численного дифференцирования. Вторая производная функции <tex>y(x)=x^4</tex> в точке <tex>x=1</tex> была вычислена с разными значениями шага <tex>h</tex> по формулам {{eqref|6}} и {{eqref|7}}. Полученный результат сравнивается с вычисленным аналитически значением производной: <tex> y''(x)|_{x=1}=12x^2|_{x=1}=12</tex>. Результаты приведены в таблице.
+
=== Пример 1 ===
-
 
+
Пример приведен в качестве иллюстрации некорректности задачи численного дифференцирования. Вторая производная функции <tex>y(x)=x^4</tex> в точке <tex>x=1</tex> была вычислена с разными значениями шага <tex>h</tex> по формулам {{eqref|6}} и {{eqref|7}}. Полученный результат сравнивается с вычисленным аналитически значением производной: <tex> y''(x)|_{x=1}=12x^2|_{x=1}=12</tex>. Результаты приведены в таблице.
-
{| border=1
+
::{| border=1
-
!Значение <tex>h</tex>|| Результат формулы {{eqref|6}}|| Относительная ошибка {{eqref|6}}||Результат формулы {{eqref|7}}|| Относительная ошибка {{eqref|7}}
+
! Значение <tex>h</tex>|| Результат формулы {{eqref|6}}|| Относительная ошибка {{eqref|6}}||Результат формулы {{eqref|7}}|| Относительная ошибка {{eqref|7}}
|-
|-
| 1e-2 || 12.0002 || 1.7e-5 || 12 || 2e-15
| 1e-2 || 12.0002 || 1.7e-5 || 12 || 2e-15
Строка 133: Строка 133:
| 1e-9 || 444 || 0.97 || 666 || 0.98
| 1e-9 || 444 || 0.97 || 666 || 0.98
|}
|}
 +
Вычисления проводились в стандартном типе [http://en.wikipedia.org/wiki/Double_precision double] (позволяет хранить 15 значащих десятичных цифр) языка [http://ru.wikipedia.org/wiki/C%2B%2B C++].
-
Вычисления проводились в стандартном типе [http://en.wikipedia.org/wiki/Double_precision double] языка [http://ru.wikipedia.org/wiki/C%2B%2B C++].
 
Видно, что при слишком малом шаге полученные значения неадекватны.
Видно, что при слишком малом шаге полученные значения неадекватны.
 +
=== Пример 2 ===
 +
Этот пример иллюстрирует то, что при выборе оптимального шага, соответсвующего теоретическим выкладкам, получаются неплохие результаты.
 +
 +
::{| border=1
 +
! width=55%|Анализируемая функция
 +
| width=15%|<tex>x^4</tex>
 +
| width=15%|<tex>e^x</tex>
 +
| width=15%|<tex>\sin x</tex>
 +
|-
 +
!Точка анализа
 +
| 1
 +
| 7
 +
| 0
 +
|-
 +
!Значение второй производной
 +
| 12
 +
| 1096.6331584
 +
| 0
 +
|-
 +
!Результат метода {{eqref|6}}
 +
| 12.0000002
 +
| 1096.6335
 +
| -1.8e-13
 +
|-
 +
!Выбранный шаг метода {{eqref|6}}
 +
| 0.00032
 +
| 0.0018
 +
| 0.0046
 +
|-
 +
!Теоретическая ошибка метода {{eqref|6}}
 +
| 4e-7
 +
| 0.014
 +
| 4e-7
 +
|-
 +
! Реальная ошибка метода {{eqref|6}}
 +
| 2e-7
 +
| 0.0003
 +
| 1.8e-13
 +
|-
 +
!Результат метода {{eqref|7}}
 +
| 12.00000000
 +
| 1096.6331578
 +
| 3e-14
 +
|-
 +
!Выбранный шаг метода {{eqref|7}}
 +
| 0.0046
 +
| 0.015
 +
| 0.0046
 +
|-
 +
!Теоретическая ошибка метода {{eqref|7}}
 +
| 3e-8
 +
| 0.003
 +
| 3e-8
 +
|-
 +
!Реальная ошибка метода {{eqref|7}}
 +
| 1.6e-11
 +
| 6e-7
 +
| 3e-14
 +
|}
 +
 +
Оба метода дают хорошую точность, не превосходящую теоретические оценки.
 +
 +
Сравнивая работу двух метотов вычисления производной, можно заметить, что второй из них получает ответ с большей точностью при меньшем шаге. Это соответсвует теоретическим выкладкам.
== Рекомендации программисту ==
== Рекомендации программисту ==
 +
 +
При программировании не стоит забывать что полученные оценки погрешности и шага {{eqref|8}} зависят от оценок значений функции и производных соответсвующих порядков. Поэтому константа в асимтотической оценке может быть достаточно большая (в реализации автора - это произведение суммы коэффициентов формул {{eqref|6}} или {{eqref|7}} и значения функции в исследуемой точке).
 +
== Заключение ==
== Заключение ==
 +
В данном отчете получены теоретически и проверены практически два метода вычисления второй производной по одной переменной ({{eqref|6}} и {{eqref|7}} ).
 +
И теоретические выкладки, и эксперименты показывают, что вопрос выбора шага - очень важный. Для его разрешения можно взять оптимальный шаг {{eqref|8}}.
 +
 +
Экспериментально подтверждено, что оба метода дают неплохие результаты и могу быть использованы при практическом вычислении второй производной по одной переменной.
 +
== Ссылки ==
== Ссылки ==
* [[Практикум ММП ВМК, 4й курс, осень 2008|Практикум ММП ВМК, 4й курс, осень 2008]]
* [[Практикум ММП ВМК, 4й курс, осень 2008|Практикум ММП ВМК, 4й курс, осень 2008]]
 +
* [[Media:DeriveExample1.zip| Код примеров 1 и 2, ZIP [3Кб]]]
== Список литературы ==
== Список литературы ==
* ''А.А.Самарский, А.В.Гулин.''&nbsp; Численные методы. Москва «Наука», 1989.
* ''А.А.Самарский, А.В.Гулин.''&nbsp; Численные методы. Москва «Наука», 1989.

Версия 16:57, 18 октября 2008

Содержание

Введение

Постановка математической задачи

Допустим, что в некоторой точке x у функции y(x) существует производная 2-го порядка y''(x), которую точно вычислить либо не удается, либо слишком сложно. В этом случае для приближенного нахождения производной функции требуется использовать методы численного дифференцирования.

Изложение метода

Полиномиальные формулы

При численном дифференцировании функцию y(x) аппроксимируют легко вычисляемой функцией \varphi(x) и приближенно полагают y^{(k)}(x)\approx\varphi^{(k)}(x). При этом можно использовать различные способы аппроксимации. Рассмотрим простейший случай - аппроксимацию интерполяционным многочленом Ньютона. Вводя обозначение \xi_i=x-x_i, запишем это многочлен и продифференцируем его почленно:

\varphi(x)=y(x_0)+\xi_0 y(x_0,x_1)+\xi_0\xi_1 y(x_0,x_1,x_2) + \xi_0\xi_1\xi_2  y(x_0,x_1,x_2,x_3)+\dots
\varphi'(x)=y(x_0,x_1)+(\xi_0+\xi_1) y(x_0,x_1,x_2) + (\xi_0\xi_1+\xi_0\xi_2 +\xi_1\xi_2) y(x_0,x_1,x_2,x_3)+\dots
\varphi''(x)=2 y(x_0,x_1,x_2) + 2(\xi_0+\xi_1 +\xi_2) y(x_0,x_1,x_2,x_3)+\dots

Общая формула примет следующий вид:

( 1 )
 \varphi^{(k)}(x)=k!\left[ y(x_0,x_1,\dots,x_k) + \left( \sum_{i=0}^k \xi_i \right) y(x_0,x_1,\dots,x_{k+1}) + \left( \sum_{i>j\geq 0}^{i=k+1}\xi_i\xi_j\right)y(x_0,x_1,\dots,x_{k+2})   + \left( \sum_{i>j>l\geq 0}^{i=k+2}\xi_i\xi_j\xi_l\right)y(x_0,x_1,\dots,x_{k+3}) +\dots\right]

Здесь y(x_0,x_1,\dots,x_k) - разделенные разности.

Обрывая ряд на некотором числе членов, получим приближенное выражение для соответсвующей производной. Наиболее простые выражения получим, оставляя в формуле (1) только первый член:

y'(x)\approx y(x_0,x_1) = \frac{y(x_0)-y(x_1)}{x_0-x_1},
( 2 )
\frac{1}{2}y''(x)\approx y(x_0,x_1,x_2) = \frac{1}{x_0-x_2}\left( \frac{y_0-y_1}{x_0-x_1}- \frac{y_1-y_2}{x_1-x_2}\right),
\frac{1}{k!} y^{(k)}(x) \approx y(x_0,x_1,\dots,x_k) = \sum_{p=0}^{k}y_p \prod_{i=0, i\neq p}^k {(x_p-x_i)}^{-1}

Исследование точности полученных выражений при численных расчетах удобно делать при помощи апостериорной оценки, по скорости убывания членов ряда (1). Если шаг сетки достаточно мал, то погрешность близка к первому отброшенному члену. Пусть мы используем узлы x_i, i=1\dots n. Тогда первый отброшенный член содержит разделенную разность y(x_0,x_1,\dots,x_{n+1}), которая согласно (2) примерно равна y^{(n+1)}(x)/(n+1)!. Перед ней стоит сумма произведений различных множителей \xi_i ; каждое произведение содержит n+1-k множителей, а вся сумма состоит из C_{n+1}^k слагаемых. Отсюда следует оценка погрешности формулы (1) с  n+1 узлами:

(3)
R_n^{(k)}\leq\frac{M_{n+1}}{(n+1-k)!}\max_i {|\xi_i|}^{n+1-k},\; M_{n+1}=\max{|y^{(n+1)}|}

В частности, если сетка равномерная, то M_{n+1}=\max{|\xi_i|}\leq nh, откуда

(4)
R_n^{(k)}<M_{n+1} {\left( \frac{en}{n+1-k}h \right)}^{n+1-k}=O(h^{n+1-k}) .

Стоит заметить, что строгое априорное исследование погрешности формулы (1), аналогичное выводу остаточного члена многочлена Ньютона в форме Коши, для произвольного расположения узлов приводит к той же оценке (3).

Таким образом, порядок точности формулы (1) по отношению к шагу сетки равен числу оставленных в ней членов, или, что то же самое, он равен числу узлов интерполяции минус порядок производной. Поэтому минимальное число узлов, необходимое для вычисления k-й производной, равно k+1; оно приводит к формулам (2) и обеспечивает первый порядок точности. Эти выводы соответсвуют общему принципу: при почленном дифференцировании ряда скорость его сходимости уменьшается.

Простейшие формулы

Чаще всего используются равномерные сетки, на которых вид формул (1) заметно упрощается, а точность нередко повышается.

Рассмотрим сначала причину повышения точности. Остаточный член общей формулы (1) - это чногочлен \sum\prod(x-x_i) степени n+1-k относительно x. Если x равен корню этого многочлена, то главный остаточный член обращается в нуль, то есть в этой точке формула имеет порядок точности на еденицу больше, чем согласно оценке (4). Эти точки повышенной точности будем обозначать x_k^{(p)}, где k - порядок производной, а p=n+1-k - число оставленных в формуле (1) членов. Очевидно, p-членная формула имеет p точек повышенной точности.

У одночленной формулы (2) для k-й производной точка повышенной точности на произвольной сетке определяется учловием \sum \xi_i=\sum(x-x
_i)=0, что дает

(5)
x_k^{(1)}=(x_0+x_1+\dots+x_k)/(k+1);

в этой точке одночленная формула имеет погрешность O(h^2) вместо обычной O(h). Для двучленной формулы задача нахождения точек повышенной точности приводит к квадратному уравнению, корни которого действительны, но формула для их нахождения громоздка. Если p>2, то найти точки повышенной точности очень сложно, за исключением одного частного случая, который мы сейчас и рассмотрим.

Утверждение. Пусть p нечетно, а узлы в формуле (2) выбраны так, что они расположены симметрично относительно точки x; тогда x является одной из точек повышенной точности x_k^{(p)}.

Доказательство. В самом деле, при этом величины \xi_i=x-x_i имеюи попарно равные абсолютные величины, но противоположные знаки. В остаточном члене множитель w=\sum\prod\xi_i имеет нечетную степень, и при одномерном изменении знаков всех \xi_iон должен изменить знак. Но поскольку одновременное изменение знаков \xi_i сводится при таком расположении узлов лишь к перемене их нумерации, то величина w должна сохраниться, что возможно только при w=0. Утверждение доказано.

Замечание. Число узлов предполагалось произвольным; очевидно, симметричное расположение узлов относительно точки x_k^{(n)} означает, что при нечетном числе узлов точка x_k^{(p)} совпадает с центральным узлом, а при четном - лежит между средними узлами.

На произвольной сетке условие симметрии реализуется только в исключительных случаях. Но если сетка равномерна, то каждый ее узел симметрично окружен соседними узлами. Это позволяется составить несложные формулы хорошей точности для вычисления производных в узлах сетки.

Например, возьмем три соседний узла x_0, x_1 и x_2. и вычислим первую и вторую производную в среднем узле. Выражая в одночленных формулах (2) разделенные разности через узловые значения функции, легко получим:

y'(x_1)=(y_2-y_0)/2h+O(h_2),\; h=x_{i+1}-x_i=const,\; y_i=y(x_i),
(6)
y''(x_1)=(y_2-2y_1+y_0)/h^2+O(h^2).

Аналогично можно вывести формулы более высокого порядка или для более выслких производных. Например, формула для второй производной в центральной точке по пяти узлам:

(7)
y''(x_2)=(-y_4+16y_3-30y_2+16y_1-y_0)/(12h^2)+O(h^4)

Заметим, что формулы (6) и (7) написаны для случая равномерной сетки; применение их на неравномерной сетке приведет к грубой ошибке.

На равномерной сетке для априоной оценки точности формул часто применяют способ разложения по формуле Тейлора-Макрорена. Предположим, например, что функция y(x) имеет непрерыную четвертую производную, и выразим значения функции в узлах x_{i\pm 1} через значиния функции и ее производных в центре симметрии узлов (в данном случае этим центром является узел x_i):

y(x_{i\pm 1})=y(x_i \pm h)= y_i \pm h y_i'+\frac{1}{2}h^2 y_i'' \pm \frac{1}{6}h^3 y_i''' + \frac{1}{24}h^4 y^{(4)}(\eta_\pm),

где \eta_{+} - некая точка интервала (x_i, x_{i+1}), а \eta_{-} - некоторая точка итервала (x_{i-1},x_i). Подставляя эти разложения во вторую разность, стоящую в правой части формулы (6) для второй производной имеем:

\frac{1}{h^2}(y_{i+1}-2y_i+y_{i-1})=y_i''+\frac{h^2}{24}[y^{(4)}(\eta_{+})+y^{(4)}(\eta_{-})]= y_i'' +O(h^2) .

Это подтверждает ранее сделанную оценку и уточняет величину остаточного члена, который оказался равен h^2y^{(4)}(\eta)/12. Такой способ получения остаточного члена проще, чем непосредственное вычисление по формуле (1).

Регуляризация дифференцирования

Рис.1
Рис.1

При численном дифференцированиии приходится вычитать друг из друга близкие значения функций. Это приводит к уничтожению первых значащих цифр, то есть к потере части достоверных знаков чила. Если значения функции известны с малой точностью, то встает вопрос - останется ли в ответе хотя один достоверный знак?

Для ответа на этот вопрос исследуем ошибки при численном дифференцировании. При интерполировании обобщенным многочленом производная k-го порядка определяется согласно (2), (3) формулой типа

y^{(k)}(x)=h^{-k}\sum_q C_q(x)y(x_q) +R_k(x).\; C_q(x)=O(1).

Если формула имеет порядок точности p, то, значит, ее остаточный член равен R_k(x)\approx C(x)h^p. Этот остаточный член определяет погрешность метода, и он неограниченно убывает при h\to 0. Его зависимость от шага изображена на рис.1 жирной линией.

Но есть еще неустарнимая погрешность, связанная с погрешностью функции \delta y(x). Поскольку точный вид этой погрешности неизвестен, можно оценить только мажоранту неустранимой погрешности r_k=\delta*h^{-k}\sum_q|C_q|; она неограниченно возрастает при h \to 0 (тонкая линия на рис.1). Фактически же неустранимая погрешность будет нерегулярно зависеть от величины шага, беспорядочно осцилируя в границах, определяемых мажорантой (точки на рис.1).

Пока шаг достаточно велик, при его убывании неустранимая погрешность мала по сравнению с погрешностью метода; поэтому полная погрешность убывает. При дальнейшем уменьшении шага неустранимая погрешность становится заметной, что проявляется в не вполне регулярной зависимости результатов вычислений от величины шага. Наконец, при достаточно малом шаге неустранимая погрешность становится преобладающей, и при дальнейшем уменьшении шага результат вычислений становится все меньше достоверным.

Полная погрешность мажорируется суммой R_k+r_k (штриховая кривая на рис.1). Оптимальным будет шаг, соответсвующий этой кривой. Нетрудно подсчитать, что

(8)
h_0(\delta)={\left( \frac{k\delta \sum|C_q|}{pC} \right)}^{\frac{1}{p+k}}=O(\delta^{\frac{1}{p+k}}).
\min(R_k+r_k)=Ch_0^p \left( 1+\frac{p}{k} \right) =O\left(\delta^{\frac{p}{p+k}} \right) .

Меньший шаг невыгоден, а меньшая погрешность, вообще говоря, недостижима (хотя отдельные вычисления случайно окажутся более точными, но мы не сможем этого узнать). Эта минимальная ошибка тем менее, чем меньше погрешность входных данных и порядок вычисляемой производной и чем выше порядок точности формулы.

Очевидно, при \delta y(x)\to 0 можно получить сколь угодно высокую точность результата, если шаг стремится к нулю, будучи всегда не менее h_0(\delta). Но если допустить h<h_0(\delta), то результат предельного перехода может быть неправильным.

Эта тонкость связана с некорректностью задачи дифференцирования. Рассмотрим погрешность входных данных вида \delta y(x)= m^{-1}\sin (m^2 x). Она приводит к погрешности первой производной \delta y'(x) = m \cos (m^2 x). При m \to \infty погрешность функции неограниченно убывает, а погрешность производной в той же норме неограниченно растет. Значит, нет непрерывной зависимости производной от функции, то есть дифференцирование некорректно. Особенно сильно это сказывается при нахождении производных высокого порядка.

Изложенный выше способ определения оптимального шага и запрещение вести расчет шагом меньше оптимального есть некоторый способ регуляризации дифференцирования, так называемая регуляризация по шагу.

Стоит заметить, что с ростом p, количества узлов в сетке для вычисления производных, константы C_q и C в формулах (8) повышаются, поэтому увеличение p разумно лишь в определенных пределах.

Числовые примеры

Пример 1

Пример приведен в качестве иллюстрации некорректности задачи численного дифференцирования. Вторая производная функции y(x)=x^4 в точке x=1 была вычислена с разными значениями шага h по формулам (6) и (7). Полученный результат сравнивается с вычисленным аналитически значением производной:  y''(x)|_{x=1}=12x^2|_{x=1}=12. Результаты приведены в таблице.

Значение h Результат формулы (6) Относительная ошибка (6)Результат формулы (7) Относительная ошибка (7)
1e-2 12.0002 1.7e-5 12 2e-15
1e-4 12.0000001 1.7e-9 12 4e-11
1e-6 11.9997 2.2e-5 11.9994 5e-5
1e-8 6.66 0.8 4.6 1.6
1e-9 444 0.97 666 0.98

Вычисления проводились в стандартном типе double (позволяет хранить 15 значащих десятичных цифр) языка C++.

Видно, что при слишком малом шаге полученные значения неадекватны.

Пример 2

Этот пример иллюстрирует то, что при выборе оптимального шага, соответсвующего теоретическим выкладкам, получаются неплохие результаты.

Анализируемая функция x^4 e^x \sin x
Точка анализа 1 7 0
Значение второй производной 12 1096.6331584 0
Результат метода (6) 12.0000002 1096.6335 -1.8e-13
Выбранный шаг метода (6) 0.00032 0.0018 0.0046
Теоретическая ошибка метода (6) 4e-7 0.014 4e-7
Реальная ошибка метода (6) 2e-7 0.0003 1.8e-13
Результат метода (7) 12.00000000 1096.6331578 3e-14
Выбранный шаг метода (7) 0.0046 0.015 0.0046
Теоретическая ошибка метода (7) 3e-8 0.003 3e-8
Реальная ошибка метода (7) 1.6e-11 6e-7 3e-14

Оба метода дают хорошую точность, не превосходящую теоретические оценки.

Сравнивая работу двух метотов вычисления производной, можно заметить, что второй из них получает ответ с большей точностью при меньшем шаге. Это соответсвует теоретическим выкладкам.

Рекомендации программисту

При программировании не стоит забывать что полученные оценки погрешности и шага (8) зависят от оценок значений функции и производных соответсвующих порядков. Поэтому константа в асимтотической оценке может быть достаточно большая (в реализации автора - это произведение суммы коэффициентов формул (6) или (7) и значения функции в исследуемой точке).

Заключение

В данном отчете получены теоретически и проверены практически два метода вычисления второй производной по одной переменной ((6) и (7) ). И теоретические выкладки, и эксперименты показывают, что вопрос выбора шага - очень важный. Для его разрешения можно взять оптимальный шаг (8).

Экспериментально подтверждено, что оба метода дают неплохие результаты и могу быть использованы при практическом вычислении второй производной по одной переменной.

Ссылки

Список литературы

  • А.А.Самарский, А.В.Гулин.  Численные методы. Москва «Наука», 1989.
  • Н.С.Бахвалов, Н.П.Жидков, Г.М.Кобельков.  Численные методы. Лаборатория Базовых Знаний, 2003.
  • Н.Н.Калиткин.  Численные методы. Москва «Наука», 1978.


Личные инструменты