1.5. Погрешность вычисления функции

Основная задача теории погрешности заключается в следующем: с какой точностью можно найти значение функции Y=f(X1*, x2*,…, xn*), если аргументы XI* Известны с некоторой точностью. И обратная задача: с какой точностью надо задать значения аргументов функции, чтобы погрешность функции не превосходила заданной величины? Решение таких задач опираются на теорему Лагранжа, согласно которой предельная абсолютная погрешность функции равна произведению абсолютной величины ее производной на предельную абсолютную погрешность аргумента D(F*)=|F ’|D(X*). Если задана дифференцируемая функция Y= f(X1, x2,…, xn) и ее приближенное значение Y*= f(X1*, x2*,…, xn*), где Xi - Точные значения аргументов функции, а Xi* – приближенные к ним, и пусть D(Xi*) (I=1,2,…,n) абсолютные погрешности аргументов функции.

Определение. Предельной абсолютной погрешностью функции А(Y*) называют наилучшую при имеющейся информации оценку погрешности величины Y*= f(X1*+D(X1*), x2+D(X2*) , …, xn+D(Xn*) ),

Т. е. А(Y*)=Sup| F(X1, X2,…, Xn)- F(X1*, X2*,…, Xn*)|.

Линейная оценка погрешности функции записывается в виде:

.

Разделив обе части неравенства на y*, будем иметь оценку для Предельной относительной погрешности функции D (Y*):

=D(Y*).

© 2011-2024 Контрольные работы по математике и другим предметам!