24. Линейная регрессия

Линейная регрессия является простейшим видом регрессии. Классическим алгоритмом линейной регрессии является метод наименьших квадратов. В котором критерием является минимизация суммы квадратов отклонений аппроксимирующей функции от заданных точек:

.

Существуют и другие алгоритмы определения коэффициентов линейной регрессии – метод медиан.

В общем виде аппроксимирующею функцию можно представить как . Задачей линейной регрессии является вычисление параметров a и b. Для этого в MathCad существует ряд встроенных функций (где VX, VY – вектора узловых точек):

1. corr(VX, VY) – возврящает скаляр – коэффициент корреляции Пирсона. Чем ближе коэффициент к 1 тем точнее исходная зависимость приближается к линейной;

2. intercept(VX, VY) – возвращает значение параметра а (свободный член) рассчитанного методом наименьших квадратов;

3. slope(VX, VY) – определяет значение параметра b (угловой коэффициент) рассчитанного методом наименьших квадратов;

4. line(VX, VY) – [MathCAD 2000] возвращает вектор первый элемент которого параметр а, второй b рассчитанные по методу наименьших квадратов;

5. medfit(VX, VY) – [MathCAD 2000] возвращает вектор первый элемент которого параметр а, второй b рассчитанные по методу медиан.

Как видно из примера при аппроксимации линейной регрессией прямая проходит через "облако" точек.


Используя встроенные функции можно рассчитывать регрессию не только для линейных, но и для экспоненциальных функций . Для этого f(x) с помощью логарифмирования по натуральному основанию приводится к линейной. Рассчитанный коэффициент а, полученный в логарифмической форме, затем пересчитывается.


© 2011-2024 Контрольные работы по математике и другим предметам!