При изучении какого-то явления или процесса очень часто необходимо узнать, существует ли взаимосвязь между факторами (переменными величинами) и функцией отклика (зависимой величиной), и насколько тесным является их взаимодействие. Сделать это позволяет регрессионный анализ, который выполняется в несколько этапов.

Одним из основных этапов регрессионного анализа является вычисление математической зависимости между факторами и функцией отклика, которая позволяет количественно оценить существующую между ними взаимосвязь. Эта зависимость получила название уравнение регрессии. Формально основным аналитическим методом определения указанного уравнения считается метод наименьших квадратов, так как данный метод оптимален и позволяет сгладить точки корреляционного поля. На практике же найти такую функцию бывает достаточно сложно, так как приходится опираться на теоретические знания об изучаемом явлении, на опыт своих предшественников в данной научной области или с помощью метода «проб и ошибок» производить простой перебор и оценку различных функций. В случае успеха будет получено уравнение регрессии, позволяющее адекватно оценить воздействие различных факторов на функцию отклика, то есть найти ожидаемое значение функции отклика (зависимой переменной) при определенных значениях факторов (зависимых переменных).


В качестве исходных данных для регрессионного анализа используются значения фактора x и соответствующее им значение функции отклика Y, полученные при проведение экспериментальной части работы. Для наглядности и более удобного восприятия данные значения представляются в табличной форме.

Линейное уравнение регрессии, как правило, имеет следующий вид Y=a+b∙X. В него входит постоянный коэффициент (константа) a, и коэффициент регрессии (угловой коэффициент) b, умножаемый на значение переменного фактора Х. Коэффициент b показывает среднее изменение функции отклика при изменении значения фактора на одну единицу. При построении графика уравнения регрессии с помощью коэффициента b можно также определить угол наклона прямой к линии абсцисс. Стоит отметить, что данный коэффициент имеет определенные свойства:

· b может принимать различные значения;

· b не симметричен, то есть меняет свое значения в случае изучения влияния Y на X;

· единицей измерения коэффициента корреляции является отношение единицы измерения функции отклика Y к единице измерения переменных факторов X;


· в случае изменения единиц измерения переменных X и Y значение коэффициента регрессии также меняется.

В большинстве случаев наблюдаемые значения редко располагаются точно на прямой. Практически всегда можно наблюдать некоторый разброс экспериментальных данных относительно регрессионной прямой, которую образую предсказанные значения. Отклонение отдельной точки от линии регрессии от ее теоретического или предсказанного значения называется остатком.

Очень часто на практике определяется выборочное уравнение регрессии, основным методом вычисления значений коэффициентов которого является метод наименьших квадратов. Коэффициенты рассчитываются по исходным данным, представляющим выборку значений переменного фактора и функции отклика.

На первый взгляд может показаться, что вычисление значение коэффициентов, входящих в уравнение регрессии достаточно сложное и трудоемкое. Но это не так. К услугам исследователей представлены многочисленные пакеты прикладных программ (самым простым является Microsoft Excel), которые по вашим исходным данным не только рассчитают все входящие в уравнение коэффициенты, смогут установить степень взаимосвязи между переменными и зависимыми величинами, но представят полученные значения в графическом виде.

Уравнение, которое описывает теоретическую линию регрессии называют уравнением регрессии.

Уравнение регрессии

гдеf(x)какая-то неизвестная функция, а


Уравнение регрессии – средняя величина признака, которая изменяется.

f(x) – функция, которая устанавливает вид однозначной зависимости между этими величинами – это расчетные теоретические значения.

Наиболее часто используются следующие типовые функции: линейная Уравнение регрессии

параболическая связь Уравнение регрессии и другие.

Наиболее часто применяется линейная зависимость: Уравнение регрессии , где а0 – свободный член, а1 – коэффициент регрессии, который указывает на сколько единиц в среднем меняется результативный признак при изменении факторного значения на единицу его измерения.

В математической статистике доказано, что

Уравнение регрессии т.е. дает совпадение в сумме: Уравнение регрессии

Используя критерий минимизации можно получить значения неизвестных, коэффициент уравнения регрессии:

Система нормальных уравнений:

Уравнение регрессии

и, соответственно расчет коэффициента регрессии a1 и свободного члена a0:

Уравнение регрессии


При использовании других типовых функций образуются иные системы нормальных уравнений, для которых определены значения искомых параметров.

Решив уравнение регрессии и получив коэффициент уравнения, их необходимо проверить на неслучайность, т.е. статистическую значимость.

Уравнение регрессии выражает среднюю величину одного признака как функцию другого.

Функция регрессии — это модель вида у = л», где у — зависимая переменная (результативный признак); х — независимая, или объясняющая, переменная (признак-фактор).

Линия регрессии — график функции у = f (x).

2 типа взаимосвязей между х и у:

1) может быть неизвестно, какая из двух переменных является независимой, а какая — зависимой, переменные равноправны, это взаимосвязь корреляционного типа;

2) если х и у неравноправны и одна из них рассматривается как объясняющая (независимая) переменная, а другая — как зависимая, то это взаимосвязь регрессионного типа.

Виды регрессий:

1) гиперболическая — регрессия равносторонней гиперболы: у = а + b / х + Е;

2) линейная — регрессия, применяемая в статистике в виде четкой экономической интерпретации ее параметров: у = а+b*х+Е;

3) логарифмически линейная— регрессия вида: In у = In а + b * In x + In E


4) множественная — регрессия между переменными у и х1 , х2xm, т. е. модель вида: у = f(х1 , х2xm)+E, где у — зависимая переменная (результативный признак), х1 , х2xm — независимые, объясняющие переменные (признаки-факторы), Е- возмущение или стохастическая переменная, включающая влияние неучтенных факторов в модели;

5) нелинейная — регрессия, нелинейная относительно включенных в анализ объясняющих переменных, но линейная по оцениваемым параметрам; или регрессия, нелинейная по оцениваемым параметрам.

6) обратная — регрессия, приводимая к линейному виду, реализованная в стандартных пакетах прикладных программ вида: у = 1/a + b*х+Е;

7) парная — регрессия между двумя переменными у и x, т. е, модель вида: у = f (x) + Е, где у -зависимая переменная (результативный признак), x – независимая, объясняющая переменная (признак — фактор), Е — возмущение, или стохастическая переменная, включающая влияние неучтенных факторов в модели.

Уравнение регрессии

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.

Adblock
detector