2. Цель: ознакомить студентов с методикой проведения регрессионного анализа применительно к клиническим и фармацевтическим исследованиям.
План лекции: Регрессионный анализ: основные понятия.
Виды регрессии.
Метод наименьших квадратов (МНК).
Проверка гипотезы о значимости уравнения регрессии.
3. Тезисы лекции: Впервые термин «регрессия» был введен основателем биометрии Ф. Гальтоном (XIX в.), идеи которого были развиты и оформлены его последователем К. Пирсоном.
Регрессионный анализ - метод статистической обработки данных, позволяющий измерить связь между одной или несколькими причинами (факторными признаками) и следствием (результативным признаком).
Признак- это основная отличительная черта, особенность изучаемого явления или процесса.
Показатель - количественное представление признака.
Результативный признак - исследуемый показатель.
Факторный признак - показатель, влияющий на значение результативного признака.
Целью регрессионного анализа является оценка функциональной зависимости среднего значения результативного признака (у) от факторных (х1, х2, …, хn), выражаемой в виде уравнения регрессии: у = f (x1, х2, …, хn).
Различают два вида регрессии: парную и множественную.
Парная (простая) регрессия- уравнение вида: у = f (x).
Результативный признак при парной регрессии рассматривается как функция от одного аргумента, т.е. одного факторного признака.
Множественная регрессия- уравнение вида: у = f (x1, х2, …, хn).
Результативный признак рассматривается как функция от нескольких аргументов, т.е. много факторных признаков.
Далее мы будем рассматривать парную регрессию.
Регрессионный анализ включает в себя следующие этапы:
- определение типа функции;
- определение и проверку коэффициентов регрессии;
- расчет значений функции для отдельных значений аргумента;
- исследование рассеивания по отклонениям расчетных значений от эмпирических данных.
Для того чтобы правильно определить тип функции нужно на основании теоретических данных найти направление связи.
По направлению связи регрессия делится на:
- прямую регрессию, возникающую при условии, что с увеличением или уменьшением независимой величины «х» значения зависимой величины «у» также соответственно увеличиваются или уменьшаются;
- обратную регрессию, появляющуюся при условии, что с увеличением или уменьшением независимой величины «х» зависимая величина «у» соответственно уменьшается или увеличивается.
Для характеристики связей используют следующие виды уравнений парной регрессии
у=a+bx – линейное;
y=eax+b– экспоненциальное;
y=a+b/x – гиперболическое;
y=a+b1x+b2x2– параболическое;
y=abx– показательное и др.
где a, b1, b2 - коэффициенты (параметры) уравнения; у - результативный признак; х - факторный признак.
Построение уравнения регрессии сводится к оценке его коэффициентов (параметров), для этого используют метод наименьших квадратов (МНК).
МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака у от теоретических ух минимальна, то есть .