11. Регрессия

11. Регрессия.

11.1. Регрессионный анализ используют для количественной оценки связи между двумя непрерывными переменными X и Y, где предполагается, что изменение X вызывает изменение Y. Таким образом, регрессия является асимметричной по отношению к X и Y. Предполагается, что переменная X измеряется без ошибок. Линейную регрессию можно использовать для подбора прямой линии формы y = a + b · x, где a и b - константы, которые обычно определяются на основе данных с использованием метода наименьших квадратов. В этом случае "a" (отрезок) представляет значение Y, когда X равно нулю, а "b" - это наклон линии регрессии. Положительное значение b означает, что наклон увеличивается слева направо, а отрицательное значение означает, что он уменьшается. Доверительные интервалы могут быть получены для наклона и могут быть установлены вокруг линии регрессии, чтобы получить, например, 2, что интерпретируется как доля изменчивости данных, объясняемая регрессией. Данное значение может быть низким, если переменная X не имеет достаточно большого диапазона.

11.2. Одновременное влияние нескольких независимых переменных X на фактор Y можно оценить с помощью множественной регрессии. Данный анализ носит исследовательский характер с целью определения того, какие переменные оказывают влияние. Логистическую регрессию используют для изучения взаимосвязи между одной или несколькими переменными-предикторами и бинарным результатом.

11.3. Регрессия и дисперсионный анализ связаны, поэтому регрессия, например, реакции на уровень дозы, может быть включена как часть дисперсионного анализа с использованием ортогональных контрастов. Обычный статистический тест в регрессионном анализе состоит в проверке нулевой гипотезы об отсутствии линейной зависимости между X и Y. Другие тесты касаются того, имеют ли две линии регрессии одинаковый наклон b и/или одинаковую точку пересечения a. Тестом для определения наличия квадратичного отношения будет тест того, дает ли квадратичная кривая значительно лучшее соответствие, чем прямая линия.