当前位置:   article > 正文

数据分析之Logistic回归分析中的【多元有序逻辑回归】

数据分析之Logistic回归分析中的【多元有序逻辑回归】

1、定义

  1. 多元有序逻辑回归用于分析有序分类因变量与一个或多个自变量之间的关系。有序逻辑回归适用于因变量具有自然排序但没有固定间距的类别,例如疾病严重程度(轻度、中度、重度)或调查问卷中的满意度评分(非常不满意、不满意、一般、满意、非常满意)。

  2. 多元有序逻辑回归基于概率模型,它假设因变量的每个类别与一个潜在的连续变量(或称为对数优势)相关联。这个潜在变量的大小决定了观察到的有序分类结果。模型的目标是估计自变量对潜在变量的影响,以及它们如何影响因变量在不同有序类别之间的概率。

  3. 因变量的数量为N的有序逻辑回归,可以拆分为N-1 个二分类的Logistic回归模型。只是这N-1个模型中进行logit变换的不是响应变量每个类别的概率,而是响应变量有序取值水平的累积概率。模型需要满足一个非常重要的前提:风险比例假定。

    假设因变量为疾病的严重程度:轻、中、重,分别赋值为1、2和3,那么因变量的拆分形式如下:

    • 【1】 vs【 2、3】;
    • 【1、2】 vs 【3】;

    若因变量为4个等级1、2、3、4,那么则有:

    • 【1】 vs 【2、3、4】;
    • 【1、2】 vs 【3、4】;
    • 【1、2、3 】vs 【4】。

    知识补充:

    1. 风险比例假定:
    • 自变量对于因变量中相邻有序类别的风险比例(即优势比,Odds Ratio)的影响是一致的。这意味着,自变量对于因变量的每个有序级别之间的风险比例变化是成比例的。
    • 即不论响应变量从哪个水平进行切分,拟合的N-1个二分类的logistic回归模型只有截距不同,而各个解释变量的系数均保持一致。
    • 而平行线检验可判断模型是否满足风险比例假定,当平行线检验的P值>0.05时(注意:此处为大于0.05,并非小于0.05,根据原假设判断)即满足风险比例假定,那么模型的结果将更加可靠,可以用于解释自变量对因变量有序类别风险比例的影响。
    1. 平行线检验
    • 定义:
      平行线检验,也称为比例优势假设检验,是在使用有序逻辑回归(包括多元有序逻辑回归)时进行的一个重要步骤。这个假设检验是为了验证模型中的自变量对于因变量的不同类别之间的边界(cut-off points)是否有一致的影响。
    • 原假设(H0):
      平行线检验的原假设是,所有自变量对于因变量的相邻类别之间的对数优势(log odds)的影响是相同的。换句话说,自变量对于因变量中相邻有序类别的相对风险(odds)的对数是恒定的,即自变量对于对数优势的影响在所有有序类别的边界上是一致的。根据原假设可知,当平行线检验的P值>0.05时接受原假设,即满足风险比例假定。

2、用法

在使用多元有序逻辑回归时,首先需要满足几个条件:

  1. 因变量是有序的,且类别间存在自然排序。
  2. 自变量可以是连续的,也可以是分类的。
  3. 数据应该是独立的,即每个观测值的结果不受其他观测值的影响。
  4. 自变量之间不存在多重共线性。
  5. 比例优势假设得到满足,即自变量对因变量的影响在所有有序类别的边界上是一致的。

3、使用场景

多元有序逻辑回归常用于以下场景:

  1. 医学研究中评估不同因素对疾病严重程度的影响。
  2. 社会科学中分析个体特征对满意度或态度的影响。
  3. 市场研究中了解不同因素如何影响消费者的产品评价等级。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/354741
推荐阅读
相关标签
  

闽ICP备14008679号