赞
踩
缩略语 | 描述 |
---|---|
AMP | 贫血管理协议 |
BCSC | 乳腺癌监测联盟 |
CATIE | 临床抗精神病药物干预有效性试验 |
CBASP | 心理治疗认知行为分析系统 |
CIBMTR | 国际血液和骨髓移植研究中心 |
CT | 计算机断层扫描 |
DTRs | 动态治疗制度 |
EEG | 脑电图 |
ESA | 红细胞生成刺激剂 |
EPO | 内源性促红细胞生成素 |
FES | 功能性电刺激 |
HGB | 血红蛋白 |
ICU | 重症监护室 |
MAP | 平均动脉压 |
MDD | 重度抑郁症 |
MIMIC | 重症监护多参数智能监护 |
MRI | 磁共振图像 |
NSCLC | 非小细胞肺癌 |
ODE | 常微分方程 |
PK/PD | 药代动力学/药效学 |
SC | 症状检查 |
SMARTs | 顺序多重分配随机试验 |
STAR*D | 缓解抑郁症的有序治疗替代方案 |
STI | 结构化治疗中断 |
SUD | 物质使用障碍 |
TREC-CDS | 文本检索会议-临床决策支持 |
UI | 超声图像 |
应用 | 参考 | 基本方法 | 高效技术 | 表现手法 | 数据采集 | 亮点或局限 |
---|---|---|---|---|---|---|
癌症治疗的最佳化疗药物剂量 | Zhao et al. [83] | Q-learning | BRL | N/A | ODE model | 使用 SVR 或 ERT 拟合 Q 值; 具有整数值的简单奖励函数结构以评估功效和毒性之间的权衡。 |
~ | Hassani et al. [84] | Q-learning | N/A | N/A | ODE model | 状态和动作的朴素离散公式 |
~ | Ahn & Park [85] | NAC | N/A | N/A | ODE model | 从一开始就发现持续治疗的策略 |
~ | Humphrey [86] | Q-learning | BRL | N/A | ODE model proposed in [83] | 在高维和子组场景中使用三种机器学习方法来拟合 Q 值 |
~ | Padmanabhan [87] | Q-learning | N/A | N/A | ODE model | 使用不同的奖励函数来模拟癌症治疗中的不同约束 |
~ | Zhao et al. [88] | Q-learning | BRL(FQI-SVR) | N/A | ODE model driven by real NSCLC data | 考虑晚期NSCLC多线治疗中的删失问题; 使用总生存时间作为净奖励。 |
~ | Furnkranz et al. [52]Cheng et al. [89] | PI | N/A | PRL | ODE model proposed in [83] | 结合偏好学习和 RL 以实现癌症治疗中的最佳治疗设计,但仅限于基于模型的 DP 设置。 |
~ | Akrour et al. [90],Busa-Fekete et al. [91] | PS | N/A | PRL | ODE model proposed in [83] | 使用主动排名机制来减少专家所需的排名查询数量,从而在没有生成模型的情况下产生令人满意的策略。 |
癌症治疗放射治疗的最佳分割安排 | Vincent [92] | Q-learning,SARSA(λ),TD(λ), PS | BRL (FQIERT) | N/A | Linear model,ODE model | 用于放射治疗的扩展 ODE 模型; 在奖励函数中使用硬约束和简单的探索策略。 |
~ | Tseng et al. [93] | Q-learning | N/A | DRL (DQN) | Data from 114 NSCLC patients | 使用 GAN 解决有限样本大小问题并使用 DNN 逼近转移概率。 |
~ | Jalalimanesh et al.[94] | Q-learning | N/A | N/A | Agent-based model | 使用基于代理的模拟来模拟肿瘤生长的动态。 |
~ | Jalalimanesh et al.[95] | Q-learning | N/A | MORL | Agent-based model | 通过考虑最小化肿瘤治疗时间和不可避免的副作用的相互冲突的目标,将其表述为一个多目标问题。 |
假设或通用癌症临床试验 | Goldberg & Kosorok[96], Soliman [97] | Q-learning | N/A | N/A | Linear model | 解决审查数据和灵活阶段数的问题。 |
~ | Yauney & Shah [98] | Q-learning | N/A | DRL (DDQN) | ODE model | 使用行动驱动的奖励解决非结构化结果奖励的问题。 |
领域 | 应用 | 参考 | 基本方法 | 高效技术 | 表现手法 | 数据采集 | 亮点和局限 |
---|---|---|---|---|---|---|---|
败血症 | 静脉输液和最大 VP 的管理 | Komorowski et al. [192],[193] | SARSA,PI | N/A | N/A | MIMIC-III | SARSA 和 PI 在离散状态和动作空间中的简单应用 |
~ | ~ | Raghu et al. [194], [195] | Q-learning | N/A | DRL (DDDQN) | MIMIC-III | DRL 在完全连续状态但离散动作空间中的应用 |
~ | ~ | Raghu et al. [196] | PS | MRL | N/A | MIMIC-III | 具有连续状态空间的基于模型的学习; 将临床医生的政策整合到 RL 政策中 |
~ | ~ | Utomo et al. [197] | MC | N/A | N/A | MIMIC-III | 估计患者健康状况和治疗的转变以增加其可解释性 |
~ | ~ | Peng et al. [198] | Q-learning | N/A | DRL (DDDQN) | MIMIC-III | 内核学习和 DRL 之间的自适应切换 |
~ | ~ | Futoma et al. [199] | Q-learning | N/A | DRL | Clinical data at university hospital | 处理稀疏采样和经常丢失的多变量时间序列数据 |
~ | ~ | Yu et al. [200] | Q-learning | BRL(FQI) | DRL, IRL | MIMIC-III | 使用深度 IRL 推断最佳奖励函数 |
~ | ~ | Li et al. [201] | AC | N/A | PORL | MIMIC-III | 考虑到脓毒症患者的不确定性和病史信息 |
~ | 有针对性的血糖调节 | Weng et al. [202] | PI | N/A | N/A | MIMIC-III | 了解败血症患者的最佳目标血糖水平 |
~ | 细胞因子介导 | Petersen et al. [203] | AC | N/A | DRL (DDPG) | Agent-based model | 使用奖励塑造来提高学习效率; 将死亡率从 49% 显着降低到 0.8% |
麻醉 | 镇静镇痛调节自动化,维持患者生理稳定,减轻疼痛 | Moore et al. [204], [205] | Q(λ) | N/A | N/A | PK/PD model | 与经过良好调整的 PID 控制器相比,可实现卓越的稳定性 |
~ | ~ | Moore et al. [206], [207] | Q-learning | N/A | N/A | PK/PD model | 使用 BIS 的变化作为状态表示 |
~ | ~ | Moore et al. [208], [209] | Q-learning | N/A | N/A | In vivo study | 首次对人类志愿者使用 RL 进行麻醉给药的临床试验 |
~ | ~ | Sadati et al. [210] | Unclear | N/A | N/A | PK/PD model | 可以利用专家知识实现合理的初始剂量,并使药物投入保持在安全值 |
~ | ~ | Borera et al. [211] | Q-learning | N/A | N/A | PK/PD model | 使用自适应滤波器消除估计患者状态时的延迟 |
~ | ~ | Lowery & Faisal [212] | AC | N/A | N/A | PK/PD model | 考虑连续的状态和动作空间 |
~ | ~ | Padmanabhan et al. [213] | Q-learning | N/A | N/A | PK/PD model | 同时调节镇静和血液动力学参数 |
~ | ~ | Humbert et al. [214] | N/A | N/A | POMDP, IRL | Clinical data | 训练 RL 代理模仿专家麻醉师的决定 |
其他 | 肝素剂量 | Nemati et al. [215] | Q-learning | BRL | PORL | MIMIC II | 具有患者隐藏状态的端到端学习 |
~ | ~ | Lin et al. [216] | AC | N/A | DRL(DDPG) | MIMIC, Emory Healthcare data | 解决连续状态-动作空间中的剂量问题 |
~ | 一般用药建议 | Wang et al. [217] | AC | N/A | DRL (DDPG) | MIMIC-III | 结合监督学习和强化学习,用于覆盖大量疾病的药物剂量 |
~ | 机械通气和镇静剂给药 | Prasad et al. [218] | Q-learning | BRL(FQI) | N/A | MIMIC-III | 机械通气的脱机时间和个性化镇静剂量的最佳决策 |
~ | ~ | Yu et al. [219] | Q-learning | BRL(FQI) | IRL | MIMIC-III | 应用 IRL 来推断奖励函数 |
~ | ~ | Yu et al. [220] | AC | N/A | N/A | MIMIC-III | 结合监督学习和 AC 以提高决策效率 |
~ | ~ | Jagannatha et al. [221] | Q-learning, PS | BRL(FQI) | N/A | MIMIC-III | 分析 ICU 环境中非策略策略评估方法的局限性 |
~ | 实验室测试的订购 | Cheng et al. [222] | Q-learning | BRL(FQI) | MORL | MIMIC III | 在订购实验室时设计反映临床考虑的多目标奖励函数。 |
~ | ~ | Chang et al. [223] | Q-learning | N/A | DRL (Dueling DQN) | MIMIC III | 临床环境中多测量调度问题的第一个 RL 应用 |
~ | GVHD的预防和治疗 | Krakow et al. [224] | Q-learning | N/A | N/A | CIBMTR data | 用于急性 GVHD 预防和治疗的 DTR 的第一个提案 |
~ | ~ | Liu et al. [225] | Q-learning | N/A | DRL (DQN) | CIBMTR data | 将监督学习步骤纳入 RL |
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。