自杀是一个不容忽视的公共健康问题,因为每年全球自杀致死的人数高达80万。所以提前发现自杀倾向从而及时干预就显得特别重要。不幸的是,由于自杀是一种高度个人化的行为,而且人类普遍在识别自杀倾向的能力方面都相对糟糕。不过好消息是研究人员已经利用机器学习找到预测自杀倾向的办法,且精确率出奇的高;但我们因此需要面对一些伦理方面的问题。
一个人自杀会给亲朋好友留下心碎和悲痛,以及如果他们换种做法会怎样的无解问题。Colin Walsh是范德堡大学医学中心的数据科学家,他在预测自杀风险方面做了一些出色的工作,他希望自己的工作能够给大家提出“我能做些什么?”问题以及进行干预的机会。
Walsh和他的同事创建了一些机器学习算法,这些算法可以预测病人试图自杀的可能性,其精度高得吓人。在试验结果表明,算法对某人在2年内是否有自杀倾向的预测精准度达到了80-90%,而预测下周是否会试图自杀的准确度则高达92%。
预测的数据基础来自各种入院记录信息,包括年龄、性别、邮编、用药以及先期诊断等。Walsh和他的团队一共收集了范德堡大学医学中心5167名病人的数据,这些病人均承认有过自残或自杀倾向。他们阅读了每一个病例,识别出了其中的3250个自杀企图案例。
这组超过5000个病例的数据随后被用来训练机器,识别那些存在自杀倾向风险的人,并且区分那些有自残行为但并无自杀企图的人。研究人员还开发了算法来预测一组人的自杀倾向,这群人的数量达到了12695,都是随机选择、没有自杀企图历史记录的人。结果表明,在预测这群人的自杀倾向的准确度方面,算法甚至比医院的预测还要精准。
Walsh的论文已经在今年4月发表在《临床心理科学》杂志上,这只是研究工作的第一阶段。他现在正在致力于验证自己的算法应用到另一家医院完全不同的数据集上时也一样有效。而一旦该模型被证明有效的话,Walsh希望能跟更大的团队一起合作建立一套适当的干预方法。他预期在2年内会有一套干预计划用于测试。他补充说:“我当然倾向于认为会相当快,但在医疗保健方面相当快往往也意味着几个月的幅度。”
自杀是一种极其强烈的个人行为,以至于从人类角度来看,仅仅根据一组粗糙的数据集是不可能做出精准预测的。Walsh说临床医生自然会问预测是怎么做出来的,但算法实在是太复杂了(注:其实不是复杂问题,而是因为机器学习内部是个黑箱),抽取出单个的风险因素是不可能的。他说:“是风险因素的组合让我们得出答案。”
话虽如此,Walsh和他的团队仍惊讶地发现,服用褪黑激素(脑白金主要成分)似乎是计算风险的一个重要因素。Walsh说:“我并不认为褪黑激素是导致产生自杀想法的原因。这一点没有生理学的依据。但对于自杀风险来说有一个东西十分重要,那就是睡眠失调。”有可能开出褪黑激素的处方捕捉到了睡眠失调的风险——尽管这一点仍然是假设,尚有待验证。
这项研究还引起了更广泛的伦理问题,也就是计算机在医疗保健当中的角色是什么,以及真实的个人信息应该如何使用的问题。Walsh说:“意外后果的风险一直都存在。我们的意图是好的,想建立一套系统来帮助大家,但有时候结果可能会事与愿违。”
研究人员还必须确定基于计算机的决策将如何确定对病人的护理。作为一名初级医疗的保健医生,Walsh说意识到自己可以按照机器的指令行事这一点令人不安。他说:“如果机器告诉我存在高风险但是我的临床现象却没有证实这一点的话会不会出问题?你会不会因为计算机告诉了你的事情而改变原来的护理方式?”
目前为止,机器学习算法基于的是入院数据。但Walsh意识到许多存在自杀风险的人事先是并没有住院的。他说:“我们大部分的生活都是在医疗保健设施以外的地方度过的。如果我们只是依赖于在医院里面的数据来做这项工作的话,那么我们也只能取得一部分的成果。”
但是研究人员还可以到哪里去获得数据呢?互联网是比较有希望的选项之一。Walsh说,我们花了那么多时间在Facebook和Twitter上面,这些社交媒体数据也许可以用来预测自杀风险。“但我们需要做工作来证明这一点是正确的。”
Facebook今年早些时候宣布在使用自家的人工智能来对有自残迹象的帖子进行审核。结果据说已经比Facebook从那些人的朋友标记为有风险的结果更加准确。
训练机器识别自杀的告警信号远不是那么的直截了当。要想成功进行预测和干预,Walsh认为消除对自杀的污名化是必不可少的。他说:“如果我们对讨论这件事情感到不舒服的话就永远也没有办法帮助到那些人。”
不过,随着自杀导致全球每年80万人死亡,这已经成为了一个无法忽视的公共健康问题。鉴于大多数人类,包括医生在内,在识别自杀风险的能力方面都相当糟糕,机器学习也许可以提供一个重要的解决方案。