巴蜀网

 找回密码
 免费注册

QQ登录

只需一步,快速开始

开启左侧
查看: 317|回复: 1
 上官123 发表于: 2018-1-29 10:35:01|显示全部楼层|阅读模式

[人工智能] 人工智能正暗中窥视想自杀的人 并悄悄阻止这一切

 [复制链接]
人工智能和算法能否阻止下一个茅侃侃自杀
源自:界面
⊙ 作者:小七米乐

  近日,“80后创业明星”茅侃侃自杀离世。现代人面临来自各方面的压力,据世卫组织统计,每年有超过80万人自杀。而想要自杀的人通常会掩盖自杀倾向,心理医生很难检测出来。人工智能成为检测预防自杀倾向的利器,本文梳理了人工智能融合心理健康领域的重大技术进步。除了检测预防自杀外,AI还能给创业者实实在在的建议和资源。
  近日,“80后创业明星”茅侃侃自杀离世,34岁的他面临公司濒临破产,60名员工仲裁、抵押车房的窘境。在微信发出最后一条朋友圈的他选择结束自己的生命。

wtVl-fyqzcxh2760673.jpg

  自杀,一直都是容不得忽视的公共健康议题。根据世卫组织统计数据,全球每年有超过80万人自杀,还有更多的人自杀未遂。评估自杀风险是心理健康临床医生面临的最大挑战之一:具有自杀倾向的人常常掩盖自杀意图,而临床医生在检测自杀倾向时的成效往往也不甚理想。
  但自杀并非不可避免。通过检测自杀倾向、及时介入,加之心理疏导和药物治疗,可以有效减少自杀率。
  而使用人工智能检测自杀倾向,已有许多成果。新智元整理了中国、美国和加拿大的相关研究成果。

AI预测和防止自杀
  2017年3月,Facebook首当其冲,开始尝试在美国使用人工智能和模式识别等技术,通过扫描分析用户发表的有自杀倾向的帖子或评论,帮助识别可能有潜在自杀倾向的用户。一旦检测到潜在的自杀倾向,该模式识别软件将发送通知给Facebook专门处理此类事件的员工。该软件会立即给发帖的用户或其朋友发送一些有用信息。Facebook还与美国自杀求助热线、美国饮食紊乱协会、危机热线(Crisis Text Line)等一些组织合作,当用户的帖子被标记出来,而且他们选择愿意与其他人对话时,可以直接通过Messenger应用与专业人士联系。有时,Facebook员工还会通知当地政府来干预此类事件。去年11月,Facebook称已经成功将模式识别软件用于监测其美国用户的自杀倾向,并将把这个监测软件推广到其他国家。

yvP7-fyqzcxh2760746.jpg

  继Facebook之后,美国范德比大学医学中心资料科学家Colin Walsh和团队于去年4月发表论文表示:他们建立了一种机器学习算法,可以预测病人尝试自杀的可能性。他们使用超过5000名有自残或自杀倾向病人的住院数据对机器学习模型进行训练,用以区分有自杀倾向和有自残行为但无自杀想法的两类人;同时还开发了一个算法,用以预测其自杀倾向。试验表明,机器学习算法在这两个任务上的表现都比医生的预测还要精准。
  时隔半年,学术界又有新成果。
  去年10月,美国卡内基梅隆大学的Marcel Just、David Brent和同事选取了17名有自杀倾向的人和17名正常人分别作为实验组和对照组,并向他们展示了自杀、积极和消极3大类共计30个单词,在此过程中对他们进行功能性磁共振成像扫描。

9OYw-fyqzcxh2760805.jpg
刺激大脑的30个单词(概念)。源自:果壳科学人

  结果发现,对其中六个单词(死亡、残忍、麻烦、无忧无虑、良好和赞美)的神经活动应答以及五个脑区的神经活动最能区分想自杀的病人和对照组个体。

epb0-fyqzcxh2760858.jpg
左图为有自杀念头的人和健康人激活的脑区,白圈所示为有区分性的脑区;右图为对潜在自杀者和正常人有区分性的脑区,分别是左上额内侧额叶、内侧额叶/前扣带、右中间颞叶区、左顶叶区和左额区。源自:果壳科学人

  之后,研究团队使用高斯朴素贝叶斯分类器(GNB)在上述五个脑区的数据上训练算法区分这两类人群。算法准确鉴定出17位自杀组病人中的15位,以及17位对照组健康个体中的16位,正确率达到了85%。

zuXN-fyqzcxh2760935.jpg

  团队又将另外21个有自杀倾向的人的数据与17个正常人的数据混合,来测试算法性能。结果表明,该算法在此数据集上可达到87%的精度。
  中国的研究人员也在试图通过使用人工智能技术来防止国内的自杀事件。这些研究人员创建了一个AI系统,可以在流行的微博网站微博上识别出表达自杀想法的人。

4tXB-fyqzcxh2760976.jpg

  最近的一些研究发现,年轻人愿意花更多时间在社交媒体上表达自己的心理健康问题。特别是大约15%的自杀学生已经在社交媒体上表达了自己的痛苦和自杀的想法。
  中国科学院研究员朱女士介绍,只有五分之一有自杀意念的人向咨询中心寻求帮助。据新华社报道,朱的团队收集了4000多名早前在微博上表达自杀想法的人的语言模式。然后将这些语言模式输入到AI系统中,以便在微博上识别相似的模式。该团队还在微博上创建了一个特殊的AI账户。这个AI账户扫描社交网络上的数千条消息,并识别表达自杀想法的人。账户直接发送消息给他们,并建议他们不要采取任何极端的步骤。
  该帐户在为用户提供适当咨询的同时保持了用户的隐私,自2016年7月以来,该系统为2万多名自杀念头的用户提供了在线咨询服务。
  “我们需要首先追踪陷入困境的灵魂,并发现他们的心理状况有多紧急。对于那些有强烈倾向的人,我们会告诉他们他们的问题可能是什么,并给他们一个热线电话和专业干预中心名单。”
  据CTVNews透露,加拿大联邦政府已经向渥太华Advanced Symbotics Inc.提供了一个试点项目,使用AI技术来了解自杀的警示信号,并确定全国各地的自杀“热点”。
  而加拿大也面临着自杀率过高的严峻形势。据加拿大自杀预防协会称,加拿大每天约有11人自杀。
  为了降低自杀率,加拿大政府于本月宣布与AI公司Advanced Symbolics合作,该公司将监测与分析16万个社交媒体帐户发布的帖子,预测自杀趋势以及可能会出现增长型自杀行为的地区,从而帮助加拿大政府确保心理健康资源的合理部署,以预防自杀。
  此项目计划于本月底实行,最早于6月结束。前三个月为试行期,Advanced Symbolics在此期间要监测社交媒体账户。试行期后,加拿大政府将决定是否继续实行该项目。延期次数最多为5次,每次可延期一年。
  初期,政府拨款近2.5万美元(折合人民币1625250元),若决定继续实行该项目,预计支出将高达40万美元(折合人民币260万元)。
  加拿大公共卫生署发言人表示,必须要先了解自杀行为的各种模式与特征,才能制定有效的自杀预防计划,真正预防自杀,所以公共卫生署正探索如何基于网上数据识别放出自杀言论的用户要采取的自杀模式。

AI帮助创业者获取建议
  除了帮助人们检测自杀倾向、预防自杀之外之外,AI还能帮助压力山大的创业者获取建议和实实在在的资源。
  一位叫做Elizabeth Gore的女性建立了Alice,这个AI平台旨在帮助女性,退伍军人,有色人种和LGBT企业家来成长自己的公司。
  Alice平台使用机器学习收集了来自企业家的很多数据,例如他们的地理位置和业务类型,代码还要求创业者提交性别、种族、民族,LGBT(是否性少数群体)等相关信息。
  Gore表示,通过这种方式,Alice平台可以向创业者提供更具体的建议,例如提供为退伍军人提供特别贷款条件的银行信息,为少数族裔举办见面会,提供软件折扣等其他资源。
  她表示:“我们的目标是在2021年前帮助400万女性、少数族裔和退伍军人扩大商业规模。”计划实现这一目标的方式是通过Alice,一个由AI支持的平台,为创业者做个人商业顾问。
  目前,Alice平台上的50%以上是非白人用户,70%的用户是女性,在50多个国家得到使用。

■ 结束语
  创业抑或工作都不易,每个人都在打一场看不见的仗。可生命本身并不只有“事业”这单一维度。每个睁眼醒来的清晨,每次自如的呼吸,都是来自上天的祝福。
  希望AI技术的持续进步,能给更多人带来福祉。
  活着实属不易,请各位珍重,珍重。
『 巴蜀网 』提醒,在使用本论坛之前您必须仔细阅读并同意下列条款:
  1. 遵守《全国人大常委会关于维护互联网安全的决定》及中华人民共和国其他各项有关法律法规,并遵守您在会员注册时已同意的《『 巴蜀网 』管理办法》;
  2. 严禁发表危害国家安全、破坏民族团结、破坏国家宗教政策、破坏社会稳定、侮辱、诽谤、教唆、淫秽等内容;
  3. 本帖子由 上官123 发表,享有版权和著作权(转帖除外),如需转载或引用本帖子中的图片和文字等内容时,必须事前征得 上官123 的书面同意;
  4. 本帖子由 上官123 发表,仅代表用户本人所为和观点,与『 巴蜀网 』的立场无关,上官123 承担一切因您的行为而直接或间接导致的民事或刑事法律责任。
  5. 本帖子由 上官123 发表,帖子内容(可能)转载自其它媒体,但并不代表『 巴蜀网 』赞同其观点和对其真实性负责。
  6. 本帖子由 上官123 发表,如违规、或侵犯到任何版权问题,请立即举报,本论坛将及时删除并致以最深的歉意。
  7. 『 巴蜀网 』管理员和版主有权不事先通知发帖者而删除其所发的帖子。
分享到:
 你不在 发表于: 2018-2-5 12:07:02|显示全部楼层
▲温馨提示:图片的宽度最好1200 像素,目前最佳显示是 900 像素,请勿小于 900 像素▲

人工智能正暗中窥视想自杀的人 并悄悄阻止这一切

原文标题:人工智能正在窥视想自杀的人 并悄悄阻止这一切

  我们要做自杀干预这个事不是一蹴而就的
  我们只能说这个人现在要自杀
  我们推迟他自杀的时间
  然后再让他的境况改变
  一点点好起来


vTBg-fyrhcqy6258454.jpg

心理地图:人工智能是怎样救助自杀者的
⊙ 记者:杨智杰

  本文首发于总第840期《中国新闻周刊》
  24岁的罗芙第一次知道网友“走饭”,是在2015年秋天她被确诊为抑郁症后,在知乎上无意中搜到的。她跑到新浪微博查找这个账户,看到最近的一条状态是,“我有抑郁症,所以就去死一死,没什么重要的原因,大家不必在意我的离开。拜拜啦。”发布时间定格在2012年3月18日10点,该账号主人于当天自杀离世。
  当时罗芙并没在意,直到了解了更多的抑郁症信息后,“走饭”忽然又跳到她脑海里。她去翻微博,了解“走饭”的故事,欣赏她的有趣,佩服她自杀的勇气。这里成了她的“树洞”,不开心的时候就过来翻评论,然后发现──“原来我不是一个人”。她也开始时常留言,她在留言中的倾诉超出了评论字数的要求,删删减减,最后留下的是对生活的厌恶和对死亡的憧憬。甚至她自己的微博也像极了“走饭”的风格,很少转发,不配图,每天发些零碎的生活经历或厌世的痛苦。
  2016年春天的某日,罗芙打开微博,突然收到一封来自账号“心理地图PsyMap”的私信:“我们在‘走饭’的微博中看到了你的评论,你现在还好吗?情绪状态怎么样?”这条私信建议罗芙与志愿者交流或者向当地心理危机干预中心联系,同时附上一个问卷调查的链接。
  罗芙看着这一大段文字很惊讶,也有点小感动,她没想到还有这样的团队在为抑郁症患者操心。

“走饭”,心灵的树洞
  罗芙收到的这条私信来自中科院行为科学重点实验室的互联网心理危机(自杀)监测预警中心,当时,这还是他们关于自杀干预的一个研究课题。团队所做的事情简单来讲,就是在“走饭”微博几十万条评论中用人工智能的方式检索出有自杀意念的微博,用“心理地图PsyMap”的账户自动给对方发送私信,精确投放帮助信息。2017年4月,他们为了让课题组所做的事情更规范化,于是申请成立了互联网心理危机监测预警中心。
  提到人工智能的应用,你也许会想到AlphaGo、无人驾驶汽车、IBM Watson机器人医生、人脸识别技术,无疑这些“黑科技”都是给人们提供便捷生活的炫酷工具。你也许想不到,心理学家也在探索利用人工智能触及人类的精神世界。中科院行为科学重点实验室在朱廷劭研究员的领导下,利用人工智能技术,寻找和发现微博上隐藏的自杀高危网友,然后对他们进行有针对性的干预和救助。
  实际上,社会对自杀高危人群从未停止过危机干预和事后干预,比如监测、限制农药等自杀工具、媒体指南、提高公众意识等。假如你在百度上搜索“自杀”,还会在首页顶端看到“这个世界虽然不完美,但我们仍然可以疗愈自己”的温馨提示,并且立即会跳出来各地的24小时免费心理危机咨询热线。
  但是,在飞速发展、压力巨大的社会生活中,自杀却一直是一个难以杜绝的问题。世界卫生组织在2014年出版的《自杀预防──全球要务》中统计,世界上每40秒钟就有一个人自杀死亡,自杀是全球15~29岁年轻人死亡的第二大原因,中国的自杀人数超过世界总自杀人数的1/5。不时传来的名人自杀的消息,更是令人唏嘘。就在1月25日,年仅35岁的80后创业明星茅侃侃在家中自杀的消息传来,自杀问题再次引起关注。
  人们对自杀有个误区,以为谈论自杀的人不意味着会去自杀,然而,实际上他们可能正在经历焦虑、抑郁和绝望,或许觉得没有其他选择了,因而通过谈论来寻求帮助或支持。朱廷劭团队所做的事情,就是利用大数据检测,希望发现任何自杀的苗头,能把干预的过程前移。
  与传统心理学研究线下寻找案例的方法相比,社交媒体用户足够多,庞大的用户群体在平台上表达自我,用户数据公开可见、易收集,虽然网络有匿名的特性,但其优势更大,因而国内外有不少学者利用文本分析法进行用户心理健康评估。
  但微博有一个局限,其用户8成以上都是30岁以下的青年群体。朱廷劭认为,各个年龄段的人群都有自杀者,但是更方便处理的是微博用户。他们没办法救助所有自杀者,但是这些在微博上有表达的年轻群体,是最能够得到帮助的人群。
  为什么选中“走饭”呢?106万,这个数字或许能说明问题,这是现在“走饭”最后一条微博下的评论数,半年前,这个数字是70万。迄今,每隔几分钟都会有新的留言,还有人习惯性地每天到这里“打卡签到”,有人慕名找到这里倾诉痛苦。研究发现,在“走饭”微博下留言的用户平均年龄为21岁,教育程度主要集中在高中、大专和大学。
  “走饭”,这个永远“停摆”的微博下,汇集了众多患抑郁症或者失意的人。正如网友刘娅在接受《中国新闻周刊》采访时提到的,“无论白天我怎么装开朗、装逗逼,一个人的时候总会胡思乱想。‘走饭’微博是我的树洞,无论说多少矫情的话都不会有人嘲笑我。”
  朱廷劭团队志愿者刘明明介绍说,和其他微博不同,“走饭”微博的评论不仅围绕博主,大部分网友也在讲个人的故事。这意味着有足够多合适的文本。
  在研究初期,该团队曾尝试使用全微博检索,但效果并不好,而在“走饭”的微博评论中找到有自杀意念者的成功率更高。2017年7月以来,该团队已经累计向14435位有自杀意念的用户推送了心理危机干预资源,准确率高达92.2%。

g0xh-fyrhcqy6259308.jpg

机器学习,寻找自杀者
  为了让私信送达数万个用户,研究人员也下了一番功夫。首先得在数十、上百万条留言中找到这些有自杀意念的人。
  2014年,朱廷劭团队对比新浪微博用户中自杀死亡和无自杀意念者特征差异时发现,自杀死亡用户的微博互动更少、更加关注自我、更频繁地使用表达排除意义的词语、从情感层面上有更多负面表达、使用更多与死亡和宗教相关而更少与工作相关的表达。
  这项研究后来为该团队做自杀识别和干预提供了理论支持。此后,朱廷劭团队也在思考,该结果能否与网络数据的即时性结合起来,找出潜在的有自杀风险的个体,对其进行心理危机干预。他们曾尝试人工筛选判断,但是工作量太大,于是想到利用时下火热的人工智能机器学习,建预测模型。
  这个方式和AlphaGo学习围棋的技术相似,前期他们人工选出上千条有自杀意念的微博,同时利用整理出的和自杀相关的词典,一起输入计算机里训练建模。从人工检验结果看,使用计算机训练建模的效果更好,识别有自杀意念者的击中率为0.58,而用关键词筛选的击中率为0.47。随着模型的优化,2016年下半年这个模型击中率超过0.8,于是,研究团队开始正式将其投入使用。
  在中科院心理研究所一间普通的办公室里,电脑上显示着自杀识别的模型,它每隔24小时会自动抓取一次“走饭”微博下的所有评论。输出的界面看上去简洁朴素,像一个文本文件,分为4列,罗列用户名称代码、时间代码和具体的评论,最前面一列是数字0和1。据刘明明介绍,这是模型识别后的结果,0是无自杀意念,1是有自杀意念。一旦数字是1,模型就会自动向该用户发送事先编好的私信。
  为设计私信内容,朱廷劭团队联合香港大学香港赛马会防止自杀研究中心、北京回龙观医院北京心理危机研究与干预中心人员组织访谈、设计问卷,了解有自杀意念的人希望看到什么内容。
  他们曾向4222名有过自杀意念表述的群体发送参与调查邀请,最终有725名回复了,其中78%的人表示不反对收到私信,并且希望面对心理危机时能够获得心理测试结果反馈以及专业的措施;发信人越可靠,他们越会点开私信中的链接;还有一半以上的人希望在私信中看到具体应对心理危机的措施。
  因此,在私信中他们选择先介绍背景,再推送问卷,并提供他们可以选择的干预方式,包括与他们的志愿者交流,或者拨打当地心理危机干预中心热线。
  据朱廷劭介绍,他们发出去的私信中,正面回复的比例占20%左右,虽然不高,但也超出了他们的预期。而在微博这一端每天18点到22点都有志愿者值班在线,他们都是国家二级或者三级心理咨询师。
  不同于线下的心理疏导使用的认知行为疗法,线上的自杀干预一般使用问题解决疗法。简言之,线上自杀干预时间更紧迫,对方很可能马上就要实施自杀,所以志愿者没有时间听完对方讲述某个情景再改变他们的认知,而是需要及时解决问题,让对方暂缓自杀行为,或者接受别人的帮助,尽快做出改变。
  去年9月的一天,“心理地图PsyMap”志愿者收到一位网友的回复,跟对方进行沟通时,无意中发现她发微博说会在当晚0点服用安眠药自杀。此时距离0点只剩几个小时,志愿者立即跟对方确认,并询问她的具体位置。确认信息之后,一边沟通说服,一边报警,最终救下了这位姑娘。这从侧面说明,在微博上宣布要自杀的人,实际上可能是在寻求帮助或支持。
  “我们要做自杀干预这个事,不是一蹴而就的。不是说一个人今天正在自杀,我们干预了,他以后就不自杀了,这不可能。我们只能说,这个人现在要自杀,我们推迟他自杀的时间,然后再让他的境况改变,一点点好起来。我们做得很有限,主要是动员对方身边的积极关系。”刘明明向《中国新闻周刊》介绍。这听起来有些无奈,但是他们更主要的是起到桥梁作用。

6sRh-fyrhcqy6265803.jpg
图/受访者提供

未来的路
  利用人工智能在社交媒体上抓取有自杀意念者的,不仅仅是朱廷劭团队。2017年3月起,美国脸书(Facebook)也宣布开始利用人工智能对美国用户在该网站上的自杀帖子进行快速检测测试。2017年11月,该公司已经可以通过计算机筛选帖子或视频,标记出一个人可能会在什么时候自杀。
  2014年,法国蒙彼利埃大学计算机技术领域学者阿玛亚斯·阿伯特(Amayas Abboute)等人发表论文《挖掘推特,防止自杀》,介绍他们提出的自动语言处理和学习方法,自动获取社交平台推特(Twitter)上有自杀风险的帖子,他们的研究也得到精神科医生的初步肯定。
  使用人工智能追踪有自杀意念的语言不是一个新策略。2013年,涂尔干项目的研究人员通过与当地退伍军人事务部门合作开展了一个项目,跟踪美国退伍军人的脸书、领英(LinkedIn)和推特的帖子,试图预测哪些语言最有可能反应用户的自杀意念。
  除了各类研究,这类技术也被用于商业。例如,国外网站Bark为父母提供保护子女安全上网的服务,该网站利用人工智能技术监测,以文本或者邮件的方式向父母发出警告,告知他们的孩子在社交媒体的帖子可能有潜在的心理健康问题。
  但无论国内还是国外,在网上进行自杀预防还有很长的路要走。脸书除了利用人工智能识别,还在动员了用户的社交关系,如果发现你的好友有自杀倾向,那么你有手动标记出对方可能有自杀风险的选项。
  但是在互联网上如何以不侵犯用户隐私的方式进行干预,这个问题在国外也引发了讨论。美国康奈尔自杀行为研究计划主任贾尼斯·惠特洛克提到,脸书和其他网站的机器学习系统可能会让一些用户受到惊吓,并阻止他们在未来寻求帮助。
  尽管出于好意,朱廷劭团队在推送私信时也难免被对方误会。刘娅在第一次收到私信时,以为对方是个骗子。直到她接收了3条私信,才慢慢放心一些。
  虽然刘明明这些志愿者救助了那个要自杀的姑娘,但在之后的聊天中,对方也透露出担忧和恐惧,认为自己的一言一行被监控了。志愿者们跟她做了个约定:除非万不得已,他们不会报警,如果她要自杀,请告诉“心理地图”的志愿者。
  目前,国内除了朱廷劭团队外,还没有其他机构关注到社交媒体中的自杀主动干预,而中科院心理研究所互联网心理危机监测预警中心的自杀干预范围还局限在“走饭”的微博评论里,项目正式上线不到一年。在未来,他们也在考虑将这种人工智能救治覆盖到更多的微博,甚至论坛和贴吧。这背后不仅需要技术的提升,也需要招募更多的志愿者,以及更规范化的指导和救助培训。
  (为保护受访者隐私,文中罗芙、刘娅为化名)
源自:中国新闻周刊
您需要登录后才可以回帖 登录 | 免费注册

本版积分规则

© 2002-2018, 蜀ICP备12031014号, Powered by 5Panda
GMT+8, 2018-10-22 10:00, Processed in 0.140401 second(s), 14 queries, Gzip On, MemCache On
快速回复 返回顶部 返回列表