智能相对论

看不透的AI防自杀背后,防的是利益损失

2018年06月07日

评论数(0)

看不透的AI防自杀背后,防的是利益损失1.jpg

文|杨苏颖

来源|智能相对论(ID:aixdlun)

很忙的扎克伯格决定在全球范围内推广AI防自杀系统以平息用户对Facebook的不满情绪,这是怎么回事?

原来,之前Facebook上曾多次出现直播自杀的事件,但由于平台方没有及时排查到此类信息,一时给社会造成了很大的负面影响。而Facebook也理所当然地遭到了平台用户的责难。所以扎克这才赶紧推出了AI防自杀系统。不过,这已经不是第一次Facebook因为信息管理不利而被diss了。今年《纽约时报》和《卫报》的报道指出英国一家数据分析的政治咨询公司利用Facebook的信息管理漏洞,窃取了5000千多万Facebook用户的个人资料,帮助现任美国总统特朗普在2016年的大选当中获得有利舆论。

Facebook近年来争议不断,这套AI防自杀系统是其挽回用户信心的一个小动作,但是小动作里面也可能藏有大玄机,Facebook的新技术到底能不能安抚长期以来被其伤害的用户之心呢?

从图文到视频:AI识别自杀的技术之流

AI可以识别自杀这一论断看似很迷,但是在各种AI识别人类性格、性取向、精神疾病等技术层出不穷的前提下,我们可以尝试对AI防自杀系统进行简单剖析,尝鼎一脔。

文字识别:AI防自杀系统会对用户的发帖内容进行识别,针对含消极情绪的语句,

例如,“我不想活了”,“我恨世界上所有人”,“我为什么还不死”这类代表负面情绪的语言AI会特别注意,并将发布此类言论的用户进行标记。然后,AI会将相应的数据移交给公司专员进行筛选和处理,最后由人工来做出决策。Facebook这套AI防自杀系统没有让AI单兵作战,而是选择人机协作的方式来筛选信息,为提高系统识别自杀的准确度做了一定的保障。目前,AI侦测与回报机制的速度比人工的手动回报快三成,已经大大提高了Facebook信息筛选效率,并成功阻止了多起自杀事件。

图片识别:其实,要机器从一张图片来分析出一个人是否有自杀倾向是一件相当困

难的事情,因为图片的表达有时候比较抽象,其中还会涉及到色彩学方面的问题,就算是人类也不一定能做到。不过AI仍然可以对此做出一些尝试,我们可以拿另外一个AI图片识别的领域来举例,那就是AI鉴黄。由于深度学习的神经网络模型在各种图像识别比赛中取得的突破性进展,目前AI鉴黄一般会采用CNN(卷积神经网络)、GoogleNet、ResNet(残差网络)三种深度网络模型结构。开发人员会需要从技术层面研发出一个“分类器”,从而让AI能够计算出该图是否属于黄图的概率。这套AI鉴黄的原理在理论上来说对于所有的图片识别基本通用,只不过相比鉴黄来说,AI要从图片中识别出自杀倾向的困难点在于难以抓取此类图片的共同点,所以在第一步建立“分类器”上,AI可能会遇到比较大的障碍。因此后续AI识别的准确率,相对文字识别来说,也会不太好保证。

音视频识别:当然,用户在社交平台上发布的内容不仅仅是文字和图片,还有很多

的表达是以音频或者视频的形式。所以,AI防自杀系统在视频直播当中也植入了AI程序。虽然Facebook方面并没有透漏有关该AI视频识别技术的相关细节,但是我们仍然可以从机器视觉领域的进展来窥一窥究竟。之前,一公司的计算精神病学和神经成像研究小组团队利用机器学习预测大脑精神疾病抑郁症,通过对59名普通人的语言方式进行追踪和分析从而预测他们潜在的患病风险,其精确度达到83%,由此我们可以看出机器具备一定能力从语音层面来分析人类情绪。另外,南加州大学曾推出一款AI心理治疗师,能够分析受访士兵的面部表情变化,并将AI分析表情的结果作为诊断士兵是否存在PTSD(创伤后应激障碍)的依据之一。所以,AI防自杀系统要判断视频中的人是否有自杀的倾向,可能首先会从一、人物的面部表情;二、是否存在危险器械;三、是否有流血等画面的特点来进行分析。总的来说,AI防自杀系统的有关图像识别技术基本上会与以上所提到的两个机器学习技术类似。

AI防自杀识别系统之殇,真的很痛

虽然现在AI识别人类情绪的工程一直在持续推进,但是情绪识别对于机器来说仍然不是一件简单的事情。

首先,我们需要弄清楚AI分得清“演戏”和“真实”吗?比如,在快手上存在着大量小剧场表演式的视频类型,很多男生哭天抢地,女生狠心决绝甩耳光的视频得到数百万的点赞。人们把这些视频当作娱乐消遣,而机器会怎么看待这样视频?嘴角下扬、泪眼婆娑、声嘶力竭,这一场场一幕幕会被机器的“眼睛”迅速捕捉,并将其标签为极端消极负面的情绪传播。吃瓜群众津津乐道地一场戏精飙戏在机器眼里成了有自杀倾向的人群情绪宣泄。这可能真的会让人有些哭笑不得。模仿是人类的天性之一,长期熟悉模仿式表演的用户能够很快分辨出模仿和真实情绪的流露之间的细微差别,但是就是这一点点细微的差别却是机器情绪识别最难突破的瓶颈之处。

其次,当机器将识别出的一些负面关键词作为标记自杀人群的标准时,那么我们必须应该让机器知道那些说要“死”的人是不是真的想去死。Facebook这一AI防自杀系统应用于国外会有什么乌龙,我们可能还没那么清楚。但是设想一下,如果把这一系统挪用到中国来,人工筛选的信息量反可能被大大增加。举个例子,在中国的语言系统里有一个很特殊的点,就是很喜欢把“死”作为程度词来使用。在日常生活中,我们随时随地都会听到有人说“热死了”,“冷死了”,“烦死了”,“讨厌死了”,像这类句子在人类看来只是十分常见的日常用语,但是机器对此却难以判定。因为机器家族对这个世界暂时还不存在一个全面的感知系统。当中国被誉为“四大火炉”的几个城市一到夏天,每一个人都能感受到高温的袭来,也会知道在这个时候说“热死了”是多么正常的表达,而机器能怎么办呢,它可并不知道现在的现实世界到底有多热呀。

另外,在机器的背后还需要思考的问题是悬在各大社交平台头顶的一把达摩利斯克之剑—隐私之殇。6月4号,《纽约时报》的报道称在过去十年中,Facebook至少与60家设备制造商(包括苹果、亚马逊、黑莓、微软和三星)达成协议,向它们提供用户隐私信息,这些协议中的多数至今还在生效。Facebook建立了最庞大的信息帝国,但是每一次信息技术的革命只是在表面上让信息看上去更加去中心化,然而实际上却只是建立了更加庞大的信息垄断市场。对比现实世界的条条框框,网络承担了社会“减压阀”的功能。负面情绪再怎么样都是人类的基本情绪,也是人类该有的脆弱。原本以为在无弗届远的网络世界,你能拥有一隅展示脆弱的机会。但是,谁知道你的脆弱已经被平台收集,你躲在黑暗中却被各大商家悄悄盯上。在商业的世界中,商人需要不断发掘人性的弱点,便于制定推广商品的策略。而Facebook正在承担这样一个“老鸨”的角色给商家提供人性的弱点,令人扼腕。

娜拉出走之后,AI防自杀系统还能做什么

AI防自杀系统在正式投入使用后,一个月检测并拦截到的自杀事件有上百个,确实有效挽救了不少生命。但是从一个争议不断的社交平台的角度来说,AI防自杀系统的目的到底是什么还需要探讨。这样的一套AI程序究竟是为了及时拯救生命,还是肃清平台环境,还是仅仅只是平台针对外界质疑的挡箭牌而已。如果,这是为了及时拯救生命,那么这样的AI防自杀系统会面对一个非常有争议的问题,就是娜拉出走之后的问题。今年5月,在厦蓉高速服务区发生一起因欠下巨额高利贷而全家自杀的事件,而事件的主人公正是去年在微博发布遗书之后在海南警方及时救援下最后自杀未遂的同一家人。从这件事中,我们可以意识到微博作为信息平台可以发现并识别这样的自杀信息,但是拯救了一次之后呢?该自杀的还是照样自杀,只不过这次却不关我的事了。说得冷漠一点,或许这些信息平台真正想说的只是:自杀是你的自由,但是请别在我的地盘上自杀。看懂了这一层的逻辑后,这个AI防自杀系统似乎光环不再,最终,Facebook防来防去,防的还是利益损失。

但除去一些个例,AI防自杀系统还是有很大的落地空间。因为AI防自杀系统不仅是在社交平台,还在医疗机构、审讯机构等可以发挥作用,及时阻止一些不必要的伤亡。目前,自杀已经成为世界第十大死亡原因,2016年美国卫生统计中心发布的数据显示,美国的自杀率在15年间上升了24%。但在全球自杀的人群当中,仍然有相当一部分人是属于非理性自杀,他们需要有一个AI防自杀系统能够帮助他们再获得一次重生的机会。所以,期待AI防自杀系统在解决了一些硬性问题之后,全面落地到日常生活当中,拾取更多可能在不经意间逝去的生命。

【完】

智能相对论(微信id:aixdlun):深挖人工智能这口井,评出咸淡,讲出黑白,道出vb深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。

文章为作者独立观点,不代表联商专栏立场。

联商专栏原创文章由作者授权发表,转载须经作者同意,并同时注明来源:联商专栏+智能相对论。