APP下载

AI系统如何不遭人恨

2020-01-08齐夫·卡蒙罗姆·施里弗特克劳斯·韦滕布罗赫杨海洋

商业评论 2020年12期
关键词:顾客人工智能消费者

齐夫·卡蒙 罗姆·施里弗特 克劳斯·韦滕布罗赫 杨海洋

大数据分析、机器学习、人工智能的结合是如今全球经济中最耀眼的闪光点。但也有人不看好人工智能应用,第一个原因就是侵犯数据隐私。人工智能是靠数据驱动的,人们不清楚自动化技术掌握了什么隐私信息,也不明白了解到的信息要派什么用场,由此产生了担忧和不安。

第二个原因就是侵犯用户的自主决定权。当顾客认为服务供应商能够基于他们过去的选择,预测其未来倾向时,他们通常会选择次优方案。也就是说,消费者会有意违背自己的偏好,做出有悖于预测的选择,以重建个人自主权。

企业要想开发不会引起顾客仇视的人工智能技術,需做到以下几点。

保护顾客的个性特点 自主权的一个重要方面就是个性。当人们遇到问题需要帮助时,他们渴望得到人工客服的关注,而不喜欢机器人提供千篇一律的解决方案。人们在生病的时候也更希望见到医生或护士,而不是具备医护功能的机器人,因为他们觉得自己的病情有独特的地方,机器考虑不到这种细微的个体差异。

不过人工智能的机器人可以小步推进,让每一次互动变得人性化。在一项随机对照测试中,如果算法对拒绝顾客交易的原因做了简单说明,那么顾客拨打服务中心电话的可能性就会低于没有任何解释说明的情况。

保护顾客不愿被预测的自由 自由的一个主要方面就是个人可以改变想法,放弃一贯的行为模式。消费者越是觉得公司期待他们按照过去的选择走出下一步(比如商家根据其购买记录或浏览历史,有针对性推送商品),就越想摆脱这样的选择定式。

谨慎选用推送措辞会有所帮助。如果把消费者行为描述成“前后一致”(表达正面含义),而不是“可预测”(传递负面含义),那么在消费者心里,这种对自主决定权的威胁可能就没那么大。例如,消费者在亚马逊上买了《指环王》系列丛书中的一两本,那么接下来他们会收到邀请来“继续领略托尔金的作品魅力”或“全面了解本套丛书”。这种推荐方式会无形地鼓励他们按原先选定的道路前行,而不会迫使他们做出改变来彰显自己的独立自主性。

保护顾客的隐私 去年,《纽约时报》报道称,美国至少有75家公司从多达2亿部移动设备中收集极其精确的位置信息。美国东北大学的研究者发现,有9,000多个安卓应用得到授权,可以调用所安装设备上的麦克风与照相机。

利用算法来推导人的行为,有时会很愚蠢,令人气愤甚至心碎。2018年,一位任职于《华盛顿邮报》的视频编辑流产了,但线上的孕妇产品广告还是源源不断地推送给她,一次又一次撕开她内心的伤口。因为有了社交媒体,这类严重侵犯个人隐私的事情很容易就被公之于众。企业应当小心谨慎,避免过度利用相关数据。

齐夫·卡蒙 罗姆·施里弗特 克劳斯·韦滕布罗赫 杨海洋

大数据分析、机器学习、人工智能(AI)的结合是如今全球经济中最耀眼的闪光点。根据麦肯锡全球研究团队(McKinsey Global Research)的估算,到2030年,人工智能的使用给全球经济的贡献总量将高达13万亿美元。对人类而言,人工智能带来的非经济利益也同样可观,它能够让世界更加安全(减少毁灭性的人工错误),提高人们的生活质量(开车、购物等单调重复事务占用时间更少)。很多人担心即将到来的自动驾驶会给劳动力市场带来颠覆性影响。即便如此,我们的生活总体来说还是会变得更好。

但并不是所有人都接受这一点。不看好人工智能应用的预测主要集中在两大领域,彼此关联但相对独立。第一项事关数据隐私。不管怎么说,人工智能是靠数据驱动的,人们不清楚自动化技术掌握了什么隐私信息,也不明白了解到的信息要派什么用场,由此产生的惶惑不安是可以理解的。数字时代的隐私问题已经有人做了广泛的研究和论述。相关企业正越来越关注如何减轻顾客的担忧情绪。

然而,有一点许多企业还没有认真考虑过,那就是自主性。尽管自动技术应用的范围很广,而且会越来越广,但如果超过一定限度,就会威胁到用户的自主权与自由意志,换句话说,用户是否还拥有自由選择生活方式的决定权。最近一项研究发现,当顾客认为服务供应商能够基于他们过去的选择,预测其未来倾向时,他们通常会选择次优方案。也就是说,消费者会有意违背自己的偏好,做出有悖于预测的选择,以重建个人自主权。

技术与自由意志之间的冲突关系久已有之。费奥多尔·陀思妥耶夫斯基(Fyodor Dostoevsky)在1864年创作的小说《地下室手记》(Notes From Underground)中,借与社会疏离的主人公“地下人”之口对此做了描述。这位主人公认为,即使在一个乌托邦社会,人类也会做出反抗,目的只是想证明“人仍然是人,而非钢琴琴键”。

不幸的是,技术对人的威胁可能会随着技术创新的加速,以及自动设备不断进入顾客生活的全新领域而进一步加剧。我们是在最近对哲学、营销、经济以及其他一些领域的不同观点做了调研之后得出上述结论的。但好消息是我们经过分析,还提出了几条建议,帮助企业开发不会引起顾客仇视的人工智能技术。这些建议可以分成以下三类。

保护顾客的个性特点

自主权的一个重要方面就是个性,个性的意思就是我们每个人都有与众不同的核心特点,人与人不可能相互取代。这一思想在西方发达社会尤为突出(当然也并不局限于西方)。但现在我们生活在算法的时代,算法可以根据大众数据对个人的偏好与行为做出准确预计,这对消费者的个性意识构成了挑战。

举例来说,现在企业越来越多地使用人工智能驱动的客户服务机器人,对顾客遇到的问题或咨询提供基本答案。对许多顾客而言,这些机器人使用起来更方便,相比呼叫中心的客服代表,机器人服务对象更多,同时耗时更少。然而,有些消费者对人机互动还是抱有抵制态度。当人们遇到问题,需要帮助时,许多人渴望得到人工客服的关注。他们可能是受到了早期技术低级、体验不佳的影响,比如呼叫中心可能只是安排他们走完一套标准化的选项菜单,从不让他们与人工客服对话。从更广的范围来看,许多人不喜欢这种标准化的做法,仿佛他们的问题都大同小异,完全可以用机器人来提供千篇一律的解决方案。

最近一项研究发现人们在生病的时候还是更希望见到医生或护士,而不是具备医护功能的机器人(即使有人告诉他们机器人诊断更加准确),因为他们觉得自己的病情有独特的地方,机器考虑不到这种细微的个体差异。(的确,相比一般的消费行为,医疗决策关系重大,但适用原则并无二致)

一部分技术派人士认为这个问题可以自然得到解决,因为人工智能应用很快就能进化到让消费者看不出人机差别的程度。但这种靠技术完善来解决问题的策略有时也会事与愿违。谷歌曾经推出的虚拟助手Duplex能够模仿人类说话,精度之高,令人称奇,但很快就遭到公众的挞伐。

不过如果设计手段正确,企业或许都不需要做特别的说服工作。比如,AI机器人可以小步推进,让每一次互动变得人性化,从而消除用户对于自主决定权受到侵犯的担忧。有时候虽然只是一点点人性化改进,收效却很明显。2016年的一项研究发现,消费者在选购一些像咖啡、水笔等产品时,如果制作者(人工咖啡师或企业代表)能喊出顾客的名字,一下子就能提高顾客对产品的亲切感。另一些正在进行的研究发现,在随机对照测试中,如果算法对拒绝顾客交易的原因做了简单说明,那么顾客拨打服务中心电话的可能性就会低于没有任何解释说明的情况。

同样,企业可以设计一些互动环节(和AI机器人互动也行),让用户感觉自己对过程有控制权,从而保护他们的个性。著名的宜家效应也是基于此理,顾客买来平板包装的家具组件,自己动手组装,他们与所购商品之间由此产生了一种更加紧密的联系。如果企业努力把互动做得无比顺畅便捷,那么消费者就没有机会表达自己的个性和自主权,也无法加深与相关产品和服务的联系。如果人工智能可以让用户感觉到自己的使用体验与众不同,那么就容易得到顾客的青睐。

有些企业可能想用模拟互动的方式来走捷径,达到同样的效果。在一项研究中,某个牙医诊所告诉病人在感觉疼痛的时候,可以通过按某个按钮告知医生。研究发现病人就医过程中其实很少揿下按钮,但拥有自主权的感觉着实让疼痛有所缓解。

我们从这个实验中知道,代表选择权的控制杆,即使是摆设,也能够满足人们拥有对环境控制权的愿望。但是一旦这种把戏被揭穿,绝大多数顾客不会喜欢被骗的感觉,因此控制效果无论多小,还是要有一些,这好过完全弄虚作假。说到底,在请顾客参与这件事上,做不做与怎么做,前者肯定更重要。

保护顾客不愿被预测的自由

自由的一个主要方面就是个人可以改变想法,放弃一贯的行为模式,用哲学家的话来说,就是“另辟蹊径的自由”。对于人工智能的开发者而言,这个问题如影随形,因为即使是最精细的机器学习算法也难以预测人类的任性作为。消费者越是觉得公司期待他们按照过去的选择走出下一步(比如商家根据其购买记录或浏览历史,有针对性推送商品),就越想摆脱这样的选择定式。

谨慎选用推送措辞会有所帮助。我们正在进行的一些研究表明,如果把消费者行为描述成“前后一致”(表达正面含义),而不是“可预测”(传递负面含义),那么在消费者心里,这种对自主决定权的威胁可能就没那么大。考虑到这种差异,企业在推荐商品时,如果以邀请顾客完成某项任务,或获得更多深层知识的形式提出来,那就不大容易激起顾客的反感。例如,消费者在亚马逊上买了《指环王》(Lord of the Rings)系列丛书中的一两本,那么接下来他们会收到邀请来“继续领略托尔金(Tolkien)的作品魅力”或“全面了解本套丛书”。这种推荐方式会无形地鼓励他们按原先选定的道路前行,而不会迫使他们做出改变来彰显自己的独立自主性。

话虽这么说,有时跳出旧习窠臼对消费者是最有利的。举例来说,有一位近来对身体状况非常在意的消费者出于健康考虑,减少了含糖苏打水的摄入。可是当他回到家,发现亚马逊根据他之前的购买记录,利用算法自动为他订购了之前钟爱的品牌饮料,这时他可能觉得技术在瓦解他的意志力。同样,一位烟民如果通过App提示或邮件了解到电子烟促销信息,他可能会很气愤,感觉戒烟更困难了。

但人工智能是系铃人,也是解铃人,它可以帮助消费者摆脱不好的旧习,提升他们的自主意识和消费忠诚度。的确,我们所做的研究认为,算法经过训练可以找到那些计划有所改变,让自己更加积极健康,但落实到行动还需要一点点推动的人。这类消费者的购买行为特别能说明问题,研究者将其定义为“预承诺”。举例来说,有些消费者担心自己意志力不够,抵御不住诱惑,于是他们会给自己做规矩,提高犯错的难度和代价。比如,“预承诺”的消费者为了减少食用垃圾食品,不再购买那些性价比高的大包装零食,而改选那些小包装、单价高的同类商品。还可以再举一个有代表性的例子,有些设定了高难度目标的人会到stickK.com网站上寻求承诺兑现工具,提高因坚持不下去而付出的代价。

如果消费者传递出了“预承诺”信号,而公司想加以利用,那该怎么做?它们可以设计一种算法找到这部分消费者,用更加正规、严谨的选项,帮助他们持续改善生活方式。同时对于下决心要有所改变的消费者,公司还可以助推一把,鼓励他们将长期目标和更高的生活愿望公之于众。当然,提建议要考虑用户感受,要用明确的语言告诉用户,这并非必选项,任何时候都可以禁用或删除。当人们开始使用这一产品或服务平台时,人工智能还可以发现在哪些关键节点,消费者会更愿意尝试相关选择,从而与他们之前声明的长期目标保持一致。

研究显示,当人们审视自己的行为时,他们会更加趋近于自己内心根深蒂固的偏好。一项针对美国选民的调查发现,尽管许多选民认为“政策包含什么内容”比“哪个政党支持某项政策”更重要,更值得考虑,但在投票时,他们还是会选择政党。这时如果有人要求他们再仔细考虑究竟该把票投给“政策”还是“政党”,他们又可能转变为根据政策内容来做决定,因为这样更符合他们真正的偏好。选民只需对自己的投票行为多些反思,就会更理解自己做选择的方式。一个根据消费者过去习惯训练而成的算法是发现不了这种可能性的。因此,人工智能除了要让消费者意识到并表达“另辟蹊径”的自由,帮助他们将种种选择变得简单明了,还要给消费者更多机会宣示他们的抱负,或者說“底层偏好”,从而造福他们。

保护顾客的隐私

隐私和自主权是相对独立但又彼此重叠的关联概念。在人们想做一些事情,又不希望别人知道的时候,如果必要的保密做不到,那么当事人的决定肯定会受到影响。没有一定程度的隐私,独立自主的人就会感到不安全。脸书、谷歌以及其他互联网公司都提供了隐私设置,算是对隐私有了一丁点儿保护,当然前提是用户知道如何操作这一设置。

从更普遍的意义而言,互联网模糊了个人公共归属和私人领域的界限。我们拿着数字设备工作的同时,一些个人信息自动传递了出去,包括谷歌搜索、约会软件Tinder配对、YouTube浏览、Siri问询、Alexa请求,以及我们在线做的一切,所有这些都有可能被拦截、被利用,给我们造成不利影响。尽管如此,我们还是心无挂碍地向手里的设备吐露心声。这一方面证明了当今工程师、设计师善于诱惑人心,另一方面也表明人类容易对一些问题熟视无睹,哪怕它们越来越触目惊心,直到临界点的出现。

现在我们已经过了这个临界点,因为人们越来越意识到,个人网上隐私所面临的威胁不仅仅来自那些网络罪犯。去年,《纽约时报》(The New York Times)报道称,美国至少有75家公司从多达2亿部移动设备中收集极其精确的位置信息,个人用户每天被追踪的次数多达1.4万次。美国东北大学(Northeastern University)的研究者发现,有9,000多个安卓应用得到授权,可以调用所安装设备上的麦克风与照相机。研究人员还发现有些应用程序可以随意获取用户的个人活动数据,并且把这部分数据传输给第三方。

最近美国联邦贸易委员会(U.S. Federal Trade Commission)对YouTube处以1.7亿美元的罚款,因为后者收集了不满13岁的儿童个人信息,用于优化在线广告的推送。

利用算法来推导人的行为,有时会很愚蠢,令人气愤甚至心碎。2018年,一位任职于《华盛顿邮报》(The Washington Post)的视频编辑流产了,但线上的孕妇产品广告还是源源不断地推送给她,一次又一次撕开她内心的伤口。

因为有了社交媒体,这类严重侵犯个人隐私的事情很容易就被公之于众。如果哪家公司的人工智能解决方案最终给消费者造成了情感上的伤害,那么它也会反受其害。

由于对数字化隐私的关切已经到了临界点,力量的天平正在从科技公司向用户倾斜。欧盟的《通用数据保护条例》(General Data Protection Regulation, GDPR)就是一个很好的例子。我们的建议是,面对趋势转变,公司不应该抗拒,而应该积极拥抱变化,主动寻找办法让用户对于个人数据的使用拥有更大的掌控权。苹果公司(Apple)CEO蒂姆·库克(Tim Cook)已经把妥善处理顾客隐私作为品牌差异化的重要手段。如果措施得当,更平等、更透明的隐私政策将让所有人受益。

保护好隐私和自主权,需要人们重新思考敏感信息如何得来,最终用途何在。尽管发生了几桩臭名昭著的侵权事件,但算法在互联网搜索、社交媒体点赞等信息输入的基础上,将会越来越准确地预测出用户所需。企业应当小心谨慎,避免过度利用相关数据,它们还是要继续让用户感到喜欢什么是自己的事,而且别人不会知道。

一项正在进行的研究项目显示,消费者如果觉得自己在做决定时,一直受到监视,他就会认为他的自主决定权受到了严重威胁。相比之下,已决定好的事情,別人把它透露出去,这给当事人带来的影响则要轻微一些。有鉴于此,当给顾客推荐商品时,说“根据您之前的购买记录”要比“根据您之前的浏览历史”好一些,前者对消费者自主意识的威胁要小。我们的研究发现,对消费者而言,跟踪已经完成的购买(相当于公开表达对某些产品和服务的需求)相对公平,而界定模糊的在线监控则有失公平。

安抚“地下人”

让我们把话说明白:我们并不认为基于算法的创新应该停止前进,或放慢脚步。相反,我们的观点是,有了这些新技术,人们的生活与经济发展才不断得以改善,其影响之深远,已超出人们的想象。

但是,公众对技术越来越心存恐惧和顾虑,互联网企业不能对此再不闻不问。人类需要自主决定权,但技术对此构成了威胁。如果科技行业解决不了这个问题,就可能会激起消费者的持续愤怒,并招致后续的严格监管。例如,现在越来越多的政府官员要求算法有更高的透明度,这将是对创新的强大约束。相比之下,我们在本文中提出的几项用于保护自主决定权的措施则要温和得多。

激进的变革并无必要。但如果只是把一两件小事的控制权交到消费者手里,那也明显不够。借用陀思妥耶夫斯基的话来说,要真正将“地下人”安抚好,我们要避免有任何举动威胁到人们对自主决定权的需求,同时把一些旨在帮助用户重获自我意识的应用特点与功能整合起来,避免使人沦为钢琴琴键。

猜你喜欢

顾客人工智能消费者
“一站式”服务满足顾客
消费者网上购物六注意
人工智能与就业
知识付费消费者
悄悄偷走消费者的创意
悄悄偷走消费者的创意
以顾客为关注焦点
顾客是我们的上帝品质是顾客的需求