APP下载

用进化论解释 为何我们一上网就判若两人

2018-06-12盖亚·文斯

海外星云 2018年10期
关键词:推文社交机器人

盖亚·文斯

2018年2月的一个晚上,玛丽·彼尔德教授在推特上贴了一张自己哭泣的照片。这位剑桥大学的知名古典语言文献学者在推特上有近20万的粉丝,但当时陷入了焦虑。此前她发表了一则关于海地的评论,结果在网上被骂得狗血淋头。后来她说:“我说的是心里话,也许我错了。但我收到的回复都只是些胡说八道,真的很没道理。”

接下来的日子,一些知名人士声援了彼尔德,即使他们并非都同意她最初的推文。结果这些人也遭到攻击。彼尔德在剑桥大学的同事、亚裔女学者戈帕尔在一篇网文中对彼尔德最初的推文做出回应,同样遭到铺天盖地的辱骂。

女性和少数民族成员,在推特上遭受网络暴力的情况最厉害,包括受到死亡威胁和性暴力威胁。当这两个身份标记迭加一起,那情况就更严重。正如黑人女议员阿伯特所经历的,在2017年英国大选前夕,她一个人遭受了辱骂女议员全部推文的近乎一半。即使将她算在外,对黑人和亚裔女议员的辱骂推文,平均下来也比其白人同僚多了35%。

这种持续不断的网络暴力强迫人沉默,不得不远离网络平台,这进一步减少了网上的不同声音和多种观点的表达。而且该情况毫无减弱的迹象。去年的一项调查显示,四成美国成年人经历过网络暴力,其中近半数人遭受了更为严重的骚扰,包括人身威胁和跟踪。七成女性表示在线骚扰是“问题所在”。

互联网前所未有地令全人类都能彼此交流沟通。然而我们并未能扩建更大的在线社交圈,反而像是退回了相互冲突不断的部落时代。

在现实生活中,我们总是彬彬有礼地和陌生人交流,然而一到网上,我们就变得很讨厌。有没有什么办法,能让我们重新学习合作,作为同一物种的人类,一齐繁荣兴旺呢?

“别想太多,点下去就行!”

我一点,快速跳转到下一个问题。大家都在和时间赛跑。我的队友离我很远,也不知道他们是谁,所以我不知道是否大家都在一起玩游戏,还是只有我被当猴耍了。但我知道其他人还是需要我的。

这是耶鲁大学人类合作实验室里一个叫公共财产博弈的游戏。研究人员以此来帮助我们理解人们合作的方式和原因。

千百年来,人类为何能彼此合作建立强大的社会?科学家提出了各种各样的理论。现在大多数人相信,人类普遍的善是进化的结果,因为当人们通力合作时就有会生存的优势。

在这个游戏中,四人一组,但在不同位置,我是其中的一员。我们每个人会分到一样多的钱。大家得想好捐多少钱到团队聚宝盆中,而盆里的钱会翻倍后再平分给四个人。和其他合作一样,这取决于我们有多相信队友的靠谱。如果每位队友都捐出所有的钱,那翻倍后再分四份,每人的钱就都翻倍了。结果是双赢!

“但如果你只从自己的角度出发,”实验室主任兰德说,“你每捐出的一美元都要在翻倍后分成四份,等于捐出一美元,只能拿回50美分。”

换句话说,对于一个人搞不定的項目,比如现实生活中集资建医院,一群人合作肯定能获得更多的回报。即便如此,个人层面上还是有损失的。可以说在经济上,你越自私,赚的钱越多。

兰德的团队已经在上千名玩家中开展过这个游戏。其中一半人像我一样,被要求在10秒钟内把钱捐出去。另一半人却被要求慢慢想、慎重决定。实验证明,那些凭本能投钱的人,会大方得多。

“很多证据表明合作是人类进化的核心特征,”兰德说,“我们祖先生活在小型社会中,与之互动的都是经常见面、经常来往的人。”这就避免了有人特别好斗,或者钻别人的空子,占他人便宜。

所以,与其每次都苦苦思索自己是否能长期获利,不如坚持对人大方点这个基本原则,这样反而更方便、有效。所以在实验中,不加思考会比较慷慨。

但是人们后天的行为举止是会变的。

通常,在兰德的游戏实验中,必须立刻做决定的人都很慷慨,也都收到了丰厚的分红,这也加强了他们慷慨的意向。但是那些可以慢慢思考的人,就会变得更自私,最后聚宝盆里的钱越来越少,让人觉得依靠团队是没有回报的。

在下一步的实验中,兰德给参加过第一轮游戏的人一些钱,问他们愿意捐多少给一个匿名的陌生人。这一次没有激励机制,人们给钱全凭良心、没有回报。

在第一轮里慷慨大方的人,比自私小气的人,多给了一倍的钱。

“我们正在影响人们的心理活动和行为举止,”兰德说,“甚至包括没人监视、没有奖惩机制时,大家的行为。”

兰德的团队还测试了不同国家的人民怎么玩这个游戏,从而观察政府、家庭、教育和法律系统这些社会机构如何影响人们的行为。比起美国,肯尼亚的公共部门相当腐败,该国游戏选手最初给匿名的陌生人捐钱时,就不如美国选手大方。这表明,社会机构较为公平、令人信赖的地方,较之社会机构不太可信的地方,人们会更有公德心。然而,仅仅经过在一轮公共财产游戏的“合作提升版”后,肯尼亚人和其美国对手就一样慷慨了。甚至出现了此消彼长,美国人接受自私的训练后,捐出的钱就大大减少。

所以,也许网络社交媒体文化中某方面的确鼓励了恶劣的行径。比如,社交媒体是一种脆弱的建制,不像狩猎采集社会那样必须依赖合作来求生存,规定食物必须分享。社交媒体彼此交往有现实距离、相对匿名,对不良行为也没什么声誉影响或惩罚。如果你表现卑劣刻薄,你的熟人里没谁会知道。

另一方面,你能选择发表能有益于你的群组中形象的意见。比如在耶鲁大学的克罗克特实验室,研究人员研究了社交情绪,尤其是道德义愤,在网络上如何变化。大脑成像研究显示,当人们感到道德义愤时,比如在现实生活中碰见别人让狗在操场上大小便,这时,大脑的奖赏中枢就活跃起来,让人感觉很兴奋。这就强化了他们的道德义愤,让他们更愿意做类似的事。而且,虽然挑战违背小区规范的人会有风险,可能要被胖揍一顿,但你的个人声誉却提升了。

我们这些人有幸生活得还算太平,很少遇到真正令人义愤填膺的行为,所以也很少看到有谁把道德义愤表露出来。但若你打开推特或者脸书,那就能看到全然不同的一番景象。最近有研究表明,发布的信息里若有关于道德和情绪的词汇,就更容易在社交媒体上传播。在推特上每一个义愤或情绪化的字眼,都会让推文的转发率增加20%。

“激起愤怒和表达愤怒的内容最容易得到分享。”实验室主任克罗克特说,我们在网上创造的是“一个选择了最粗暴内容的生态系统,再配上一个比以前更容易表达愤怒的平台。”

不像现实世界,网络上几乎没有面对别人或暴露自己的危险。而且它还能自我强化。“如果你因为有人违反规矩而谴责他,那其他人就会觉得你特别可靠,所以你可以通过表达愤怒和谴责规范破坏者,来宣传自己的道德质量。”克罗克特说。

“离开网络,你在现实世界中,只能在当时的旁观者那里提高自己的声誉;而在网上,你可以向整个社交网络宣传自己,这样的话,表达愤怒给个人带来的好处就会极大的增加。”

而且别人来“点赞”,作为一种积极回馈,加重了这种行为。结果,社交平台使得人们对表达愤怒习以为常。“而习惯是不考虑后果就会去做的事。”克罗克特指出。

从正面看,网络道德义愤能让边缘群体、弱势群体推动起以前很难开展的事业,在聚焦位高权重的男性对女性的性侵犯上发挥了重要作用。2018年2月,美国佛罗里达州的青少年在社交媒体上抗议又一起校园枪击案,促进了公众舆论的改变。

“我觉得一定有什么办法来保持网络世界的好处,”克罗克特说,“同时得审慎考虑重新设计互动模式,以去掉那些负面代价太大的信息。”

令人欣慰的是只需要少数人就能改变整个网络文化。

在耶鲁大学的人性实验室,克里斯塔基思和他的团队就在鉴别这样的人,并募集他们参加对社会有益的健康项目。在洪都拉斯,他们正在用这个方法来改变疫苗接种登记和孕产妇护理之类的事。在网上,这种人有可能把欺凌文化转变成支持性文化。

商界已经开始用一个简易系统来识别所谓的Instagram “大V”,从而来推销自己的品牌。然而克里斯塔基思不仅仅关注一个人能有多红,还要看他们怎么融入一个特定的网络。举个例子,在一个偏僻的小村庄里,大家密不可分,聚会时每个人都互相认识。相反,在城市里,总的来说人们应该住得更近,但你不太可能认识聚会中的所有人。在网络社群,成员相互交往的程度会影响行为和信息如何在其周围扩散。

为了探索这一点,克里斯塔基思设计了软件来创造一个临时的在线人造社会。“我们让人们进去互相交流,比如看他们怎么玩公共财产游戏,以此来评估他们对别人会有多善良。”

然后他操纵了网络。“用某种方法设计他们的交流互动,我能让他们对彼此都很好,通力合作,健康快乐。但要是你换一种方式来对待这群人,他们互相之间都会变得很混蛋。”

在一次实验中,他随机分配了一些陌生人互相来玩公共财产游戏。他说,一开始,2/3左右的人会很合作。“但是和他们互动的一些人会利用别人。选择只有两种,要么善良合作,要么背叛别人,如果对手是会占人便宜的人,他们往往选择背叛对手。结果实验到最后,所有人都变得很混账。”

一轮游戏后,克里斯塔基又赋予每人一点对互动对象的支配权。大家必须决定,要不要对旁边这个人友好大方点,以及是否会跟他互动。每个人唯一知道的是对手在上一轮游戏中是选择了合作还是背叛。“我们能证明,人们跟背叛者切断了联系,跟合作者则建立了联系。这个网络会重新自我组建。”也就是说,一个合作的、亲社会的架构取代了一个不合作、反社会的架构。

为了形成更多合作的网上小区,克里斯塔基思的团队开始往他们的临时小社会里加入机器人。他的团队无意于发明智商卓著的人工智能来取代人类认知,而是往一群聪明人里渗透了一些“笨笨的机器人”,来帮助人类改善自我。

事实上,克里斯塔基思发现如果机器人玩得很好,那对人类毫无帮助。但要是机器人犯点错误,那就激发了小组寻找解决方案的潜力。换句话说,给网络系统添一点机器人带来的阻力,反而能促使网络更有效地运作。

这个模式涉及到渗透同派别人群的新闻推送,偶尔提供不同的观点,让人们从自己社交媒体的舒适区里跳脱出来,让社会凝聚一心、通力合作。

机器人可能会给另一个网络问题提供解决方案,那就是网上许多反社会行为源于网络交往的匿名性。

有一个实验是让机器人换上白人外貌的头像,来回复一些种族主义者发给其他黑人用户的推文,这能大幅度减少种族歧视带来的辱骂。对于种族主义者的推文,一个典型的机器人回复是:“嘿,兄弟,请记住,你说的话伤害的可是活生生的人。”只要给这些人培养一点点同情心,就能在数周之后令其种族歧视的推文渐趋于零。

针对网络上虽然行为恶劣但个人声誉不太会受损这一点,另一个解决方式是建立一种社会惩罚机制。游戏公司英雄联盟推出“法庭”功能,负面行为会受到其他玩家的惩罚。该公司报告说,一年中有28万玩家在受到这种惩罚后有所“改进”,在小区中赢得正面的形象。开发人员还会在游戏程序里嵌入一些对良好行为的社交奖励,来鼓励更多有助于建立人际关系的合作。

研究人员已经在探索,如何预测交流何时将会恶化,即找到这个变化时刻,好通过先发制人的干预来改善局面。康奈尔大学信息科学系的米基尔说:“可能你觉得网上所有的坏事都是少数反社会的人做的,就是所谓的出言不逊的网络喷子。但在工作中我们发现,普通人如你我,也会参与这种反社会的行径。在某段特定时期里,你可能真的就是个喷子。这实在出人意料。”

米基尔一直在研究网上文章下面的评论区。他发现了两个触发丑恶心态的因素:你的情绪,以及交谈的内容(例如其他用户的行为)。“举个例子,你今天很不顺,或者碰巧是周一,那跟平时比,你更容易出言不逊。而要是在周六的早上,就会好很多。”

米基尔收集了数据,包括以前那些喷子的信息,建立了一种准确率达80%的算法,来预测人们何时就要开口喷人。这就给延迟评论的发布等创造了机会。如果人们写东西能三思而后言,就能改善相互交流的情境,你不太会看到别人失礼,自己也就不太会失礼了。

尽管我们许多人在网上见惯了恶劣的行径,但大多数交流互动还是相互协作的,而且,正当的道德义愤也有助于反击惹人厌恶的推文。最近英国一项关于推特上反犹主义的研究发现,较之反犹主义的推文,反而是质疑它们的推文传播得更广。大多数可恶的推文都会被忽略,或者在几个同类账号的小圈子里引起一点小小的回响而已。也许我们自己已经开始充当清理网络环境的小机器人了。

不过要知道,我们用了几千年来磨合人际交流,但社交媒体的历史还只有20年。米基爾说:“线下的真实交往,从面部表情到肢体语言和说话语调,都能看出端倪。但是在线,我们只能通过文字讨论事情。所以我觉得,在找寻探讨合作的正确之道上困难重重,实在不用惊讶。”

随着我们网络行为的改善,我们大可以引进图释和表情包来缓和在线讨论的气氛。同时,面对网络暴力,建议保持冷静。不需要以牙还牙,不需理会,或拉黑即可。如果你觉得自己能对付,那就叫对方闭嘴。也可以把事情告诉亲朋好友,让他们帮你。或把网络骚扰信息截屏,向所在的社交媒体服务商举报。如果还有人身威胁,那就报警。

如果我们熟知的这些社交媒体能长存下去,那么运营这些平台的公司,就必须掌握好规则,或许在行为科学的引导下,鼓励合作和善意,反对敌意和辱骂。作为用户,我们也会学着适应这种新的沟通环境,不论在线线下,都让文明有效的互动交往成为常态。

“对此我很乐观,”米基尔说,“这也可以算作一个游戏,我们会慢慢发展,越来越好。”(摘自英国广播公司新闻网)

(编辑/多洛米)

猜你喜欢

推文社交机器人
徽州文化在社交媒体Twitter上的传播研究
社交牛人症该怎么治
社交媒体中的影响者
社交距离
特朗普上任至今发推文1.1万条
特朗普推文哪条最招人烦
比起社交媒体,我更在意逝去的时光
机器人来帮你
认识机器人
机器人来啦