专栏名称: 群学书院
群学书院由南京大学学者举办。秉承百年学府悠远文脉,依托全球领域智库资源,定期举办各类专业课程、沙龙、研讨、参访。传播多元文化,共铸人生理想,为创造健康社会不断前行。总部地址:南京中山陵永慕庐。
目录
相关文章推荐
龙岩发布  ·  晚安 龙岩|卓越不是偶发的行为,而是…… ·  11 小时前  
龙岩发布  ·  晚安 龙岩|卓越不是偶发的行为,而是…… ·  11 小时前  
龙视新闻联播  ·  哈尔滨师大夜市营业时间有调整 ·  昨天  
龙视新闻联播  ·  哈尔滨师大夜市营业时间有调整 ·  昨天  
梅特涅的信徒  ·  资治通鉴:鸿门宴 ·  昨天  
51好读  ›  专栏  ›  群学书院

遭受网暴一年后,首富钟睒睒火力全开,炮轰“算法”:很多恶是人为的……

群学书院  · 公众号  · 自媒体  · 2024-12-17 08:15

正文

请到「今天看啥」查看全文



企业在要求算法提高用户参与度的时候,就开始了一个走向偏激与极端的过程,这种情况不仅发生在缅甸,而且发生在全世界。

例如,2012年,YouTube在全球的总观看时长约为每天1亿小时。但公司高层还不满足,于是给算法确立了一个充满野心的目标:到2016年,这一数据要达到每天10亿小时。

经过对数百万人的实验,不断试错,YouTube的算法发现了脸书的算法也掌握的那套模式:只要激起人们的怒火,就能提升参与度,而走中庸节制的路线则行不通。


于是,YouTube的算法开始向数百万观众推荐各种让人惊骇、愤慨的阴谋论,同时无视那些较为中庸、理性的内容。2016年,YouTube每天的总观看时长达到10亿小时。

那些想博人眼球的YouTube主播发现,如果发布满是谎言、让人愤慨的视频,会受到算法青睐,视频会被推荐给大量观众,于是自己的人气会飙升,收益也会增加。

相较之下,如果不刺激人们愤怒的情绪,坚持只谈事实,算法常常对他们的作品视而不见。经过几个月的强化学习,算法让许多YouTube主播都成了喷子。

当然,并不是YouTube的算法编造了谎言或阴谋论,或者创作了偏激、极端的内容。至少在2017—2018年,这些内容还是由人类创作的。

然而算法所做的,是鼓励人类往这个方向走,并且不断推荐这些内容,以最大限度地提升用户参与度。

算法之祸,谁之过?

脸书、YouTube、TikTok等平台的管理者为了找借口,常常会说这些问题不是算法带来的,而是源于人性。

他们表示,人性是各个平台上一切仇恨与谎言的源头。这些科技巨头认为,因为他们信守言论自由的价值观,所以审查人们表达真情实感真的很难。

人类是非常复杂的生物,良好社会秩序会培养人类的美德,同时减少人类的消极倾向。然而社交媒体算法只把人看成矿井,想要“开采”更多的注意力。

人类有丰富的情感,如爱、恨、愤慨、喜悦、困惑,但算法把一切简化成一件事——参与度。

就像种族冲突从来都不是单方的错,是许多方面都出了问题,有许多责任方必须共同承担。

有一点很清楚,对罗兴亚人的仇恨早在脸书出现在缅甸之前就已存在,而之所以会发生2016—2017年的暴行,最大的责任应落在相关的责任人身上。

收容罗兴亚人的孟加拉库图帕 隆难民营


至于脸书的工程师与高管也该承担部分责任,他们写了算法的代码,赋予算法太多的权力,而没能对它们好好地管控。很重要的一点是,算法本身也逃不了干系。

通过反复实验,算法学到了愤怒会提升参与度,而且在没有上级明确指示的情况下,算法自己决定要助长愤怒。

这正是人工智能的典型特征──虽然它们是机器,但它们拥有自己学习与行动的能力。即使我们说这里算法只需要承担1%的责任,这也会是历史上第一个“部分归咎于非人类智能决策”的种族冲突事件。而且这不会是最后一次。

现在,算法已经不局限于在有血有肉的极端分子创造出假新闻与阴谋论之后,再加以推送传播,在21世纪20年代初,算法已经能够自行制造假新闻与阴谋论。


之所以有必要了解这一点,是因为目前的情况还在人类的掌控之中。虽然不知道还能持续多久,但目前人类仍有能力左右这些新的现实。

为了能做出明智的决定,我们需要了解目前正在发生的事情。我们在编写计算机代码的时候,绝不只是在设计一个产品,而是在重新设计人类的政治、社会与文化,所以我们最好对政治、社会与文化都有一定的了解。

而且我们做的决定,最后也必须由我们来负责。

我们已经到了一个历史转折点:当下历史的重大进程,有一部分是由非人类智能的决定推动的。正因如此,计算机网络的易错性才变得如此危险。

计算机犯错原本不算什么,但当计算机成了历史推动者时,这些错误就可能带来灾难。


尤瓦尔·赫拉利系列作品
《智人之上》
点击图片,即可下单

《人类简史》三部曲
10周年纪念版
点击图片,即可下单

《人类简史》知识漫画
点击图片,即可下单



THE END










请到「今天看啥」查看全文