您的位置:首页 > 其它

算法社会的恐惧之源

2019-05-30 17:12 597 查看

  算法如何改变我们的生活

  当下,我们每个人如果环顾自己的生活,就会豁然发现:大数据时代算法技术应用的日益普及,的确使我们大步流星地迈入到了一个充满颠覆性和变革性的算法社会。

  在算法社会中,不仅新闻传播、购物推荐、投资理财、职场评估、司法审判、智能警务等各个领域都迎来了颠覆性的变化,甚至在极为私密地寻找人生伴侣这种看似一切随缘的人生大事上,也可能出现丹·斯莱特在《算法时代的爱情》一书中描绘的那样:也许有一天,科学算法会帮你选定“灵魂伴侣”。只不过,“数字配对下的爱情”让一切偶遇都变得不再神秘,算法时代的爱情可能很难再让人产生“终于等到你”那般的刻骨铭心。

  当算法像一只无形之手开始安排着我们的生活时,很多人萌生了一种焦虑和不安。

  如果去网上书店查阅一下与算法相关的社会科学书籍,就会发现这样的现象:大量的书籍和文章描述着算法可能带来的危机。“算法歧视”“算法合谋”“算法霸权”“算法黑箱”“算法短视”等术语甚嚣尘上,时刻警醒着我们:算法社会的到来将会伴随着新一轮的技术信任危机。

  因此,在不得不张开双臂拥抱算法社会的来临之时,不妨停下匆忙的脚步,去观察算法社会到底如何改变我们的生活以及从本质上追问——当我们惧怕算法时,到底在惧怕什么?

  当我们惧怕算法时,到底在惧怕什么

  如今,一个主流“数字青年”可能早已习惯于这样一种生活方式:用计步器衡量自己每天的活动轨迹;用膳食APP记录自己每餐摄入的卡路里;用智能手环监测自己的睡眠;用点赞数量去衡量友情和人脉。??

  我们应当意识到,当算法步入社会情境,进而产生“算法歧视”“算法合谋”等社会问题之前,算法首先带来的是人们自我认知方式的实质性改变。

  人们在现实空间的本我之外,于虚拟空间通过数字化技术构建了另外一个自我。伴随着两个世界的互通和连接,两个自我不断产生复杂互动。

  在积极的层面,美国《连线》杂志的主编加里·沃尔夫和凯文·凯利提出“量化自我”这一概念,用以描述“通过自我追踪进行自我认知”的社会数字现象,并希望借此引领人们步入新型数字化生活。

  而在消极层面,社会化情境下的数字化自我认知可能会演变为英剧《黑镜》中描绘的可怕场景:借助数字社交评分系统建构出的僵化、失控的社会秩序,将现实构筑的传统秩序和规则彻底颠覆。算法可能通过形成新的网络空间社交规则,彻底改变人们作为社会主体的存在方式。生活在这样的世界中,只能根据算法设计者设定的数字化社交规则不停“表演”而获取评分。由此伴随而来的则是自我的迷失和个人主体性的消解。

  这种现象并非危言耸听。在美国,已经出现了因为在网络社交平台上的好友过少、互动过低而导致在旅游服务网站上预定房间遭拒的讽刺案例。因此,对我们每一个人而言,算法出现并迅速占据商业和公共决策场域的这一事实,首先意味着客观上个人主体性的消解。这意味着,在算法作出与人们利益悠关的决策时,人们可能处于一种无从知晓、无力参与、无法异议并最终难以抵抗的“失控”状态。

  此外,基于以下两个层面的原因,失去对算法决策的选择权和控制权将令人更加手足无措。

  其一,在技术逻辑上,算法架构的复杂性不断增加。深度学习算法虽然常作出绩效良好的决策,但却无从了解其内部运作的逻辑和达成决策的依据。与此同时,算法的可靠性和准确性也尚难通过合理的机制设计加以系统保证。因此算法决策及其应用虽已强势展开,但却尚未在功能层面建立稳定良好的技术信任。

  其二,在治理逻辑上,传统设定的以声誉机制(如职业资格认定)、决策约束程序(如通知、公告、评论、参与、回避、异议、救济)为内核的,旨在避免决策武断和恣意、保证决策可信和正当的制度架构在算法决策面前均显失灵。这意味着,从治理层面,面对看似理性的算法,我们却尚未探索出一套行之有效的机制建立治理层面的技术信任,从而对算法进行约束使其具备算法理性这一功能特质。

  所以,当我们惧怕算法时,惧怕的并非“算法黑箱”(实际上人脑决策也是黑箱),也并非算法歧视(现实社会中也存在形式各异的歧视现象)。从实质上说,我们惧怕的是当算法高效、系统性地辅助或者智能性地独立作出一个个决策时;当算法运用数据和模型把虚拟世界和现实世界的我们相联结,将我们的过去、现在和未来相联结时,这种由“联结”带来的“失控”状态。

  这种失控状态意味着我们失去了对算法的技术信任,意味着我们不希望对算法应用产生过多的依赖,意味着我们面对复杂、开放、多元的算法并与其产生互动之时心生恐惧。

  如何实现算法信任郑州外阴白斑怎么治疗:http://mobile.zzzykdwybb.com/

  明确了我们对算法产生恐惧的根源,有助于审视和思考如何化解算法适用带来的系列问题。毕竟与人类决策相比,已经有研究表明:在股票股价、房地产鉴定、刑事审判、人力资源绩效评估、财务审计等诸多决策领域中,算法的整体表现更优。

  由于决策偏差和决策噪音的存在,人类决策常出现过度风险规避、决策短视、情绪影响等多种决策偏差。相信很多人都听过法官审判时的“午餐仁慈时刻”现象。这一现象的产生,恰是由于人类决策时精神资源伴随着时间变化发生了逐步退减和消耗,因此客观上导致决策会在不同时间和条件下产生波动。

  所以,面对算法社会的来临,我们应当如何发现“算法之美”,构造安全、公平、透明、可问责的算法,从而迈向信任算法的社会呢?

  宏观来看,算法治理是一项复杂而长期的工程,需要算法设计者、算法使用者、相对主体(在不同的算法应用场景下,可能受到算法影响的利益相关者)、立法者、监管者、媒体等协同合作构筑良性的技术运行生态,逐步建立平衡个体利益和社会福利的运行环境。从中观层面看,解决这一问题的核心和关键则在于通过丰富、高效的制度设计赋予个体以选择权和掌控感。落实于微观的制度设计上,需要立法者在探索赋予个体一系列知情、参与、异议、救济的新型自动化决策权利时,还应从外部探索算法影响评估制度和算法问责机制,从而在治理层面建立算法信任、发现算法之美。


内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: