购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

论算法意识
——基于用户视角的认知框架
Analyze“Algorithm Awareness”
—The Proposal of a Cognitive Framework Based on Users’ Perspective

◎郭全中 李黎 雷蕾 吴占勇
Guo Quanzhong Li Li Lei Lei Wu Zhanyong

摘要: “算法意识”在算法研究中日渐被更多地提及,但其始终缺乏一个明确的所指,与此同时还存在与“算法知识”概念的混用与纠缠,本研究旨在从用户的算法实践与意识中锚定一个认知框架。本文选取14名与算法交互最深刻的特定年龄与职业的受访者进行半结构式访谈,采用主题分析的方法对数据进行编码。研究发现,用户的意识呈现出算法存在与第三人效应、算法过滤及其逻辑、算法合作、算法自我呈现与自我规制、算法祛魅与算法批判以及算法社会的建构与省思六个纬度的框架,尝试为算法研究厘清概念并提供一个心理认识的图示。

关键词: 算法知识;心理认知;算法第三人效应;算法合作;算法祛魅

Abstract: The term“algorithm awareness”is increasingly mentioned in algorithm research,but it lacks a clear reference and is confused with the concept of“algorithm knowledge”.This study aims to anchor a cognitive framework from users’ algorithmic practices and awareness.Fourteen respondents of specific ages and occupations who had the most profound interactions with algorithms were selected for semi-structured interviews,and the data were coded using thematic analysis.It is found that users’ consciousness presents a framework of six latitudes:algorithmic presence and third-person effect,algorithmic filtering and its logic,algorithmic collusion,algorithmic self-presentation and self-regulation,algorithmic demystification and algorithmic critique,and algorithmic social construction and introspection,in an attempt to clarify the concept and provide a mental cognitive map for algorithmic research.

Keywords: algorithm knowledge,mental cognition,algorithm third person effect,algorithmic cooperation,algorithmic demystification

一、问题的提出

拥有对一项新技术的认识是激励人们更加了解该技术的关键的前提条件,并形成对该技术的看法和感知。 算法意识对于恰当、有意义地感知算法技术具有重大的理论价值。 Hargittai和Michel(2019)确定了互联网技能的10个维度,其中一个是他们所说的“意识到算法如何影响人们看到的东西” 。那些理解算法在他们所看到的内容中发挥作用的人,既可以调整他们的期望,也可以使用策略避开平台限制的方式来寻求特定内容。 那些缺乏这种意识和理解的人更显著地受到网站的支配。 学者们已经开始研究特定平台上人们对算法的认识,这些研究大多集中在社交媒体新闻推送上。 另一些人则研究了新闻平台 、电子商务网站 和在线约会 的算法。

那么算法意识是什么?它等同于意识到算法吗?在西方文献中,算法意识有两个与之匹配的表达,分别是“algorithm awareness”和“algorithmic awareness”,在许多研究中常出现混用的情况。依据Shin D.等学者(2022)对其名词性短语与形容词性短语所做的分辨,“algorithm awareness”指和算法及其机制相关的意识,“algorithmic awareness”则指由算法驱动或创造的意识。 不论哪种解释,都不仅是“意识到算法”的意涵,顺应西方的研究传统,我们所谈论的算法意识显然指向“algorithm awareness”,尽管国内学者开始对算法意识有所谈论,却没有指出其明确意涵,而是作为“主体性”面向的代名词,因此它仍然缺乏一个概念性的定义和操作化方法, 也没有标准化的工具评估这一结构。 因此在这一领域的研究仍然非常稀少,联系微弱,而且不确定。

意识,即“awareness”一词,据牛津词典释义,含有“knowing sth;knowing sth that is important;being interested in”三重意思,而知识,即“knowledge”释义为“通过教育或体验获得的信息、理解和技能”“知道特定事实或情况的状态”以及“与产品制造相对应的信息、知识”。那么算法意识等同于知道算法吗?该问题较少被谈及,但谈及的西方学者普遍的观点认为算法意识等同于算法知识, 该观点是否准确?回答这个问题,需要对西方学者定义下的“算法知识”(或算法意识)进行概念溯源。Swart(2021)将算法知识定义为用户在特定的消费环境中感知到算法的存在和操作的程度,以及与公平、透明、信任等概念相关的程度。 Cotter和Reisdorf(2020)将算法知识定义为理解算法是什么,它们如何被使用,它们如何使人们受益,以及它们如何对个人和某些群体产生负面影响。 人们对算法在特定媒体环境中做了什么的准确感知程度,以及它们对用户如何消费和体验媒体内容的影响。 可以发现其探讨的纬度各不相同,拆分其指向可以分为:算法存在、算法操作、算法道德、算法概念、算法影响。

笔者认为,既然赋予了算法两个不同的名词概念,“knowledge”与“awareness”,“知识”与“意识”,其应当存在概念本质上的不同,不应当只是一种概念游戏。如上述的词语释义,“knowledge”是特定事实、信息,而这组概念中辨析的盲点在于,“awareness”所指的“知道某事”与“某事的知识”并不等同,因为据牛津词典,“know”在英文语境中的释义比“knowledge”更为丰富,其中包括的便有“意识到”“经历”“辨别”等含义。所以其核心区别应当在于知识是客观的,而意识是主观的,算法知识是关于算法运作的知识,算法意识是对算法的看法。平台算法的知识是有限的,并不是普遍分布的, 作为一种经验技术,它们更容易通过使用来理解, 但公司很少分享关于算法的细节以保持其竞争优势, 算法不仅在人类感知范围内隐藏,还躲在知识产权的保护墙下。 人们在使用中获得的对于算法的知识极其有限,而借由算法意识,可以依赖有限的算法知识对算法进行想象,使得根据用户对嵌入的信息流控制的理解来设想、理解并与算法交互。 上文所归纳的算法道德与算法影响显然属于算法意识层面。因此算法意识建筑在算法知识之上,是更高一级的算法素养。算法意识应定义为基于算法知识对算法的主观看法与应用。

而更进一步,算法意识有何所指?学者Zarouali等(2021)将其归纳为内容过滤意识、自动决策意识、人与算法相互作用意识、算法说服意识、道德考虑意识, 提出公平性、问责制和透明度作为算法意识的组成部分,Shin  D.(2021)补充可解释性与前三者共同组成FEAT。 Hamilton等人(2014)则将算法意识定义为用户在特定的使用上下文中意识到算法的存在和功能的程度, 指向了算法存在意识、算法用途意识。Shin D.等(2022)认为算法意识包括理解算法是什么,知道算法在哪里部署,欣赏那些拥有或部署算法的人的意图和目标,并掌控用户自己的数据和隐私的记录,如FEAT的概念可以被认为是算法意识的因素。 因为算法意识涉及严格地识别算法中固有的偏差和错误, 算法意识很重视用户对算法过滤和处理数据的方式的理解,推荐社会联系,并重建社会现实。 其指向更为复杂,且带有算法知识的混用:算法概念意识、算法用途意识、算法意图意识、算法批判意识。

概言之,当前算法研究领域的基础概念内部与指向存在混乱,而研究者急于讨论算法的宏大叙事与规制,对概念不加考证的挪用,将为日渐增长的算法研究埋下祸根。为解决这一症结,本文力图通过对算法意识概念的厘清与指向的访谈,从民间路径补充前人对算法意识维度的不充分挖掘。虽然可以预见的困难是,如上文所提到的人工智能系统的专有与算法知识的有限,使得面向用户个体的访谈仍有可能难以突破某种框架,但作为最初的尝试之一,针对前人的概念论述能够用具体情景展开,并提供一个更全面的概念所指。

二、研究方法

(一)数据收集

近年来,算法越来越深入地嵌入互联网各个角落,而作为一种体验型技术,不同的人口统计学特征会造成较为明显的体验差异而产生程度不一的算法意识。访谈分为两轮,第一轮访谈面向Z世代人群,作为互联网原住民,他们有对互联网最地道的理解,拥有各类新奇应用的尝试经验,与算法的交互更丰富。第二轮访谈面向特定职业群体,Klawitter和Hargittai(2018)认为,某些具有动机的群体,例如内容创造者、市场营销人员、算法设计师与互联网企业家等,他们的生计依赖于管理在线可见性,会更积极地主动寻求关于平台算法的信息。 因此,为了更全面深入地了解算法意识,本研究通过线上平台招募具有以上相关职业经历的受访者进行半结构式访谈(被访者信息见表1,注:地区有两个的,前者为户籍地,后者为居住地或工作地)。共14位受访者,年龄由21岁到33岁不等,每次访谈40—70分钟。

访谈主要围绕受访者在日常生活中各类应用、各类生活场景的算法故事和体验展开,获取访谈资料后,研究者侧重通过分析受访者基于一定算法知识产生的使用感悟,获得受访者意识层面的潜在观点与倾向。

表1 受访者人口统计学特征

(二)数据分析

访谈录音转为15万字左右的文本,采用Nvivo12对文本进行Braun和Clarke(2006)改进的主题分析方法编码, 遵循以下步骤:熟悉数据、生成初始代码、搜索主题、回顾主题、定义和命名主题,以及最后选择生动、引人注目的提取例子,最终分析选择提取相关分析背后的研究问题和文献,示例见表2。

表2 数据节录的初始编码与主题提炼

三、数据分析结果

实证研究结合前人研究发现,算法意识的面向指向极其丰富且界定不清晰,作为一种区别于以往单向、非人性与逻辑清晰的新形式技术,人们对算法形成了许多主观意识与看法,本研究通过对话受访者的意识,从民间路径出发,在前人研究基础上尝试进行认知框架的总结分析。

(一)算法存在与“算法第三人效应”

在许多情况下,用户并不知道算法在中介信息中所发挥的作用, “我觉得像我这样知道得很清楚的人,在我身边算少数吧。我的很多朋友他们都不知道”(编号12),更不用说其含义了。如果没有这种意识,用户可能会认为他们遇到的信息客观地代表了最客观、可靠、权威和相关的信息。这再次特别突出了老年群体,他们更容易被归入不知情的参与者群体,因为他们不仅难以理解算法是什么,而且难以认识到算法在他们所使用互联网的所有领域的影响。 “比如说今天早上我奶奶,她看了一个就是什么,肝不好的人要吃什么……(视频)后面就说如果你不想根据我的配方做,你可以打下面这个电话,我们做好了,现成的,卖给你什么这样的话,她就信。”(编号12)因此,建立在算法平台基础上的知识可能不加批判地反映了铭刻在底层的主导话语代码,用户对于算法是否存在、存在于何处的认识,很大程度上影响了用户对信息的信赖程度与判断力,对于不能意识到算法存在的用户来说,意味着算法霸权对其网络空间生活的掌控。

同时,用户还基于自身对他人是否有算法存在意识的判断展开自身的行动,基于第三人效应形成“叠加的意识”。平均而言,参与者对算法对他人使用互联网的影响的评价高于对自己使用的影响。这可以归因于受访者提到的两个方面,他们假设其他人使用更多的应用程序,而且比他们更密集、更没有目的性。 “我们当时做养生酒……我们惊喜地发现了,大概连续三四个吧,只要是大一点,二三十斤的它都给热门了,然后我们就是分析了一下,它们(视频)的这个内容也并没有很强。好,那大概率就是因为算法认为这个东西还挺新奇的,哎妈,那谁不会呀,我们马上整个120斤的。直接冲上热门了,那些卖酒的可能都没有意识到算法依据这个标准推荐热门。”(编号13)在商业大环境中,利用人们对算法的无知,可以在算法机制中谋得差异性的竞争优势。而从负面的情形来说,算法的商业设计很可能瞄准不具有算法存在意识的人群,从而在投向这类人群的内容中掺入更多的营销内容,但从第三人效应的角度看,他们有可能过于高估了算法对人群的影响。

(二)算法过滤及其逻辑

算法正被用来过滤给人们那些最有可能感兴趣的特定内容,网络上的爆炸性增长和各种内容带来了迫切需要将非常大的内容集减少到一个更小的考虑集,以避免信息选择过载和最大限度地提高内容的用户相关性, 这也鼓励了互联网在线平台更多地依赖算法进行个性化推荐。“平台上有个东西叫什么个性化内容推荐。如果你把它关掉了,它的算法就不会那么精密了,我关过一次,我在抖音上,我发现不能关,关了之后推给我的都是土味视频”(编号2),“我们被算法操控着。它比我们聪明,它几乎知道我喜欢什么东西,不喜欢什么东西,它想让我看见就让我看见,不想让我看见就能给我藏起来”(编号13),这表明受访者普遍能够意识到算法对信息内容的选择过滤,并且用户在某种程度上已经形成了对算法推荐机制的依赖,由精准入粗略难,用户对平台算法高度的依附导致用户在这个结构中能动性的缺失,如果算法技术限制选择,控制决策和行动,或改变正常的沟通方式,人们对自主性的感知可能会受到严重的危害。除此之外,用户还能意识到不同的应用平台其过滤程度是不一样的,“小红书的话,它是这种精准流量性的,它针对的人群是相对来说比较细而窄的……但是抖音快手就不太针对这一类型。一方面它想引流进直播,另一方面的话,它更希望你看到不太一样的东西,至少有30%的时间它会给你推荐一些跟你不是很相关的。但是有可能你感兴趣的东西,最后你自己个人账号里面你关注的东西就是五花八门千奇百怪的。”(编号7)这种过滤意识在改变用户在在线平台上的取向和行为方面起着重要作用, 对于利用平台进行营销活动的7号受访者来说,因不同平台的过滤程度不同会导致营销效果差异显著,清楚了解平台算法的不同能够帮助提高推广效益。而对于一般用户来说,辨别不同平台的过滤程度有利于满足其自身对于个性化推荐尺度的期待,从而在复媒体环境中选择适宜的媒介策略,构成算法意义上的“平台摇摆”(platform swinging)

算法通过协同推荐的方式满足用户个性化需求,同时算法拥有的多种推荐逻辑也往往能够被用户识别,多种逻辑相互组合,但在不同的应用程序中各有其突出的逻辑方法,通常用户也需要借由不同的推荐逻辑来满足自身的推广或信息获取需求。其一是基于地理位置的算法推荐:“有一次我们旗下一个主播要做公益。帮菜农处理一批包菜,因为遭灾当地就全滞销了……就利用这个大数据这个算法去推流。结果推流来的人确实不少,但是全是全国各地其他地方的,因为疫情,很多地方快递发不出去。因为就是第一次接触这个算法推荐,不知道它有同城垂直定位,这个以前没有做过,这点疏忽了,结果挺尴尬。花的钱也不少,但是没有做到理想的效果。”(编号4)用户能够意识到在具有强烈地方性的在地产品的推荐中,基于地理位置推荐能够实现商家目标消费人群的最大化,因此地理位置越近的用户,其基于地理位置的推荐内容会越相似。某些平台算法主要依赖地理位置实现自身功能,同时也能更好地满足消费者对于地方的期待。“比如你到一个地方,大众点评、美团就是会根据你的地理位置,推荐一些当地有名的评分高的。”(编号3)

其二是基于历史浏览的推荐,一部分是用户被动浏览的内容,这部分内容是平台对用户喜好的猜测,让用户在给定的内容中进行偏好选择,如短视频一打开便是源源不断的内容流,“我知道的短视频有一个‘帧过滤’分析,粉丝浏览视频在哪一帧或者在哪一秒开始给你点赞,在这一瞬间是最关键的啊,它就会特别分析这一帧。所以它会依据你点赞的那专门一帧给你去找相似的推荐。”(编号14)当然,算法的分析行为不局限于点赞、转发等互动行为,它更注重从用户的无意识考察,譬如用户在面对自己感兴趣的内容时会停留更长时间甚至完整观看、反复观看。“因为它根据你是否完整看完其实大概就知道你的兴趣了,每个视频背后都会有一些关键词,它就会推荐同类的关键词”(编号7)。另一部分是用户主动检索的内容,如电商平台在用户检索一定内容后会展开大量类似的推荐。平台算法通过对用户的历史行径进行追踪,实现了对网络空间中用户生产数据的利用分析与再生产。

其三是基于用户画像的推荐,用户画像包括很多特征,如姓名(账号名称)、性别、购物记录、评论信息,还可能有地址、电话号码、工作单位、消费习惯、收入和支出等。 不同平台通过对用户隐私的收集形成用户画像,尽管光明日报联合武汉大学的一项调查显示,很多用户并不阅读隐私条款。“刷抖音的时候就会发现附近的室友,你们刷的内容都差不多,可能别人刷到过的,然后过一会儿你就刷到了,因为就是按你们那个群体所喜欢的推荐的,然后还有你看过的东西是类似的。”(编号12)人群之间的同质性特征越多,收到推荐的相似度就越高。然而,因为用户画像涉及隐私,平台可能获取的信息并不全面准确,常常会出现不符合用户的推荐。“我还是希望它能尽量提供一些我既喜欢又买得起的东西吧,我有什么经济水平,难道你不知道吗?你为什么一定要推给我买不起的呢?你就不能聪明一点,推荐一些我买得起又喜欢的东西,减少一点我的购物压力,你给我看这个东西几万你觉得我买得起吗?你真的觉得我能给你付费吗?”(编号10)基于用户画像的推荐对信息的精密程度要求更高,需要对用户不同特征进行需求组合与符合程度检查,这也是今后算法推荐机制进一步精进的主要攻克方向。

算法过滤推荐的逻辑常常也能让用户感受到其推理逻辑,较为常见的是就用户的兴趣进行重复推荐,有些推荐则带有生活逻辑的推理,譬如“之前在一些地方看房源,后来淘宝等一些购物平台就会给我推荐装修的。”(编号14)诸如此类的推理逻辑常常能让用户清楚地知道平台利用了自身的哪种线索,但同时用户也会警惕地推测:“那些看起来不相关的推荐有可能是用了我自己没有察觉到的某条线索的推理。”(编号14)

(三)算法合作

算法并非脱离人主观意愿运作的无偏见机器,而是人类与非人类行为的集合,因此用户也常常能够意识到算法与其背后力量的合作。首先是与人工运作的配合。“算法不能做的,这些可能是比较清晰的,比如说重要新闻置顶加权限,低级账号的降权,这些还是只能靠人工,这些方面算法是做不到的。”(编号13)算法在实际运作过程中能够实现对数据的分析往往是不够的,某些重要的决策以及算法的纠偏仍然需要人工的介入来实现算法运作的完整闭环。因此,西方正逐渐完善对算法的问责制度, 避免人为内嵌的不良因素。

其次是与商业因素的合作。在过去的十年中,由于互联网的快速和广泛扩散,广告业面临着重大的变化。除了传统媒体,在线广告,如展示广告、搜索引擎或社交媒体广告越来越多地用于促销目的。 “我做电商推销的时候在腾讯企鹅辅导,广告会投放在QQ或者是朋友圈,然后有一些家长可能在玩手机的时候就看到上面的广告说免费网课什么的,可能就是一种贪小便宜的心理点进去,留下了自己家孩子的一些资料……然后它就会形成一份数据到‘公海池’里。”(编号12)如今算法应用在商业领域是最为常见的,或者说商业因素是推动算法进步的主要动力,算法文化形塑了商业新环境,在商业资本的支持下,算法逐渐得以实现千人千面,平台与企业间的联动实现对用户的“精准捕捞”。

再次是与国家意志的合作。“就是我小的时候。在百度引擎上搜过政治野史之类,我发现他们的东西上面都会说根据法律什么什么,然后这些东西就会被自动保护了。”(编号8)诸如此类的“404 NOT FOUND”、网站整改等现象已颇为常见,算法机制有时作为上层意志的延伸执行国家安全治理、网络内容净化等任务,通过系列筛选逻辑实现有效、批量的国民安全保护。

最后是与其他平台算法的跨平台合作。“就是在美团外卖里面去找肯德基,找完之后去优酷看视频。点暂停的时候它给你推送的广告就是肯德基的什么全家桶啊之类的,就可以很明显感觉到自己的信息在被联动处理。”(编号1)互联网上的算法程序可能超越了单一平台的局限,其背后的商业合作逻辑用户不得而知,但平台间合作形成更大范围的数据共享一方面能提供更精准的服务,另一方面也加剧了隐私泄露的担忧。因此,算法需要被视为具有政治和经济利益以及“塑造现实社会”的自主行动者。

(四)算法自我呈现与算法规制

由于算法是基于用户的个性化分析,用户会将算法呈现的内容作为自我身份构建的元素,“之前我的朋友圈推过一个保时捷汽车的广告,那可能我身边就有四五个男生,他们就被推送到了……这些人一定程度上就有点像一个兴趣圈子,他们在这条广告下面评论,一定程度上就成为他们自己身份认同,或者成为他们自己社交身份认同的一部分。”(编号7)算法根据用户自我披露和数据跟踪技术提供个性化的信息流广告, 用户会倾向于展示自己认可的算法信息用以作为一种看似“客观”的手段呈现理想自我。当算法推荐不尽如人意时,一些用户将失误归于自身, 并试图干预算法,调适自己的用户画像, 影响输入算法的信息数据,进而左右算法的输出结果。“我还有另一个喜欢的明星炎亚纶。然后我发现他的歌在网易云上比较少,我本来用网易云的,后来我就用QQ音乐,我就老是听老是听,可能一首歌我都没怎么听就只把它放着,结果去年我的QQ音乐年度报告上显示我的音乐口味是炎亚纶,我就很开心,就是满足了一个追星的打卡。”(编号9)此类年度报告成为众多用户进行自我呈现与表演的重要凭证,成为自我认同与他人审视相交汇的意义参考点。

然而算法的存在除了可以为用户服务,帮助用户呈现自我形象,还在另一种意义上规约着用户。“还有一个我觉得很恶心的功能就是,把你推荐给可能认识的人,这真的很‘社死’,比如说我觉得大家可能都想有一个平台是自己的净土吧,可以随便发点疯啊什么的……就是我自己不小心暴露了自己。所以它其实会把你的一些不想暴露的隐私给更直接(地呈现),更限制你使用这些设备。”(编号9)基于费孝通先生所说的“差序格局”使得国人始终在熟人社会中建构自我,而“推荐给可能认识的人”在一定程度上消解了用户感知到的网络匿名性,隐私被迫示众则让用户收敛了在网络中的表达。“我会很谨慎,像我,平时其实我也是一个特别喜欢记录生活的人嘛,我在很多平台上都开了自己的账号,发一些视频啊啥的。然后会有一些互动来自陌生人,都不认识的那种人。我有一些视频里面其实让我的家人出镜了,我后来都挺后悔的。从那之后我就只发自己的了,我觉得我的意思没什么,但是我不想把他们也带进去。”(编号9)如果说推荐附近的人这一功能需要防备固有社会关系,那么IP地址等一系列功能则需要面对大他者的审视。“还有那个IP地址很烦。我觉得它虽然说有好处,就是比如说谁要是在说谁的不好的话,那它可以追踪溯源,就是网暴这个人吧,但是另外一点就是有很多地域黑出来了,嗯,我不喜欢这个功能。”(编号9)算法的计算被披露得越多,对用户的隐私泄露威胁越大,使得网络的现实感越发来临,而且无远弗届。“比如说我不喜欢哪家的明星怎么的。他们的粉丝在广场上看到我的发言,肯定会顺着网线过来捶我的。”(编号9)算法技术带来了日益增长的他律,对隐私或言论自由的威胁、操纵、社会歧视和其他偏见, 对网络空间自主性的消解也被认为是未来人工智能发展的关键挑战之一。

(五)算法祛魅与算法批判

算法固然是一种能够超越常人经验的技术,但它并非无懈可击,随着算法对生活的全面渗入,其缺陷和弊病也更多地被用户察觉。“现在疫情不是很严重吗?像咱们那个扫码不是也根据大数据吗?但是大数据经常会出现误伤。你可能今天在北京,在三里屯坐着,然后昌平有疫情,你压根儿就没有去过昌平,它把你给误伤了。然后这种情况你还解决不了,你跟上面讲了,也解决不了,没办法,你只能够居家隔离,只能够解决弹窗这些。它毕竟是机器,有时候会有错误,有BUG,但当它造成的这些东西遭遇到疫情一刀切的时候就会对个体产生很大的影响。”(编号13)当算法的神话形象失灵,所造成的社会影响能够被用户察觉。人工智能也会出现“智障”的情况,因此人与算法的共处也始终是一个动态的协商过程,不存在完全的准确与服从,算法始终只能作为参考答案。“你算法固然聪明,难道我就不能有笨方法打过你吗?这就好比当年毛主席说的,这个农村包围城市是吧,中国人的特性就决定了我们永远可以拿最基础的武器拯救自己,我们还是有这方面的智力和能力的。”(编号10)

如果说算法出错只是偏离了原本的设计意图,那么在上述谈论的多种尤其是商业因素的合谋之下,算法设计的意图本身就会遭到用户的批判。其一是对隐私侵入的批判。隐私风险主要是由于算法需要收集和存储有关用户的个人数据,以实现个性化的媒体内容。 “等于说在互联网中,消费者已经变成了一个数字化的节点,或者说是一串数据,有的时候可能它比我会更懂我自己,就是可能它会预测或者是怎么样,甚至是先于我做出对这个世界的预判,我觉得这是一个挺恐怖的东西,也会担心自己的个人信息会被转卖什么的,就是泄露这样。”(编号6)算法的介入使得隐私可能会受到威胁,因为算法可能会使用私人或敏感信息(例如,政治取向)或用户从未披露过的信息(通过数据建模、算法可以预测人们的个人特征, 因此当滴滴尝试在美国上市时引起国内强烈的反对。大多数用户对个性化的算法推送表现出矛盾的态度,这被称为“个性化—隐私悖论” 。尽管算法推荐更具价值和相关性,个性化的信息流却引发了公众对隐私风险的担忧。 尤其在Facebook通过cookies向第三方网站出售大量个人信息等事件后用户逐渐意识到自己的隐私数据正被商品化出售, 自我隐私保护意识的强化加深了对于算法广告获取隐私信息的戒备心理。

其二是对透明性的批判。当涉及透明度时,人们担心的是,平台使用算法来根据对人类观察者既不透明也不明显的输入和输出过滤内容。 “就像我之前说的,很多时候算法推荐给我的东西我能知道是用了我哪条信息还好,那些看起来毫不相干的推荐或者是我觉得我没有暴露出来的信息推荐,就会让我很恐慌,它到底是什么时候拿走了我的信息,经过了什么样的加工给我推荐出这些东西的,我完全被蒙在鼓里,这不公平。”(编号14)内容首先被过滤这一事实也很少对用户透明,对用户来说算法在很大程度上仍然是黑箱。 这种透明度的缺乏使得用户很难理解他们的数据正在被平台收集和使用, 阻碍他们识别潜在的操作, 并可能促使他们盲目地信任或不信任算法决策, 因此透明性的缺失将导致用户知识秩序和判断的混乱。

其三是对算法公平性的批判。算法公平性被定义为在某些问题或人口统计群体中的近似公平性。 其中算法偏见也被认为是算法推荐中的主要问题之一。 受访者感知较为明显的是“大数据杀熟”“个性化定价”:“机票是浮动的,你第一次看了这个,第二次再看时它大概知道你对这个感兴趣,后面它就开始涨价了,这个我觉得就很扯。我在网上看到有人用某个App听音乐。第一次听了,第二次再听的时候它就显示这个时候开始收费了,然后你换一个手机的话,它就又显示你可以免费听。所以我觉得这个东西很容易拿来看人下菜。”(编号12)算法程序会揣测用户个体的需求程度从而最大化获得商业价值,除此之外,也会形成社会人群的整体偏见。“还有一个就像我们招聘的时候它会有一些偏见。比如说程序员,它在推荐的时候可能会自动匹配这些,就优先给你推荐男的,或者优先给你推荐985、211的,而不是去看他具体的工作能力,因为我要求的是有3—5年工作经历,而且是统本。这个我觉得算是算法的一种就是在招聘上的偏见和歧视吧!”(编号13)这表明算法已经按照自身数据形成的社会职业偏见在处理社会事务。Bozdag(2013)认为人通常会影响算法的设计,这就安装了人类的偏见。 此外,现有的意识形态、偏见和不平等也会用于形成算法的数据集中,造成错误信息和深度造假的传播 、数据驱动的操纵和重新强制执行原有刻板印象,以及不平等和歧视。 因此人们要意识到,算法的决策既不是“中立的”,也不是“客观的”,而是对社会偏见的反映。

(六)算法社会的建构与省思

算法借由互联网的深度嵌入已经极大程度上改变了我们社会的建构方式,构造了更加完善的专家系统。首先提升了日常生活决策的效率与安全感,“前两年的话,我们的烟雾报警器还比较傻,还得有一个烟雾探头,现在的烟雾包游戏还能分清是啥烟。它知道这个时间是烹饪的高峰期,你出现了这个烟量是正常的,现在不是高峰期,你出现任何一点烟量都会报警。”(编号10)其次,算法促进了社会系统各方面运作的完备性与精密性,“其实银行也有他们自己的算法。据我所知,银行现在还会根据你的输入习惯,来判断你是不是本人,能够为金融行业的稳定提供支持。”(编号11)算法越来越善于预测我们的生活,帮助我们达成伊恩·哈金笔下对偶然的驯服,构建了更具理性的社会秩序,简化了决策,提高了社会运作的效率。但这个过程并不是尽善尽美的,仍需要人与算法进行长期的协调互动。

然而在这个过程中,人们也开始对算法社会进行反思。深度算法化的社会带来了什么样的改变?首当其冲的是用户个体信息窄化,“这种大数据技术,因为它会让更多的人看喜欢看的、想看的,我觉得会让蠢人变得更蠢。”(编号12)继而导致公共领域中话语的割裂,“跟很多人聊的时候发现,你们聊天起码要有一个共识,但这个时候就造成共识越来越少,所以很多时候很难去讨论一个问题,本身中国人就不大擅长公共讨论,没有这方面的训练,然后现在这种情况导致很多东西很难去讨论了。”(编号12)亚文化群体不断极化,社会话语体系形成多个中心点,实现社会的勾连越发困难,反而越发依赖算法技术的中介。“你觉不觉得我们像那个被拴在磨上的驴,它(算法)就是前面吊的胡萝卜,看起来能给你一些好处。那实际上的话,仍然是有一些人在利用算法来掌控你,那这些人难道没有被其他算法掌控吗?也会被掌控,所有人都被算法掌控了,一张交织的网,谁也没有逃过。”(编号10)人们处于算法的控制之下,造成人普遍意义上的“异化”。其次算法技术的社会实际上也是所有用户的再社会化过程,在这个过程中技术掌握得好,拥有更多技术知识与意识的用户会逐渐与技术陌生人群形成代际差异,社会结构处于高度不稳定、不和谐的状态。最后算法技术的发展也带来安全风险的另一重隐患,“比如现在我们假设两个国家或两个公司进行重大谈判,这种东西(算法数据)就属于情报了,相当于把一方的情报告诉对方,这属于商业间谍。”(编号12)算法技术的普及使得更多的商家拥有国民数据,而这一权利的下移势必导致管辖难度的增加,平台利用既有优势构建自己主导的游戏规则,使之逐渐变成一种“私权力”,打破公权力形塑的既有格局,甚至成为公权力主体的合作者。

四、结论与讨论

本文旨在为“算法意识”这一概念锚定一种认知框架。算法作为一种体验型的黑箱技术,我们在衡量人们对它的认知时已经不能局限于“算法知识”,用户对算法逻辑及其社会影响的解释过程,才能深刻反映人们认识事物的方式, 借由“算法意识”的概念能够衡量用户个体对算法的认知程度与差异。

本研究通过挖掘与算法有充分接触的受访者材料,研究发现:区别于不知情人群,用户需首先意识到算法存在于互联网的何时何处,基于此形成第三人效应,比如年轻受访者认为老年人受算法影响会更大。其次是算法对互联网内容的过滤与呈现,算法的过滤决定了内容的可见性,与此同时算法的过滤拥有地理位置、历史记录与用户画像以及推理等多重逻辑。再次是算法的合作,用户意识到算法通过人工的设计和操控得以完成某些关键的决策,并与商业资本、国家意志以及其他平台算法进行合作。用户通过算法也能够进行自我身份、自我特质的确认与呈现,并在某些情况下作为一种社会交往的手段。但同时算法的某些功能也限制了用户在互联网平台进行进一步的自我披露,消解了网络匿名性,形成了对用户的规约。再者,用户在一系列算法实践中已经不再迷信于其完备性,意识到算法有其失灵的情况,并进一步形成对算法逻辑(包括隐私侵入、透明性与偏见)的批判。最后,用户认为算法正在重构一种新的社会关系与社会形态,在享受数据化成果的同时也要警惕为社会带来的隐性危害,及时反思。

本文作为一项探索性研究,旨在为一个老生常谈的概念做出厘清,使其内部的模糊性、流动性有更多的认知可能。对用户这一能动主体与算法实践的挖掘,能够锚定于算法技术领域形成的意识框架,这一框架能够为算法研究领域内部的概念界定与区分提供更多参考,同时为后续算法研究提供更多心理认知图示与心理范畴探索的可能,也能为当下智能鸿沟等议题的研究奠定基础。

〔郭全中,中央民族大学新闻与传播学院教授;李黎,中央民族大学新闻与传播学院传播学硕士研究生;雷蕾,中央民族大学新闻与传播学院副教授;吴占勇,中央民族大学新闻与传播学院讲师〕

〔特约编辑:顾洁〕 ajsBkWLRZsaauBr6Pn3Ps5rl+Giyt9KqvPLaqz1icy26hUwQ9KUmKvb2l400+ILo

点击中间区域
呼出菜单
上一章
目录
下一章
×