通版阅读请点击:
展开通版
收缩通版
当前版:12版
发布日期:
数字弱势群体的算法权利保障
汪志
文章字数:5520
  “数字鸿沟”包括“接入沟”“使用沟”和“知识沟”三个层面的内涵,基于算法技术产生的数字弱势群体可视为“知识沟”层面产生的数字弱势群体。算法视角下数字弱势群体产生原因主要有三点原因:一是政府与公民、平台与用户以及用户之间在数字资源占有上的不平等,二是算法风险的广泛性、多样性和隐蔽性导致部分群体权益受到严重威胁,三是个人的认知能力和生理因素等自然能力差距导致部分群体在算法应用过程中权益易受到侵犯。数字弱势群体的算法权利包括获得公平对待的算法平等权、免于算法侵犯的算法安全权以及获得有效救济的算法救济权。为保障数字弱势群体的算法权利,应当为数字弱势群体构建安全的算法空间、保证涉及数字弱势群体时算法结果向善和完善数字弱势群体权益司法救济途径。
  根据经济合作与发展组织(OECD)的定义,“数字鸿沟”是指“处于不同社会经济水平的个人、家庭、企业和地区之间在获取和使用信息通信技术(ICTs)方面的差距”。一般而言,学界认为“数字鸿沟”具有三个层面的内涵,包括接入互联网并获取数字资源差距的“接入沟”、使用数字技术能力强弱的“使用沟”和利用数字技术最终所获知识或结果区别的“知识沟”。[1]随着数字技术的迭代发展和推广应用,“数字鸿沟”不断扩大,部分社会成员陷入资源匮乏、合法权益受损乃至被边缘化的困境,在数字社会中逐渐沦为“数字弱势群体”。
  算法在当今数字技术中占据重要位置,在为社会成员提供便利的同时也对公民的基本权益产生了威胁,算法层面的“数字鸿沟”主要是一种“知识沟”,因其产生的数字弱势群体在瓜分算法技术红利和抗御算法风险时均处于弱势地位,其算法权利亟需制度保障。本文从算法治理角度出发,分析算法应用过程中数字弱势群体的成因和具体权利,并试图提出数字弱势群体的算法权利保障的部分建议。
   一、算法视角下数字弱势群体的产生原因
  (一)算法资源配置不均衡

  1、纵向层面:政府与公民、平台与用户之间算法资源的不平等
  在数字政府的建设过程中,政府利用大数据、算法等数字技术进行国家管理和社会治理,在数字赋能的同时也实现了数字赋权,政府权力在算法时代得到空前加强。数字平台掌握海量的社会活动数据,并具有明显的算法技术优势和资本优势,能够对用户的行为、意识均产生一定的控制力,因此具有类似于公权力一般的私权力。
  2、横向层面:个体与个体之间算法资源的不平等
  作为算法相对人,个体之间的算法资源同样不对等。一方面,由于部分群体更加频繁地接触智能设备和数字产品,相比另一部分群体更能了解算法的运行逻辑和使用方式,甚至能通过算法技术实现“自我赋权”,在瓜分数字红利的过程中处于优势地位。另一方面,算法的产生和运行均离不开数据,部分群体占据数字空间产生的数据更多,生成数据亮斑,导致该部分群体在数字社会中具备更大的话语权。
  (二)算法风险较大
  1、算法应用的广泛性

  随着数字技术的推广并应用于社会生活的各个方面,社会生产方式和公民生活方式均进行了数字化调整或重构,随着数字化程度的加深,数字技术对社会的影响逐渐从赋能转向取代,数字技术在提高社会运作效率的同时也会限制乃至取代传统的社会运转方式。近几年来随着人工智能技术取得突破性进展,算法技术被更加积极地投入到工作和生活的各个方面,社会各个群体都必须主动或者被动接受算法的控制。
  2、算法风险的多样性
  首先,算法应用过程中可能会产生“算法歧视”。算法歧视主要包括反垄断视角下的价格歧视和平等权保护视角下的身份歧视两类,前者指数字平台通过垄断地位和数据信息优势,利用算法实施差别待遇、获取利益的“大数据杀熟”行为,而后者则指根据算法开发者的主观偏见或投喂数据的内在倾向,导致算法结果呈现针对性别、种族、行业等身份上的不平等对待。
  其次,算法结果可能不正确,即“算法错误”。随着算法技术的广泛应用,人类的意识和行为在很大程度上都由算法主导。由于程序员的错误编码、不恰当数据投喂等原因,算法可能会输出错误的结果。
  最后,算法深度嵌入社会可能会导致“算法控制”。政府、数字平台掌握公民个人的各类信息,通过用户的浏览记录、点赞、评论等数据对用户进行“数字画像”,并能对用户的实时数据进行收集、分析、预测,实现对用户的精细化控制。
  3、算法侵权的隐蔽性
  一是数字平台可以通过各种方式获取、处理用户的个人数据,而用户却不知道平台是否掌握了自己的数据以及掌握了自己的哪些数据,因而,个人并不知道自己的哪些权益已经受到了威胁。二是算法技术存在较高的技术壁垒。大多数普通人并不具备专业的计算机算法知识,不了解算法的产生和运行逻辑,无法理解各类计算机专业术语,只能被动接受已有的算法成果。三是出于商业秘密和知识产权保护的目的,即便具有专业技术知识的群体也难以直接判断某一算法应用是否合理。
  (三)不同个体之间自然能力差异较大
  个体之间由于年龄、受教育程度、经济条件等因素,在认知层面上存在一定差距,这种差距同样会反映在个体的算法应用能力和算法风险防范能力上。不同个体掌握算法技术的速度和算法的掌握程度不同,例如部分群体对于算法的应用仅限于短视频软件等日常娱乐活动,无法将算法运用于个人工作、学习上。在面对网络空间内良莠不齐的各类信息,不同主体之间的判断力也存在显著差异。算法视角下的数字鸿沟主要是一种数字能力鸿沟,具有“叠加效应”,认知差异越大则导致数字能力差异越大。此外,对传统的弱势群体的主观偏见可能被植入算法当中,传统的弱势群体随之也被移入数字弱势群体行列。
  二、数字弱势群体的算法权利
  (一)算法平等权
  “数字鸿沟”是数字资源的不平等分配和社会权力结构异化共同作用的结果,因此平等权是数字弱势群体首要的算法权利。
  在形式平等层面上,数字弱势群体的算法平等权主要表现为身份平等。算法在设计时可能受到设计者的主观意志影响或者保留所处理数据内含的身份歧视倾向,对某些群体产生身份歧视,算法平等权要求在无正当理由的情况下对不同个体进行平等对待、呈现相同内容。
  在实质平等层面上,数字弱势群体的算法平等权主要表现为话语权平等。在数字空间中,每个个体都享有平等发声的权利,但实际上,更频繁地使用数字产品、在社交网站上进行点赞、评论的群体在推荐行算法的作用下将拥有更多的话语权。以老年人为代表的数字弱势群体在数字空间中属于少数群体,他们的声音往往会被其他群体所掩盖,其利益需求也容易被数字平台所忽视。
  (二)算法安全权
  算法安全权是数字弱势群体免于算法侵害的权利。算法安全权主要包括以下三个方面:
  一是应当保证数字弱势群体的数据安全。由于算法使用技能、自我防范意识不足等原因,数字弱势群体对自身数据的掌控能力较弱,无法有效行使相应的数据权利,例如在面对智能软件的数据访问许可时往往会放弃“拒绝权”,不能对被收集的数据行使“删除权”等。
  二是算法输出结果不得损害数字弱势群体的人身权利和财产权益。无论何种算法,如果不加以规制,其输出结果都可能会直接或者间接损害公民的各项合法权益。数字弱势群体在使用算法应用的过程中,由于缺乏风险识别能力和风险防范能力,其人格权益和财产利益更容易受到算法侵害。
  三是免于算法控制的安全权。数字平台通过数字画像、算法推荐、算法自动强制执行等技术,影响用户的行为和意识,数字弱势群体由于缺乏相应的技术知识和应用能力,难以判断算法结果的正确性、客观性和有效性,容易受到算法的规训和迷失在“信息茧房”之中,其行为和意识均面临被算法支配和操纵的风险。
  (三)算法救济权
  在算法侵权发生后,数字弱势群体在事后救济上也往往处于劣势地位。一方面,数字弱势群体由于自身数字技术知识的匮乏和算法侵权行为的隐蔽性,可能无法察觉到自己的合法权益受到了侵犯,或者无法判断自己利益受损应不应当归属于算法侵权。另一方面,在算法权利具体救济层面,数字弱势群体一般不知道采取何种途径可以对算法权利进行有力救济,在有关证据的收集、救济程序和救济成本上也存在各种各样的阻碍。
  三、数字弱势群体的算法权利保障路径
  (一)构建数字弱势群体算法安全空间
  目前,许多数字应用针对数字弱势群体推出了专门的保护模式,例如微信上的“青少年模式”和“关怀模式”,抖音上的“未成年人模式”和“长辈模式”,等等。上述模式通过为数字弱势群体提供相对安全的数字空间,对数字弱势群体权利保障起到了积极作用。
  首先,要规范对数字弱势群体的数据收集、处理行为。政府和公民、平台和用户之间“权力——权利”的平衡需要通过数据确权和规范数据处理行为进行维护。数字弱势群体在数据的收集、处理上处于严重劣势地位,应当为数字弱势群体确立特别的数据收集规则,将数据收集尽量限制在数字弱势群体常用功能范围内,对于超出数字弱势群体使用能力的算法功能,禁止进行相应的数据收集、处理活动。
  其次,在算法安全空间中加强数字弱势群体知情权保护和教育培训。数字弱势群体知情权保护需要考虑到数字弱势群体的实际需要,有关条款说明应当集中在数字弱势群体所关心的实际利益上。在算法安全空间中也可以通过简明的文字、图画、视频等方式对相关条款、算法功能等进行说明,对数字弱势群体的常用功能和认识误区进行有针对性的教育培训,不断提高数字弱势群体的数字使用能力和数字认知能力。
  最后,数字弱势群体算法安全空间是一个相对开放的空间。现存的“未成年人模式”和“老年人模式”对“普通模式”进行了功能、内容上的阉割,明确隔离了数字弱势群体的算法安全空间与大多数数字公民所在空间。然而,数字弱势群体的算法使用能力和算法认知能力不同且不断变化,单一、封闭的算法安全空间不能满足所有算法弱势群体的要求,甚至可能形成算法歧视。数字弱势群体的算法安全空间应当允许用户在算法安全空间中根据自身需要选择阅读详细的应用条款、开启服务功能等。
  (二)促进数字弱势群体算法结果向善
  对于同一算法,数字弱势群体由于数字能力缺陷可能难以获得有效结果,或者受到算法结果的侵害,算法也可能针对某一群体的特征进行算法歧视。此时,需要对算法输出的结果进行调整、限制。
  算法应当根据对不同数字弱势群体可能造成的后果,对推荐的内容进行筛选,或者对排序内容进行调整。对于老年人数字弱势群体,应当尽量减少有AI参与制作且容易引起误导的内容,同时应当禁止广告投送内容或者作出明显区分。对于未成年人群体,应当限制不利于未成年人身心发展的内容,对于危险行为提示未成年人不要模仿等。
  算法结果还应当尽量减少算法自身的风险。第一,算法结果应当尽量实现价值上的多元化,避免造成“信息茧房”。对于有争议的内容,应当作出明确的提示,避免数字弱势群体受到不恰当的引导。第二,算法结果不得出现歧视性内容。算法开放目的应当正当,训练数据应当具备均衡性并对算法进行歧视风险评估。在确保不产生反向歧视的前提下,对数字弱势群体进行倾斜性保护。第三,通过算法加强数字弱势群体话语权。一方面,政府利用算法进行决策或者辅助决策时,所依赖的数据信息应当均衡,重视老年人群体、低收入群体、边远地区群体所产生的数据。另一方面,平台推荐性算法、搜索算法应当考虑年龄、经济条件等客观因素差别与内容多样性,尊重数字弱势群体在互联网上的声音。
  (三)完善数字弱势群体算法权利救济
  一是提供多元救济途径。应当完善包含从网络平台到行政机关和司法机关、囊括线上线下机制的全方位数字弱势群体算法权利救济途径。首先,数字弱势群体可以向提供算法服务的数字平台进行沟通、投诉或举报,要求其停止算法侵害行为、纠正算法错误、弥补数字弱势群体所受损失。其次,数字弱势群体有权向有关监督管理部门举报平台的算法侵权行为,在行政活动中受到算法侵害的有权向行政机关提出申诉、投诉或采取行政复议等救济手段。最后,通过诉讼渠道为数字弱势群体算法权利提供最后保障。算法作为一类工具,算法侵权可能引起民事诉讼或行政诉讼,还可能因构成犯罪而引起刑事诉讼,司法机关应当为数字弱势群体提供完备的救济渠道。
  二是完善诉讼证据制度。一方面要完善公益诉讼程序。算法侵权中被侵权对象往往不是个人而是群体,其利益具有公益性,且数字弱势群体往往难以察觉自己的权益受损、个人维权意识和诉讼能力不足,因此,在民事诉讼或者行政诉讼中可由检察机关或者公益机构、组织提起公益诉讼,纠正平台或政府的违法行为。另一方面要健全数据证据机制。合理分配算法司法案件中数字弱势群体和平台、政府的举证责任,填补平台和用户之间、政府和公民之间的数据不平等。平台应当积极配合有关行政机关、司法机关的证据收集职责,主动提供相关数据信息,行政机关、司法机关也应当在行政、司法程序中保护平台的商业秘密。
  三是发挥司法能动作用。首先是通过司法案例以案释法。目前,立法层面对数据侵权、算法侵权作出了一般性规定,但具体的违法认定标准、法律责任尚不清晰,上级司法机关发布的司法典型案例对下级司法机关办案具有“标杆”效应,可以通过个案加强对数字弱势群体的倾斜性保护。其次是通过司法解释补充立法。算法技术日新月异,也可能导致立法滞后,或者赋予原有法律规定新的解释以适应社会变化,同样由司法机关通过司法解释进行法律续造、弥补法律漏洞。
  四、结语
  随着大数据、人工智能等数字技术的不断发展,算法将更为广泛地应用于社会治理和日常生活活动。数字弱势群体算法权利保护是数字时代维护数字正义、保障数字人权的重要议题。数字鸿沟和数字弱势群体源自数字社会中的结构性不平等,保障数字弱势群体的算法权利需要由数字平台、国家和社会组织等多方协作、法律伦理道德多措并举,通过多元、可靠手段对数字弱势群体的算法权利进行救济。
  参考文献:
  [1]陆杰华,韦晓丹.老年数字鸿沟治理的分析框架、理念及其路径选择——基于数字鸿沟与知沟理论视角[J].人口研究,2021,45(03):17-30.
  作者单位:南京审计大学

安徽科技报 电话/传真:0551-84908822
地址:合肥市高新区天智路19号原创动漫园北楼3036室
安徽科技报版权所有 陕ICP备05003879号
技术支持:锦华科技