2“大数据时代”公民的数据权利
数字社会的本质是数据社会,数字技术的发展赋予“数据”概念全新的含义,“大数据”成为人类走向数字社会的重要引擎。传统社会的“数据”是事物属性的量化表征,需要经“测量”产生,人们由此发明出测量的方法与技术、测量结果的表达形式(如性质、量纲与单位等)以及基于数量及其关系的计算工具(如数学、科学公式、统计工具等)。从这个意义来看,实验(测量)与数学结合是传统社会中“数据”的核心特征,“数量化”在一定程度上揭示了传统“数据”的本质。然而,“大数据”的出现与应用呈现出全新的特征。虽然大数据的定义没有统一,但是国际数据公司(International Data Corporation,IDC)定义的“4V特征”被业界广泛接受,即数据量(volume)大、数据种类(variety)多、数据价值密度(value)低以及数据产生和处理速度(velocity)快。在学术界,罗伯·基钦(Rob Kitchin)在《数据革命》(The Data Revolution)一书中对于“大数据”的定义也受到很多人认同,他将范围上的全面(exhaustive in scope)、分辨率的精度(fine-grained in resolution)、内在的相关性(relational in nature)、灵活(flexible)、可扩展(scalable)也看作“大数据”的核心特征。从这些定义与特征来看,“大数据”的本质就是数字化与网络化、智能化计算的结合。所以,“大数据”在一定意义上重新定义了“数据”的概念,“数据”不仅指可以“数量化”的事实或信息,而且指能够被利用数字技术“数字化”的所有对象,包括文本、图像、视频、音频等。正如伊格纳斯·卡尔波卡斯(Ignas Kalpokas)在《算法治理:后人类时代的政治与法律》中所声称的那样:“当今世界已完全数据化……当今世界的特点是收集并分析史无前例体量之数据的能力。”得益于数据生成能力与存储能力的不断增强,“大数据”能够不断且迅速地扩张。更重要的是,“大数据”能够超越时空边界并相互关联,深度学习与人工智能对大数据进行挖掘和计算的能力不断增强。
值得注意的是,在数字社会中,公民的数字素养与技能和其“数据权利”有密切关联。在“数字化转型”中,公民深深嵌入“大数据”的生产过程中,成为“大数据”的生产主体。正如克里斯多夫·库克里克(Christoph Kucklick)在其著作《微粒社会》(The Granular Society)中所描绘的那样:“我们的身体、我们的社会关系、自然界,以及政治和经济等一切将以比之前更加精细、精确、透彻的方式被获取、分析和评价。”人们在信息平台上的浏览与搜索行为的记录,电子商务活动中提供精准服务的信息供给与信息要求,社交媒体中产生的大量文本与图像、音频、视频等“电子痕迹”等都是“大数据”的重要来源。此外,传统的、结构化公共数据(例如政府为了监管和服务而采集的公共数据、研究机构为了研究目的而采集的科研数据等)也都被极大地“信息化”与“数字化”,成为“大数据”的重要生产来源。公民有意识或无意识地成为“大数据”的来源,并且成为“大数据”的生产者。
公民让渡一部分个人的信息(数据)或权利,成为使用数字化信息或工具的前提条件。但权利的让渡也成为风险的源头,不同层面的组织、机构或企业在提供数字化服务的同时,也采集了海量的公民数据,并有可能产生“数据霸权”,成为公民数据权利面临的严峻挑战。“霸权”指无视他人意愿而强制性侵犯他人权利、占有他者利益的行为。“数据霸权”既指以数据为对象的霸权,即强行获取和利用他者数据资源,也指基于数据的霸权,即因拥有大量重要数据而形成垄断性、强制性权力。例如,2016年,英国伦敦皇家自由医院(Royal Free London)在没有充分保护患者隐私且未获得患者知情同意的情况下,将160万名患者的数据提供给深度思维公司(DeepMind)用以研究,引发了广泛的社会争议。包括生活、环境、社交、医疗记录和医疗保险等信息在内的医疗大数据一旦泄露,可能会严重影响个人生活,例如导致欺凌、高额保险费和因病史失业等。
公民拥有与其相关的数据在搜集、处理和使用过程中的知情同意权、选择决策权等合理、正当的数据权利。对于公民数据权利的保护,当前学界比较具有代表性的观点是:一方面,要为个人数据权利提供防御性的保护与救济;另一方面,要立足于大数据活动实情来重新界定数据企业收集个人数据的合法边界。换言之,既要有效地保护公民数据权利,又要充分维护数据活动的自由。国外有关数据权利保障的立法实践起步较早,最具代表性的是欧盟的《通用数据保护条例》(General Data Protection Regulation),该条例旨在保护欧盟境内所有消费者的个人数据,并且得到了严格执行。我国也在2021年颁布了《中华人民共和国个人信息保护法》,初步建立起公民数据权利保障体系,但在实际操作过程中遇到了诸多困难。未来要结合国际经验与现实国情,通过思想的启发和制度的建设来保障公民的数据权利。
3数字社会中数字伦理的塑造
提升全民数字素养与技能的过程,也是重塑数字社会中数字伦理的过程。数字社会的健康发展与良性治理需要反思传统社会的价值观念和行为规范,塑造新型数字技术伦理秩序。伦理是指处理人与人、人与社会、人与自然相互关系应遵循的价值理念和行为规则。数字伦理则是指与数字化转型、数字化信息与技术的开发和应用相关的伦理理念和行为规范。
当前数字技术伦理问题主要分为四个层面:第一,从个人层面来看,主要包括隐私权与知情同意、生命与财产安全、公平公正使用数据产品的权利等问题;第二,从公司层面来看,主要包括数据正当采集和使用、数据泄露、算法歧视、算法垄断、算法滥用等问题;第三,从社会层面来看,主要包括促进普惠共享、防止数据鸿沟、数据和算法的监管与问责、多元主体和参与者的权责、伦理审查制度、人工智能的道德主体地位等问题;第四,从人类层面来看,主要包括保障人类社会美好未来、全球数据共享、数据安全与协同治理、防止智能机器人反噬人类、防止智能技术整体失控等问题。
数据的采集与处理通过算法完成,算法也依赖大量数据和算例,数据与算法相结合对已有的伦理秩序构成极大的挑战。
一方面,算法会再现或放大已有的伦理问题。算法具有不透明性、可塑性、人类智能的嵌入性、价值负载性以及应用后果的不确定性。其中,算法的可塑性尤为重要,人能够对算法进行扩展、删除和修改,这意味着机器学习中的开放和创造也易于在伦理上产生“道德真空”。社会和结构不平等,关于知识、正义和技术本身的假设,有偏见的、不完整的学习样本导致了歧视的加深和传递,都可能损害社会公平。当前人们讨论较多的算法偏见与算法歧视,就是指潜藏着的来自设计者、使用者和学习数据的偏见。例如,有研究发现,美国医疗保健系统的机器学习算法中存在种族偏见的证据,被判定为相同风险水平的黑人患者比白人患者实际病情更重。算法偏见与算法歧视可能贯穿于算法的设计与实现、数据的收集与处理以及结果呈现等多个阶段,产生不合理不公正的判断。算法偏见与算法歧视和算法本身的构建和其数据样本数量及样本性质密不可分。偏好性歧视(歧视的根源来自设计者的价值观)和统计性歧视(歧视的根源来自粗暴的利益诉求)都可能通过算法被强化和极化。
另一方面,“数据—算法”的叠加带来了新的社会伦理问题。例如数据权利问题、风险与责任、隐私与信息安全问题。算法从用户获取大量的个人数据,甚至该行为是在数据主体不知情的情况下进行的。更甚者,算法可以通过不透明的计算、剖析、解释与预测介入或侵犯个人隐私。此外,人类自主性丧失也是重要的伦理问题。数据采集、算法系统是否会以任何无意和不可取的方式干扰用户最终的决策过程,从而影响人类的自主性?这些都是由数据与算法相结合所带来的新型社会伦理问题。
数字技术伦理问题既来源于数据与算法等技术因素,更是社会因素交互建构的结果。算法本身具有技术上的局限性,算法本身的复杂性、专业性、封闭性尤其是不可解释性使得一般人无法理解这项技术,导致了公众对算法伦理规约的参与性比较低,无法更好地在这一技术发展过程中表达个人诉求与建议。伴随数字经济的兴起,商业对数据进行了发掘,企业与平台按照符合自身利益的方式通过算法对数据进行操作。企业与平台所使用的算法如果优先考虑经济利益,可能会置个人隐私、信息安全等伦理问题于危险中。同时,价值的偏好、认知的缺失也是重要的影响因素。算法设计者和审查者的价值无意识、价值偏好、对伦理问题和伦理责任缺乏意识和敏感性等都加剧了数字技术伦理问题。此外,政府监管不及时、体系不完善也导致很多伦理问题长期得不到解决。
重构数字社会伦理秩序,是一个充满新旧交织、新旧交替、破旧立新的快速变化并不断探索的过程,需要在一定的原则和规范的基础上建立起包含多元主体参与的治理机制与体系,共同面对数字社会发展的风险,尽可能让人们最大限度地享受其福祉,同时降低可能出现的风险。
从技术层面来看,数字技术的发展与治理需要遵循一些一般性原则。首先,数据与算法伦理设计需要遵循“风险最小必要原则”和“数据最少必要原则”。其次,实现隐私设计和采取默认保护隐私的措施(如加密、脱敏处理、匿名化)。最后,实现全周期算法道德化的技术治理,不仅要求算法在设计阶段实现“前瞻性”道德嵌入,在应用过程中还要对道德伦理规范进行“敏捷性”迭代更新,来适应具体的道德应用情境。
从个体层面来看,数字伦理规约的达成要建立在个体道德修养提升的基础上。道德是个体性的,强调个体的认知和选择。在一个社会中,道德水准的分布有着很大的差异。相比较而言,伦理是社会性的,强调集体的共识和规则。伦理标准实际上是一种非差异化的“社会契约”。在一个社会中,个体道德水准普遍越高,伦理规则的文明程度越高。而如果道德水准差异化程度越大,形成高水平的伦理规则就越难。因此,要将不断提升个体道德修养作为建立数字技术伦理秩序的重要前提与基础。
从企业层面来看,企业要自觉开展伦理合规建设与伦理自治。数据、算法产品的特殊性在于接受了消费者让渡的部分决策权,深刻改变了企业与消费者之间的关系,使得企业的伦理责任更加重要,为此需要建立新型的“企业—社会”伦理治理共同体。企业要充分考虑与平衡企业利益、员工利益、用户利益、竞争者利益与公共利益等多元利益。在数字社会中,企业竞争的核心已经不仅仅在于资本和技术,更在于伦理。为此,企业要树立“伦理即责任、伦理即竞争力”的意识,并付诸行动。
从国家层面来看,需要不断建立与完善有关数字技术的伦理审查机制与伦理法律规范。数据、算法产品的专业化和黑箱化,导致公众难以辨别“企业—消费者”就伦理问题形成的社会契约的内在风险和陷阱。因而,政府相关管理机构作为公众的“代理人”要积极行使伦理审查的责任,依法进行约束和惩罚。数字社会的伦理规范逐渐呈现规则化和法律化的特征,伦理约束从非正式行为上升到正式规则(行政、法律处罚)。面对数字技术的飞速发展以及伦理问题的突显,政府要愈加关注数字技术所带来的伦理风险及其治理方式,有序地引导数字技术不断服务于社会进步与造福人类。(文章内选摘自《科普研究》,作者系李正风,清华大学社会科学学院教授,研究方向:科技的社会研究、科技伦理与科学文化、科技发展战略与政策。王硕为通讯作者。)