您现在的位置:首页 > 专栏 > 正文

人工智能:互联网的“看门人”何以影响着人们的公民权利

时间:2022-07-04 10:16:30 来源:郭佳楠 评论:0 点击:

在现代生活中,人工智能不仅帮助我们在浩瀚信息海洋中“导航”,并掌控着我们的在线体验。例如,我接下来要听哪首歌?接收到的是重要电子邮件还是垃圾邮件?什么类型的广告会让我感兴趣?从某种意义上说,人工智能在各个领域中深刻影响着社会主体的生活方式,并防止人们被无关的信息所淹没,然而,这同时也引发了一个重要的问题:谁来决定什么是相关的或不相关的?他们是如何决定的?

如果人工智能程序为我提供一首肖邦而不是利佐(Lizzo)的歌曲,那可能只会令人感到惊讶与疑惑。但是,如果人工智能程序为我提供行政助理的招聘广告,并阻止我看到汽车修理工的招聘广告,这可能就是非法的。

人工智能是一门制造智能机器的科学与工程,它将算法(明确的指令)与数据相结合,以执行类似于人类决策的功能。上世纪80年代和90年代的第一代人工智能成功实现将人类编写的规则应用于数据,从而理解用户输入并生成输出。21世纪的第二代人工智能做到了 “自主学习”,这意味着计算机程序可以获取人类提供的数据和指令,并能够独立地识别规则,然后将这些规则应用到新的数据中以产生输出。当今的第三代人工智能技术设计最大程度寻求一种“深度学习”模式。这种学习模式将允许计算机程序自动学习规则与指令,并自动判断新数据以产生输出,而无需人工干预。

在过去的几年中,市场上不断涌现出包含人工智能技术的相关产品,以简化发布招聘与住房广告的程序、识别具有相关工作经验的简历、避免复杂的面试以及评估租户申请的流程等。这些产品的使用范围已经从第一代人工智能(扫描文档中的关联词语或刑事定罪的背景记录)发展到更高级的模式,例如使用视频分析来确定“值得信赖”或“热情”的候选人。其中许多产品宣称他们使用人工智能技术的目的是为了避免人类偏见的一种方式,但最大限度地减少人为干预并不能保证公平的社会结果。在识别使用技术的过程中,人工智能优先考虑的是用户偏好,而人类社会的民权法则优先考虑的是机会平等。在寻求二者的平衡中,基于人工智能技术的产品可能会更容易筛选出弱势群体——有色人种、妇女、残疾人、老年人、LGBTQ社区的成员等——却违背了他们声称要遵守的法律。我们的民权法明确规定禁止针对广告以及根据个人特征做出就业或住房决定,这就意味着任何组织或个人不得使用这些特征作为人工智能决策的相关数据。2018年,英国路透社曾报道过零售巨头亚马逊(Amazon)公司人工智能项目的失败。该公司通过建立机器学习计算机程序来评估简历和确定最佳候选人的多年后,却意外地放弃了这个项目,原因是在不损害女性利益的前提下,它无法创建一个程序来评估技术职位的最佳候选人。该系统会自动过滤那些包含“女性”一词的简历,并降低所有女性大学毕业生的应聘等级。

又或许它能够像某种公共平台一样简单,允许广告商根据偏好选择用户,看到想要看到的住房广告、信贷和就业机会等。然而事实并非如此,近来美国公民自由联盟(ACLU)和其他民间组织共同提起一项针对Facebook的诉讼,他们认为Facebook 使用基于性别、年龄、邮政编码和其他人口统计信息的广告定位存在一定的侵权行为。最终结果是双方于去年达成和解协议,明确将从广告定位的选项中删除关于性别、年龄以及多个人口统计的指标。此外,另一个牵涉Facebook的诉讼案件是,指控该公司通过限制老年人和女性用户访问金融服务广告的方式来歧视这些弱势群体。新技术的发展必然带来新的社会议题,人工智能技术及其广泛应用也将带来新的社会治理、法律规范及伦理规约问题。

人工智能技术的发展正在重塑社会现实,离开人工智能的社会生活是不可想象的。但是,整个人类社会对此也负有共同的责任,以确保人们的公平、公正与包容原则始终处于社会集体进步的最前沿的伦理考量中。作为一种技术手段,人工智能为建构未来新型人机关系提供重要机会,使历史上处于不利地位的社区产生了更大的可见性与访问权限,从而进一步促进社会发展并提高公众福祉。因此,我们需要对人工智能技术的伦理价值深入挖掘,不能让这个机会在人工智能的黑箱中枯萎。(作者:郭佳楠,亚洲理工学院发展与可持续性专业博士研究生)

相关热词搜索:郭佳楠