视域 | 改变,从每个人对技术的警惕开始
点击社会科学报关注我们
大数据更加全面,是否意味着基于数据的决策就更加客观呢?我们往往对技术有着盲目的信任,但是技术从来不是在真空或者单纯实验室状态下的产物,哪怕是最单纯的科学研究也都具备一定的社会、文化和政治因素。因此,我们在考虑科技带来便利、变革和创新的同时,必须意识到它所具有的复杂特点,尤其是当科技与资本、政治的意识形态合谋的时候,会带来非常大的欺骗性。
原文 :《改变须从每个人对技术的警惕开始》
作者 | 南京大学艺术学院副教授 陈静
图片 | 网络
前段时间,黑人乔治·弗洛伊德在被警察逮捕的行动当中死亡,在美国引发了大规模的抗议、示威和骚乱。之后,微软发表声明,“我们今天决定不向美国警方出售我们的面部识别技术,除非未来有以人权为基础、强有力的国家法律出台,否则我们不再考虑”。与此同时,亚马逊和IBM都发出了类似的声明。它让我们想到近年来以面部识别为代表的人工智能技术所具有的高风险性,而这种风险很容易被人们在使用技术、享受技术便利的同时忽略。
用户在使用或者被要求使用人工智能技术时,如何确保个人隐私的安全性?如何确保不会因为不良的技术操作而导致性别、种族等方面的身份歧视?如何确保技术获取的各种信息能够被正当合理地使用?
算法中的偏见是怎样产生的
这一系列的问题引起了大家的反思和质疑。所有的故事必须要从头谈起(见下图),图片里有两位新娘,左边是穿着白色婚纱、戴着皇冠的新娘,右边是一位穿着传统礼服的新娘。人们非常容易识别出她们穿着漂亮的礼服正在进行仪式性的活动。但计算机通过它的算法识别出来却是,左边是穿着礼服正在进行婚礼仪式的新娘,右边的关键词则是“表演艺术”“戏服”。为什么会有这样的差异?
实际上,这是深度学习的算法,它是基于包含1400万图片的ImageNet数据库而建立的。ImageNet数据库是由斯坦福大学李飞飞教授及其团队历经多年通过自己、学生打标签,以及人们在亚马逊的众包平台上进行公众打标签所形成的数据集。这1400万打了标签的图片来源为:美国占比45.4%,而其人口仅占全世界4%;其他国家占比37.8%,包括中国和印度,而中国和印度的人口占全世界的36%;同时,来自英国、意大利、加拿大的图片占比也相对较多。整体来看,白人世界的数据占据了大部分。这说明我们是在以非常小的样本去训练算法,同时将基于小样本的算法放到更大的范围中去进行试用,这个过程就造成了偏差。计算机或算法无法准确地根据它所习得的能力进行更大范围的识别,但我们却基于这种算法开发了更多的应用。
并非只有ImageNet数据库如此,发表在Nature的用深度神经网络进行皮肤癌测试的研究用了很多谷歌的图片,其中只有不到5%来自黑色人种,因此算法就没有办法测试深色皮肤人群。所以,数据的抽样、选择标准、应用范围等因素使得算法本身就有缺陷——经过人工筛选的数据并不客观,甚至在数据的内部都有偏见。人们习以为常的仅作为技术来看待的面部识别技术背后隐藏着非常大的文化、身份、种族的偏见,因为人工智能算法的背后是人,算法的开发及应用中都有大量的人工因素与人为判断。
如何固化了我们的偏见
位置塑造了我们的认识论
人工智能其实不仅仅是一种基于算法的技术,同时也是人的意识的延伸,在人与机器合作、互动的过程中,人和机器、人和算法共同造就了一种虚拟空间合作关系,共同构成了一个合作的智慧体。在这个虚拟的智慧体中,人把自己在自然世界里已经形成的常识不加思索地带入算法世界,而人们的常识往往是具有意识形态性、具有偏见的。但人们有没有意识到自己正在把需要努力纠正、筛选和改变的事情不加思索地带入新世界呢?
我想并不是完全如此。现在智能语音的小助手们大多是女性——一个非常甜美、年轻的少女声音,出现在我们的手机和家用智能电器里,出现在各种智能化陪伴的应用里,这是为什么?这就是偏见,以往对人、性别、年龄的偏见促使他们将技术向市场进行转化的时候,把在人类社会当中已经有意识要去改变的一切又带入到新世界里面。
因此,是我们在结构性体系当中的位置,塑造了我们的认识论。这种结构性的位置不仅在自然的人类世界里面,同时也在技术世界里面,我们以自己的认识塑造了新世界,要警惕的是新世界同样也在塑造着我们的认识。我们究竟带给未来、带给下一代、带给年轻人们什么样的新观念?要给他们什么样的新世界?
改变必须从今天开始,从当下开始,从每个人对所使用技术的警惕开始。我们不能排斥人工智能,也不能一刀切地反对人工智能,恰恰相反,要与它们合作,要与技术合作,要去了解其背后的逻辑,了解它的好与坏,了解它的利弊,与此同时,我们也要作出变化,作出应对。
文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1721期第6版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。
拓展阅读