查看原文
其他

被AI支配的人生——偏见是如何产生的?

Lea 大数据应用 2022-10-18

今日份知识你摄入了么?

你有没有思考过:我们做决定到底是凭逻辑还是凭直觉?


我总是凭直觉说我的理由和感受,而不是更客观、更批判性地分析问题。但这就会出现问题,也就是人们常说的偏见。

对怎样道德地使用数据,要有更好的想法

来源: Unsplash


人们往往都会有偏见,因为他们不知道自己的直觉会在什么时候和任务的理性思考产生冲突,而理性思考会为稍后的推理发挥作用。然后,它会让我们做出冲动甚至不理智的决定,我们还想不通为什么。

“黑匣子(Black box)” 还是可解释的AI(explainable AI)?


人类心理学中,存在偏见这种说法,在人工智能中也同样存在。有关人工智能偏见的争议性问题,大多与种族主义和性别不平等有关。看完Netflix上的《代码偏见(Coded Bias)》(2020)后,我脑海里想深入了解偏见(尤其是人工智能)的开关被触发了。这是一部关于各式生物识别、人工智能和数据科学技术如何在实施和使用方面存在偏见的煽动性电影。


代码偏见(2020)    来源: Netflix


现在正带动世界的各种信息,和以信仰和态度为基础的文化和社会,我们都不应该把它们存储在人工智能系统中。


我们不需要再创造一个我们现在已有的世界,更不需要用数学模型或算法来消除多年来、几十年、甚至几百年的种族主义、性别歧视和许多其他紧要问题的斗争。


因此,意识到偏见并不是来自机器学习模型这件事,是非常重要的。


偏见的来源恰恰是我们用来训练模型的数据,和我们提供的训练数据集。


在某些情况下,AI系统在某些类型的数据上很出色,但在其他类型的数据上则表现地很糟糕。


我们一直生活在虚拟的环境中,充满了各种刺激。不只是广告刺激,它们在空间和时间上都已经饱和了。因为全球的可访问性,它不再是一个环境,而更像是一个生态系统。在这种情况下,人们的意志会被无形地一层一层破坏,直到一种超敏状态发生,在这种氛围下,偏见就会让我们和系统做出冲动决策。最可怕的是,我们甚至没有注意到这件事。


超越现实   来源:Unsplash


打击隐私攻击和安全


作为人类或人工智能,我们不应该因为要处理更高智能的信息而责怪自己。我们需要找到建立互相信任的途径。下面让我们来看如何重建信任的例子。


当数字营销行业只出现一种模式,我们就可以把它从微系统扩展到更大的领域。早上醒来,我们是没有时间专注和独处的,我们会使用手机,很可能会用到社交网络。只往下翻了几下,广告就弹了出来,一个接着一个。


刚刚在你眼前停留了几秒钟的数据,现在已经印在了你的脑海里了。更重要的是,如果你参与了一些品牌或公司希望你做的事,你现在就成了他们渠道的一部分。你可能不想,但你确实这么做了。


广告时代的兴起


推荐算法会根据特定的数据营销目的来优化推荐:提高品牌知名度,提高转化率,或者最大化利润。


Profit against humanity;利益和人性的斗争 

来源: Unsplash


然而,很重要的是,这些决定可能会产生严重的后果:反复推荐日常用品来增加互动和点击量,有助于公司实现目标,但这个行为也可能伤害到个人或社区。


AI驱动的用户优化


当人工智能和机器学习系统在训练时使用了带偏见的数据,而这种偏见没有被识别或解决,就可能会造成严重的后果。而用户优化就是实施过程中面临的一个明显问题,即算法偏差。


一个典型的例子是,在没有人工清理客户的特殊购买行为数据的情况下,在Facebook上提供一个客户群来寻找相似用户。企业或品牌可能会因此错过一个潜在盈利的消费者利基市场,导致它们的市场份额停滞不前。


使用干净的数据创建相似的受众群; 来源: Unsplash


当我们开始为算法提供预处理过的“干净”数据集,那么精准的利基市场和拥有最高产品粘性的客户可能会急速推动你的数据驱动策略。因此,能够正确评估情况,并采取适当行动是非常重要的。


当一个机器学习模型开始运行时,它的初始结果会受到它训练时的数据的影响。


这就是为什么一定要用改进过的数据来训练这些模型,而不是用那些自称种族平等或性别平等的数据。一旦模型就位,系统就可以继续收集数据并独立学习。


信息是美丽的


除了数据预处理外,进一步细化数据也很重要;如果没有带来新的见解,成本会变得非常高。因此,去评估模型是怎么评价某些特征或特征组合是很重要的。你可以使用人类知识来改进模型。


诠释会永远在我们的血液中; 来源: Unsplash


人们有必要意识到---人工智能是人工的,它的价值是取决于人类观察和批判的贡献。如果不能正确处理AI,偏见会是其中最严重的问题。对于任何市场团队来说,将数据偏见的负面影响降到最低的关键,是尽可能多地让人类参与其中。算法无法想象出一个与现在不同的未来。


当这些智能系统不符合道德条款和条件,它们就需要人类的监督。优化模型或数据收集不应该仅仅基于投资回报这个目的。


增强人类的决策能力




一切都可以优化,只要人类保持他们的真实本性,呈现出的信息就会非常美丽。


数据不需要为数字营销或其他领域的成功算法而服务。


数据的目的是用来打破内部偏见,被设计来讲一个新的故事,一个与我们已经想象力相反的故事。


如果我们可以两者兼得——在对抗偏见同时又能建立对人工智能的信任呢?到那时,也只有那时,决策进程的转变会对人类更好的时代带来意义。

原文作者:Aleksandra Hadzic

翻译作者:Lea

美工编辑:过儿

校对审稿:Jiawei Tong

原文链接:https://artlexa.medium.com/the-shift-in-the-decision-making-strategy-bias-in-ai-4c0e36466aec


往期精彩回顾


Google Product Analyst 面经详解

如何为你的数据可视化找到正确的色板?

【面试技巧】如何应变面试三大模式?

狗家/IBM/微软:哪家线上Data Analyst证书求职含金量最高?

探索性数据分析实例——扒了200多天的2万条聊天记录,我发现了群聊的秘密




点「在看」的人都变好看了哦

点击“阅读原文”查看数据应用学院核心课

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存