人工智能和伦理的作用
摘要:人工智能的伦理方法并不像洲际飞机上的自行车刹车那样起作用。道德不会给进步踩下不充分的刹车。然而,它确实提出了如何将对民主社会重要的原则和价值观转化为数字民主社会的问题。除了讨论透明度、问责制、可解释性、公平性和可信度之外,本文还集中讨论了两个主要问题:代表性差距——数据中少数群体和多数群体(女性)被低估或歪曲;数据剪影——身体、自我和人类生活似乎只能被数据破译。因此,伦理推理坚持认为,人类生活中不可量化的领域与任何可量化的方面一样重要。必须不断检查对社会、政治和个人的广泛量化的影响。良好的监管不是研究和商业的障碍,但这对于建立对人工智能系统的信任是必要的。
关键词:人工智能;伦理;信任统计
1。 为什么是伦理?
“革命”这个词似乎已经从政治语境转移到了技术语境。像每一次革命一样,技术革命改变了我们生活的环境和方式。
对于像我们这样的伦理学家来说,有一些新的工作条件:不久前,我们还在不断地用一只脚去撞门,结果造成了瘀伤;现在门大开着。至少前厅的门。有时也去扫把间。
今天,每个人似乎都在呼吁道德。几乎所有人。公司——至少在欧洲——发布道德准则,政治上严肃对待监管的必要性,顾客和消费者注意到对“道德”的渴望。
其中一个原因是,数字化中经常悬而未决的结构性问题在人工智能中变得更加尖锐。仿佛在放大镜下,通过关于人工智能的辩论,数字化带来的恐惧变得清晰可见。从担心人工智能会毁掉工作,到担心人工智能会超越或智胜人类,继哥白尼、达尔文和弗洛伊德之后,将表现为对人类危险的新侮辱。
然而,对道德的呼吁是矛盾的。首先,当我们谈论伦理道德时,这些呼吁并没有明确我们谈论什么(除了它是某种东西好);其次,关于高光泽纸的道德准则也可以作为竞争中的优势和规避法律法规的一种方式;第三,对道德的呼唤中闪耀着一种恰当的不信任:人们认为道德促进了一种(典型的德国式?根深蒂固的怀疑和批判文化,过多地担心原因和原因,而不是拥抱进步。这种担忧令人担忧,因为尤其是行业担心它会导致难以生成和获取数据,或者难以以必要的速度将系统推向市场。正如乌尔里希·贝克曾经说过的,道德就像洲际飞机上的自行车刹车。194].
乌尔里希·贝克指出道德努力(有时)是徒劳的,这可能是对的。他错在“刹车”;道德不会给进步踩下不充分的刹车。
关于人工智能,伦理学在几个层面上反思了所谓的进步:为了什么和为了谁?谁不会呢?
伦理学询问如何将对民主社会重要的原则和价值观转化为数字民主社会。它询问哪些新的或更新的过程和结构是个人和社会“值得生活的生活”(用亚里士多德的话说)所必需的。它还问人工智能系统的使用创造了什么新的权力关系:谁使用这项技术?谁能反对它的使用,它的结果和决定?人们和社会正在接受哪些新的依赖?
有大量文献关注人工智能系统的透明性、可问责性、可解释性、公平性和可信赖性。
2. 代表性差距
训练数据的质量对于人工智能系统的质量至关重要。这是不言而喻的。输入调节是“好”结果的前提。数据的选择和完整性是公平应用的基础。然而,来自和关于少数群体或边缘化群体的信息和知识在通用数据集中往往很少。存在“代表性差距”,不仅包括少数群体,还包括多数群体:妇女。医学数据显示,高加索男性被认为是“正常”人群。只要纳入临床研究的女性太少,许多女性的心脏病发作就会得不到承认。只要药物研究中没有性别差异(在美国针对新冠肺炎药物的2484项临床试验中,只有416项将性别作为招募标准;[2]),我们冒着发现女性两种常见副作用的风险:恶心——或者完全没有效果[3,pp。195–216]. 只要在医学研究中忽视多样性,黑色素瘤就可以在白色皮肤上检测到,而不是在深色皮肤上[4]。
像ImSitu或COCO这样用于算法图像识别的大数据库,主要促进了一种强大的性别偏见。“厨房”和家用电器呈现给女性,电脑和户外运动呈现给男性。在这里训练的系统不仅会繁殖后代,还会强化常见的偏见:男人做饭的形象被贴上了“女人”的标签[5]。
3. 数据轮廓
柏林洪堡大学的社会学家Steffen Mau曾指出,德语中的“vermessen”一词可以表示三种意思:衡量某件事、衡量某个错误以及放肆、过度自信、傲慢。当涉及到人工智能时,这三种含义都起作用[7,第10页。23].
人工智能系统渗透到生活的各个领域越多,生活中可量化的部分就越多。例如,在医疗保健领域,人工智能的成功尤其明显——在越来越精确的诊断、罕见疾病的治疗或流行病研究中。在识别模式和预测疾病的出现和发展时,人工智能系统将与健康相关的信息翻译成数字语言。这在很多情况下有助于达到更好的健康标准。但是,和人一样,系统也会犯错。只是不同的错误。某些疾病在某些人身上可以得到更好的诊断——如果数据集被扭曲,包含的关于女性或深色皮肤的数据太少。人工智能系统也可能增加健康问题上的社会不平等,例如,推荐一个人进行器官移植或进一步治疗一个人而不是另一个人。当具有相似年龄和健康状况的人过去的治疗或移植结果不够好时,就会发生这种情况。社会地位较低的患者、贫困患者或受教育程度低或语言能力差的患者更是如此。因此,非医疗标准用于医疗决策。
许多医生对健康和疾病也是主观和社会现象的事实有敏锐的耳朵和敏锐的眼睛,健康不是一种,而是多种“健康”的方式。还有不同种类的知识:人工智能系统在不久的将来可能比人类更好地应用的数字知识。但也有经验知识、直觉知识、触觉知识和情感知识。人不是他们的血压,尽管它可能很重要。人们有欲望、希望、恐惧、对美好生活的想法、传统或非传统的信仰、他们爱的人或他们不能忍受的人。这些都不能被翻译成数字语言,但它往往对人们的生活方式、健康对他们意味着什么以及什么样的医疗方式是决定性的。由于人工智能承诺在个性化医疗方面取得巨大进步。
“数据轮廓”是一种计算和测量聚类技术的准确性或鲁棒性的方法。从字面上理解,它揭示了人类生活中可测量数据的积累产生了什么:轮廓。拥有一个精确的轮廓可以拯救生命——手术、药物、安全运输或安全食品的精确数据。错误、失真或缺失的数据可能会危及生命。
然而,如果认为数据轮廓足以理解、预测、帮助或管理人类生活,那就太放肆了。人类生活中可以转化为数字的部分可以对幸福和繁荣发挥决定性作用。如果不否定使人类成为人类的维度,人类生命作为一个整体就无法转化为数字。
4. 数据轮廓之外的伦理
在伦理学研究中,测量的重要性不言而喻。但是我们如何衡量测量的价值呢?只要人工智能系统是基于常见的偏见,它们就会测量错误,必须不断检查和纠正:
– 我们需要意识到,人类生活中不可量化的领域和任何可量化的方面一样重要。必须不断检查对社会和个人的广泛量化的影响。不可量化的特征、情绪、信念、欲望和目标是不能丢下的。身体和自我不能仅靠数据解码。
– 我们需要意识到这样一个事实,即人工智能能够并且必须成为一个真正的跨学科领域,其中也包括人文科学和社会科学。开发旨在用于复杂社会现实的技术需要对社会、法律和道德背景及其相互依存性有一个批判性的理解。由于资源和临时职位有限,人文社会科学目前无法平等开展研究。
– 我们需要意识到,良好的监管不是研究和商业的障碍,而是有必要建立对人工智能系统的信任。
– 我们需要意识到,没有结构和资源,人工智能系统就无法开发、生产、维护和处置。这包括能源消耗、包括稀土在内的材料消耗、那些保持服务器绝对干净的人的无形工作、那些点击工作以提供培训记录的人、那些从暴力图像中“清洗”社交媒体的“清洁工”直到处理被运送到全球南部国家的电子垃圾的人。所有这些资源和“看不见的”工作必须在负责任地使用人工智能时变得可见。
这一切意味着:我们必须发展一种思考伦理的新文化——不是作为自行车刹车,而是作为思考我们想要生活的社会的一种智能方式。伦理学家不仅担心,而且思考和关心大规模技术变革的原因。人工智能研究人员也应该这样做。