查看原文
其他

斯坦福AI透明度指数出炉!细数巨头公司的透明度挑战:巨头都不及格 | 科技创新中伦理问题前瞻研究(123)

王芊佳 中国生物救护与科学伦理
2024-08-23
点击蓝字关注我们


为什么大型AI公司透明度测试惨不忍睹,Meta、OpenAI等屡屡失分?


科技创新,伦理先行,可是为什么这些大型AI公司的透明度表现如此糟糕?他们为何不愿意分享更多信息?对于普通人来说,AI公司的不透明度是否会对我们的日常生活产生影响,尤其是在数据和劳动权益方面?中国生物多样性保护与绿色发展基金会生物与科学伦理委员会(简称绿会BASE)小编近日注意到,IEEE Spectrum的高级编辑伊丽莎·斯特里克兰就此发布了一篇文章,点评斯坦福AI透明度指数、以及各大人工智能(AI)巨头公司在里面的表现。为助力全球环境治理、为我国学者提供信息供决策参考,编译分享信息如下,供感兴趣的读者们参阅。


该报道指出,近期斯坦福大学基础模型研究中心(CRFM)发布了一份引人注目的报告,揭示了10家最大的“基础模型”开发公司的透明度问题。这些基础模型,如OpenAI的GPT-4和Google的PaLM 2,是多用途的AI模型,它们通过大量数据训练,可以用于多种不同的应用。斯坦福的研究人员使用基础模型透明度指数,评估了这10个模型在100个不同透明度指标上的表现。然而,结果显示,这些大型AI公司在透明度方面表现不佳,最高分仅为54分,相当于学校中的不及格成绩。


(斯坦福发布的基础模型透明度指数。图片来源:斯坦福大学基础模型研究中心(CRFM))


透明度的挑战







































在AI技术的快速发展中,透明度成为一个备受关注的问题。大型AI公司在发展过程中往往不愿透露有关其模型的信息,如架构、模型大小、硬件、训练计算等。这缺乏透明度引发了公众和监管机构的担忧,因为透明度对于揭示AI系统的潜在问题和潜在危害至关重要。

斯坦福的基础模型透明度指数对透明度问题进行了深入剖析,包括与培训相关的因素、模型的属性和功能信息以及模型分发和使用的下游因素。研究人员还与这些公司联系,以查看是否有关于透明度评分的争议。结果显示,大多数公司在关于他们的数据和劳动力的问题上保持了沉默。


数据的问题







































对于AI模型的训练数据的来源也引发了争议。一些AI公司被指控在其训练数据集中非法包含了受版权保护的材料。然而,透明度指数显示,大多数公司并没有充分披露他们的数据来源。这引发了对于数据透明度的担忧,因为数据的来源可以影响模型的性能和可信度。


劳动力问题







































多数开发者没有公开有关这些人工工作者的信息,包括他们是谁以及他们的薪酬。这引发了对于劳动力透明度的关切,因为一些担心这些工作被外包给低工资工人。


关于开放模型 vs. 闭源模型







































尽管斯坦福的指数显示开放模型在透明度方面得分更高,但一些人认为开源这些强大的模型可能会带来风险,因为它们有可能被不良行为者滥用。这种争议凸显了透明度和安全之间的平衡问题。虽然开放模型在透明度方面得分高,但并不一定代表它们是最负责任的行为者。在评估一个模型时,需要考虑多个因素,包括数据和劳动力透明度。


透明度的重要性







































为什么透明度如此重要?我们知道,透明度是确保AI系统安全和可信的关键因素。公众和监管机构需要了解AI公司如何收集、处理和使用数据,以及AI模型的性能和局限性。透明度还有助于揭示潜在的伦理问题,如数据偏见和劳动力问题。没有足够的透明度,AI公司将难以获得公众的信任,也难以满足监管机构的要求。



透明度的挑战







































不过,实现透明度并不是一件容易的事情。AI公司可能有多种原因,总之就是不愿意透露有关他们的模型的信息。其中一些原因可能包括保护知识产权,避免竞争对手模仿他们的模型,或者保护劳动者的隐私。然而,这些原因不能成为削弱透明度的借口。透明度可以通过合理的方式来实现,同时保护知识产权和劳动者权益。



思考







































笔者团队近日也注意到我国正在出台各种各样的人工智能伦理(AI Ethics)相关的政策法规、标准,但是普遍发现几个问题。一是缺乏生态文明、生物多样性的专家的参与;二是对于“安全”的理解偏向于片面化;三是在制定政策和标准的时候,征求意见稿的时间太短了,没有充分的体现公众参与、充分公示。四是考虑到科技快速发展,事实上人工智能伦理治理较之传统安全领域的治理,更需要具有敏捷性的特点,因此在法律和制度、以及标准上也需要予以这方面的考虑。

(注:本文是#科技创新中伦理问题前瞻研究# 第123集。文章仅供信息了解,供全球环境治理专家学者和感兴趣的读者参考。文章不代表平台观点。欢迎留言、点评、批评、讨论。)



本文仅供资讯参考。不代表平台观点。
欢迎转发(请标注来源)。


文 |  王芊佳

审 | 绿茵

排版 | 绿叶

往期同类主题文章
1.如何保护人工智能开发中的通用数据?法国数据保护委员会就AI数据集创建关心的六大议题 

【参考链接】

1. IEEE官网:

https://spectrum.ieee.org/ai-ethics


2. Foundation Model Transparency Index

https://crfm.stanford.edu/fmti/


3. 如何保护人工智能开发中的通用数据?法国数据保护委员会就AI数据集创建关心的六大议题

https://mp.weixin.qq.com/s/jrvrIox2bS821pKcDwZRtg


 中国生物救护与科学伦理


欢迎关注“中国生物救护与科学伦理”微信公众号:科技与伦理的交汇点。本号更新频率为每日2~3篇,保持日耕不缀。


现代科技不断崭露头角,但随之而来的伦理问题也备受瞩目。“中国生物救护与科学伦理”微信公众号由中国生物多样性保护与绿色发展基金会生物与科学伦理委员会(简称绿会BASE)工作团队运营,旨在服务生物与科学伦理领域的科技工作者、教育工作者、思考者以及感兴趣的读者。


本公众号持续研究科技创新中的伦理问题,包括但不限于生态文明与绿色发展、合成生物学、遗传资源数字序列信息(DSI)、实验动物伦理等,关注科技进步与伦理价值的平衡;探讨动物福利、人工智能伦理、生态一带一路冲突(EBRs)及其可持续解决方案;同时覆盖学术伦理、科技伦理、治理伦理、环境正义、流浪动物(含反动物虐待)、食物伦理和野生动植物非法贸易等多领域议题。

作为一个探讨科技与伦理融合、推动“科技创新,伦理先行”的平台,欢迎关注《中国生物救护与科学伦理》微信公众号,点击“星标”,我们会每日持续更新最新的国内国际动态喔!期待这里成为一个平台,促进人们对伦理问题的思考,推动科技创新与伦理的有机融合,为经济社会的可持续发展保驾护航。


中国生物救护与科学伦理

联系小编:

010-88431370,   17319454776


投稿信箱,欢迎来稿:

v89@CBCGDF.org


继续滑动看下一个
中国生物救护与科学伦理
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存