人应当是人工智能的核心
点击蓝字关注我们
自2022年底ChatGPT 问世以来,人工智能领域的公共讨论日益增多。这一现象不仅催生了初创企业与科技巨头之间的技术竞争,也促使社会各界重新审视人工智能在未来社会中的定位和作用。
2019年,斯坦福大学教授李飞飞与哲学家约翰·埃切门迪共同成立了斯坦福大学以人为本人工智能研究院(HAI),旨在推动人工智能技术的发展,同时确保这些强大的工具能够服务于提升人类福祉,而非仅仅追求生产力的提高。
作为现代人工智能领域的奠基人之一,李飞飞从更加人文的视角看待如今的技术发展,她说:“现在有很多噪音,有很多夸张的论述,但这是技术发展的一个必经阶段。在这个以人工智能为驱动的时代,以人为本的理念比以往任何时候都更为重要。”
“
在风暴中心
2022 年底,ChatGPT 的公开发布席卷了世界,随后出现了更多生成式人工智能工具。
从最初只能执行简单的任务到如今具备类似人类的能力,短短几年的时间,人工智能的发展速度令人咋舌,与此同时,对其潜在风险的担忧也日益增加。
事实上,人工智能存在的偏见问题直到现在依然没有被很好地解决。2023年底,《华盛顿邮报》发表了一篇详尽的专题报道,深入探讨了机器学习技术中潜在的偏见。
当前的 AI 图像生成模型,如 Dall-E 和 Stable Diffusion,有时仍会反映出社会的刻板印象。例如,在生成“具有创造力的人”的图像时,这些系统往往倾向于呈现白人形象;而在描绘“社会服务人员”时,则多数情况下展示的是有色人种的形象。
其实,大型语言模型,即使是多模态的大型语言模型,可能也并不具备真正意义上的“思考”能力。大型语言模型很容易出现荒谬的概念性失误,也乐于编造听起来合理但实际上毫无意义的胡言乱语。
了解这些事实有助于我们避免过分迷恋模型的能力。然而,随着大型语言模型生成的文本、图像、语音和视频越来越复杂,真与假之间的界限愈加模糊。越来越多的评论家开始质疑,为我们敲响警钟:作为个人、机构,甚至社会,我们究竟有没有能力区分真实和虚构?
当人们意识到这一切还只是1.0版本时,这种发问尤其令人警醒。
我们仍身处一场全球风暴之中。每天似乎都有新的头条新闻报道自动化对全球劳动者构成的威胁。
随着人工智能在监控领域的应用日趋成熟,记者和人权活动家的担忧与日俱增,对隐私和个人尊严对隐私的古老威胁也在现代社会出现,相关报道使公众对人工智能形成了负面看法,这在整个科技领域都是非常罕见的。
科技不断发展,算法语言表达的高级程度已逼近人类水平。机器人正在逐渐学会应对真实的环境。视觉模型不仅可以通过照片进行训练,还可以在全三维世界中进行沉浸式实时训练。
人工智能能够像识别内容一样流畅地生成内容。与此同时,伦理问题在我们周围不断涌现,与人类经济社会发展的关联也日益紧密,但这就是科学一直以来的样子。
“
重估人工智能
从 ImageNet 时代开始,规模的重要性就已经显而易见。但近年来,“越大越好”的观点几乎被赋予了宗教般的意义,关于“大数据”的讨论永无休止,不断强化着这样的观点:规模是神奇催化剂,是机器中的幽灵,可以将人工智能的旧时代与令人窒息的梦幻未来区分开来。
没有人能否认,神经网络确实在这个资源丰富的时代蓬勃发展:惊人的数据量、大规模分层架构和大量互联的硅片确实带来了历史性变化。
人工智能正在成为一种特权,一种排他性极强的特权。越来越多的学者、政策制定者认为,使用人工智能模型的高昂成本正在将研究人员排除在该领域之外,从而损害了对这一新兴技术的独立研究。
这种权力的转移正在悄然改变人工智能领域的格局,促使研究人员将他们的研究成果更多地应用于商业领域。
学术界早就意识到人工智能可能会带来负面冲击,比如缺乏透明度、容易受到偏见和对抗性影响等等。
然而,由于研究规模有限,风险一直只存在于理论层面。市值接近万亿美元的公 司已经掌握了主导权,潜在风险的发展步伐也急剧加快。无论是否准备就绪,这些问题都需要以商业速度加以解决。
每个问题单独来看都令人担忧,但它们共同指向了一个未来,其特点是监督减少、不平等加剧,如果处理不当,甚至可能导致迫在眉睫的数字独裁主义问题。
硅谷的傲慢态度向来为外界所诟病。在人工智能时代,尽管我们对潜在风险的认知不断加深,企业的夸夸其谈也上升到了新的高度,企业高管们承诺将在不久后推出自动驾驶汽车,设计出高超精湛的肿瘤检测算法,实现工厂的端到端自动化。
至于被先进技术取代了工作的人(出租车司机、长途卡车司机、装配线工人甚至放射科医生)的命运,商业领域的态度似乎介于半心半意的“再培训”和几乎不加掩饰的漠不关心之间。
无论首席执行官和自诩为未来学家的人的言论如何彻底脱离公众,技术的日益普及都会进一步加剧人们对人工智能的恐惧。在这个时代,里程碑接二连三地出现,最可怕的情景正在逼近。
有偏见的人工智能被广泛应用于处理贷款申请,甚至协助法官做出假释决定等方面。类似的报道还显示,在某些招聘中,求职者会先经过人工智能技术的筛选,然后才有真人面试官进行面试,此类做法往往会在无意中造成歧视性影响。
如今的人工智能是如此宏伟,如此强大,如此反复无常,既能轻易激发灵感, 也很容易摧毁一切。要让人工智能值得信任,需要的远不止商业公司空洞的陈词滥调。
“
人工智能的未来
我们曾经将人工智能视作纯粹的科学,而现在,我们更愿意用:“现象”“颠覆”“谜题”“特权”“自然之力”来定义新一代人工智能所能做的一切,无论是好是坏,无论是在预期之内,还是在意料之外,都因其设计本身缺乏透明度而变得复杂。
如果在算法设计完成后,再加入安全性和透明度等考虑因素,无论设计得多么精妙,都不足以满足要求。
下一代人工智能必须从开发之初就采取与现在完全不同的理念。以激情为起点固然很好,但我们要面对的是纷繁复杂而又不起眼的挑战,要取得真正的进展,就必须有敬畏之心。而硅谷似乎缺乏这种心态。
如今,人工智能是一种责任,是我们所有人共同承担的责任。
深度学习飞速发展,每一年都感觉像是要面对一个全新的领域,其应用的深度和多样性增长得如此之快,甚至全职研究生和博士后也很难跟上文献的步伐,更不用说教授们了。可能性无穷无尽,挑战也永无止境。
即使在这样一个黑暗的时代,人工智能也具有无与伦比的激励力量。面对全球亟待解决的 问题,面对具有历史意义的机遇,面对可能需要几代人的努力才能揭开谜底的未知,真正解决所有问题的答案远远不是公司战略或学术课程所能提供的。
未来几年,从业者需要的不仅是专业技术知识,他们还必须了解哲学、伦理学,甚至法律。
想象空间是巨大的,但愿景需要一个重要的纽带串联起来,这个纽带就是大学。早在有人利用人工智能谋取利益之前,人工智能就已经在大学里起步了。
在大学校园里,仍然最有可能感受到某些意想不到的研究突破带来的火花。感知机、神经网络、ImageNet,以及后来的很多东西都出自大学。
要从根本上重新构想人工智能,使其成为以人为本的实践,与其说这是旅程方向的改变,不如说是旅程范围的扩展。人工智能一直以来都追求科学性,而现在,它必须也追求人性。
人工智能应该秉承最优秀的学术传统,保持合作和敬畏,同时不惧怕直面现实世界。毕竟,星光是多样的。一旦白色的光辉展开,各种颜色就会发出耀眼夺目的光芒。
内容来源:《我看见的世界》 李飞飞著
—- END -—
往期推荐