其他
电厂|谷歌AI具备意识与工程师对话?我们认真谈一下能“谈一下”的LaMDA
LaMDA是什么?
布雷克·莱莫伊内为什么会被停职?
LaMDA真的有意识吗?
谷歌是如何审查人工智能的?
具有社会效益:对人类和社会可能带来的利益大大超过可预见的风险和弊端。
避免产生或加强不公正的偏见:避免对人产生不公正的影响,特别是与敏感特征有关的影响,如种族、民族、性别、国籍、收入、性取向、能力和政治或宗教信仰。
为安全而建造和测试:应当适当地谨慎,并符合人工智能安全研究的最佳做法,包括在受限环境中测试和适当的监测。
对人负责:提供适当的反馈机会、相关的解释和呼吁,并接受适当的人的指导和控制。
纳入隐私设计原则:鼓励具有隐私保障措施的架构,并对数据的使用提供适当的透明度和控制。
坚持科学卓越的高标准。技术创新根治于科学方法和对公开调查、智力严谨、成型和协作的承诺。
适用于这些原则的用途。谷歌将努力限制潜在的有害或滥用的应用。
造成或可能造成整体伤害的技术。在存在重大伤害风险的情况下,将只在认为利益大大超过风险的情况下进行,并将纳入适当的安全限制。
其主要目的或实施方式是造成对人的伤害的武器或其它技术。
违反国际公认标准,收集或使用信息监视的技术。
其目的违反了广泛接受的国际法和人权原则的技术。