其他
算法“黑箱”下AI信任存疑,可解释性AI迎来发展“元年”
而打破这种问题的关键,在于对AI技术的可解释性。
不少人坚信,科幻电影《Her》中的AI机器人可对行为做出解释,从而帮助人类做出决策,甚至与人类产生深度交流的一幕,迟早也会出现在人们的日常生活之中。
当然,这些过于理想化的场景目前还只能存在于科幻作品中,实践中的可解释AI不论在技术上还是在体验上都还没达标,但产业的发展已经起步并快速成为行业热点。
其实,人工智能的可解释以及科技伦理等问题已经成为AI领域的必选项,2021年的“十四五”规划里面也明确强调要健全科技伦理的体系。
从广义角度讲,可解释性就是当我们需要解决一件事情或者对其做决策的时候,我们需要从这件事中获得可以足够理解能帮助我们做决策的信息。
如果不解决这两个问题,不仅影响用户对AI应用的信任,而且也可能会带来算法歧视、算法安全和算法责任等方面的相关问题。
“在一些重要的应用领域,对于AI可信任性、安全性等方面的要求也越来越高,可解释性就是满足上述要求的认知基础。
此外,由于生产数据与训练数据不同,AI模型性能可能会受到影响甚至降低。这使得持续监控和管理模型以促进AI可解释性变得至关重要。
政府机构对用户数据隐私的保护监管,也让企业和研究机构对可解释性AI愈加重视。
对于AI下一步的发展和应用落地来说,现阶段最大的挑战,就是如何有效的在处理问题时候,做到将显性知识和隐性知识二者结合,输出结果。
在金融服务领域,通过透明的贷款和信贷审批流程改善客户体验,加快信用风险、财富管理和金融犯罪风险评估,加速解决潜在的投诉和问题,提高对定价、产品推荐和投资服务的信任度。
AI不应取代人类决策,它应该帮助人类做出更好的决策。如果人们不相信AI系统的决策能力,这些系统就永远不会得到广泛采用。
相关阅读
【科技云报道原创】
转载请注明“科技云报道”并附本文链接