ISACA Blog | 在治理数据时识别隐藏风险和量化伦理分析
数据偏见是数据治理中的一个隐藏风险。它可能通过在人们使用应用程序或创建的人工智能算法时,偷偷进入数据收集、存储和使用过程中。虽然数据偏见的存在是毫无疑问的,但在制定数据治理政策和法规时,我们常常忽视或忽略了它。我们往往不像我们应该的那样认真对待伦理问题。
数据治理,即确保数据是可用的、适用的、可信的和一致的,如果存在数据偏见,因为它会使可信的数据受到污染,使得数据治理变得不可能。数据安全是一套用于保护数字信息免受内部和外部以及故意、恶意和意外威胁的法规,如果存在数据偏见,数据安全很难做到,因为它使法规的执行具有歧视性。数据保护是保护信息不被破坏、损害或丢失以及加强数据隐私的行动,当数据偏见发生的情况下,数据保护是无效的,因为它削弱了行动的有效性。此外,忽视数据偏见会加剧已经长期存在的数据保护问题。由于我们对人工智能和机器学习等新兴技术的依赖程度越来越高,需要缓解由此产生的复杂而纠结的法律和伦理问题。
对伦理分析的结果进行量化有助于缓解这些问题。必须解决这些棘手的问题,以深入了解问题的原因,其中最突出的一点是在制定和建立保护政策和对策时,忽视或排除了问题的社会、伦理方面。有必要对每个可识别的问题的后果进行衡量和量化。
成本效益分析和风险分析往往倾向于关注物理损害和经济损失,但在处理问题的社会和伦理方面的隐藏风险(如数据偏见)时却显得不足。尽管所提出的伦理矩阵有助于提供对伦理问题的整体看法,但分析的结果往往有时是相互关联的,有时又是相互矛盾的,这使得决策者很难确定一个结论性的裁决。基于伦理的算法可能是答案。
为了说明这一点,我们可以用这样一个例子来说明:员工Alex下班后从公司带了一个USB设备回家,打算在家里继续工作。尽管这是一个简单的行为,但它可能会违反企业的规章制度。企业不允许将公司财产带出公司,因为这可能会导致设备容易受到物理损坏或设备丢失,并违反隐私政策,因为USB设备可能包含专有数据,不确定是否加密,这可能会导致不可预测的后果和潜在的责任,如诉讼费用、声誉损害和信任度降低。采用建议的伦理矩阵算法和六维度量算法可以帮助各利益相关方根据Alex的行为做出决策。
再举一个例子,考虑一下英国国王的角色。他既没有治理的职权,也没有治理的权力,这些都掌握在英国首相手中。英国国王是政府的象征性首脑。有些人可能会认为他的角色是毫无用处的;然而,在现实中,无用之物的使用却至关重要,因为国王在台前象征、证明和投射出一个宽容、平易近人和有道德约束力的君主,为在幕后的英国首相依法治国铺平了道路。
伦理在数据保护中非常重要,因为它的无用之用,方为大用,并得到了法律和伦理学的相互支持。事实上,长期难以根除的数据保护问题相当于对那些不认真对待道德的人的斥责,因为他们认为道德是被动的,缺乏说服力(即无用)。伦理学的功效体现在法律与伦理学的合作中——在伦理学软弱无力的地方,法律会出手相救;在法律陷入困境的地方,伦理学会伸出援手。判决是根据法律规定的规则和条例以及伦理原则作出的。
现有的应对措施既缺乏巨额投资又没有取得成效,但是当人们采用六维度量对它们进行衡量时,情况必将改善。
编者按: 本文于2023年1月23日首次发表 于ISACA官网News and Trends/ISACA Now Blog。文章内容仅代表作者本人观点。
作者:Wanbil W. Lee,DBA。
翻译:王岩(Liam Wong),CISA、CDPSE、CISSP、PMP、OCM 11g/12c、PGCA、MCDBA、MCSE,ISACA微信公众号特邀通讯员。
校对:谭辰菲(William Tan),CISSP,CISA,CDPSE,CRISC,ISACA微信公众号特邀通讯员,德国商业银行信息安全经理。