渣打银行如何在隐私法规下运行人工智能

渣打银行如何在隐私法规下运行人工智能

对于试图将人工智能投入实际应用的银行而言,最棘手的问题往往出现在任何模型训练之前。数据是否可以使用?允许将其存储在哪里?系统上线后由谁负责?在渣打银行,这些由隐私驱动的问题如今正在塑造该行人工智能系统的构建与部署方式。

对于在多个司法管辖区运营的全球性银行而言,这些早期决策很少是直截了当的。隐私规则因市场而异,同一套人工智能系统在不同地区部署时可能面临截然不同的限制。在渣打银行,这促使隐私团队在塑造组织内人工智能系统的规划、审批和监控方面发挥更积极的作用。

“数据隐私功能已成为大多数人工智能法规的起点,”渣打银行全球人工智能赋能主管大卫·哈杜恩(David Hardoon)表示。在实践中,这意味着隐私要求决定了人工智能系统可以使用何种类型的数据、这些系统需要具备多高的透明度,以及在系统上线后如何对其进行监控。

隐私正在塑造AI的运行方式

该银行已在实际环境中运行AI系统。从试点过渡到实际应用带来了容易被低估的现实挑战。在小规模试验中,数据来源有限且易于理解。而在生产环境中,AI系统通常从许多上游平台提取数据,每个平台都有其自身的结构和质量问题。“当从受控试点转向实际运营时,随着多个上游系统和潜在的架构差异,确保数据质量变得更加具有挑战性,”哈多恩说。

隐私规则带来了进一步的限制。在某些情况下,无法使用真实客户数据来训练模型。相反,团队可能会依赖匿名数据,这可能会影响系统的开发速度或性能表现。实际部署的规模也大得多,任何控制措施的漏洞都会产生更大的影响。正如哈多恩所说:“作为负责任且以客户为中心的AI应用的一部分,随着数据处理范围的扩大,我们优先遵循公平、伦理、问责和透明的原则。”

地理和法规决定AI的应用范围

AI系统的构建和部署也受到地理因素的影响。不同地区的数据保护法律各不相同,部分国家对数据必须存储的位置以及谁可以访问数据制定了严格的规定。这些要求直接影响了渣打银行部署AI的方式,尤其是对于依赖客户或个人身份识别信息的系统。

“在不同市场和地区的运营中,数据主权往往是一个关键考量因素,”哈杜恩表示。在实施数据本地化规则的市场中,人工智能系统可能需要部署在本地,或者设计成敏感数据不会跨境流动。在其他情况下,只要具备适当的控制措施,就可以使用共享平台。这导致了全球性与市场特定的人工智能部署混合并存的局面,这种格局是由当地法规而非单一的技术偏好所塑造的。

关于集中式人工智能平台与本地解决方案的决策,也面临着类似的权衡。大型组织通常旨在在各市场共享模型、工具和监督,以减少重复工作。隐私法并不总是会阻碍这种做法。“总体而言,隐私法规并非明确禁止数据传输,而是期望能够落实适当的控制措施,”哈杜恩表示。

存在限制:部分数据完全无法跨境流动,且特定隐私法规适用于数据收集国之外的地区。这些细节可能会限制中心化平台所能服务的市场范围,并决定在何处仍需依赖本地系统。对于银行而言,这通常会导致分层架构的形成,即在共享基础架构之上,根据监管要求部署本地化的AI应用场景。

人类监督依然至关重要

随着人工智能在决策制定中日益普及,关于可解释性和知情同意的问题变得愈发难以回避。自动化或许能加快流程,却无法免除责任。“透明度和可解释性比以往任何时候都更为关键,”哈多恩说道。即便与外部供应商合作,责任依然在内部。这进一步凸显了在人工智能系统中进行人工监督的必要性,尤其是在结果可能影响客户或监管义务的情况下。

在隐私风险方面,人的因素比技术本身发挥着更大的作用。流程和控制措施的设计可能很完善,但其效果取决于员工对数据的理解和处理方式。“在实施隐私控制措施时,人始终是最重要的因素,”哈多恩表示。在渣打银行,这促使他们更加注重培训和意识提升,确保团队了解哪些数据可以使用、应如何处理以及界限在哪里。

在监管审查日益严格的背景下,规模化应用人工智能需要让隐私和治理措施更易于在实践中落地。该银行采取的一种方法是标准化。通过创建预先批准的模板、架构和数据分类,团队可以在不绕过控制措施的情况下加快进度。“标准化和可复用性至关重要,”哈多恩解释道。将数据驻留、保留和访问方面的规则进行编码,有助于将复杂的要求转化为更清晰的组件,以便在人工智能项目中复用。

随着越来越多的组织将人工智能融入日常运营,隐私问题已不再仅仅是合规的障碍。它正在塑造人工智能系统的构建方式、运行位置以及它们能够赢得的信任程度。在银行业,这种转变已经在影响人工智能在实践中的具体形态——以及其界限的设定。

本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!

(0)
AIIAW的头像AIIAW本站编辑
上一篇 5天前
下一篇 2021-03-10 08:14

相关推荐