
AI的成本效益与数据主权存在冲突,迫使全球组织重新审视其企业风险框架。
一年多来,生成式AI的叙事焦点在于能力竞赛,往往以参数数量和有缺陷的基准分数来衡量成功。
尽管低成本、高性能模型的吸引力为快速创新提供了一条诱人的路径,但与数据驻留和国家影响力相关的隐性负债迫使人们重新评估供应商选择。中国AI实验室DeepSeek最近成为了这场全行业辩论的焦点。
据前顾问比尔·康纳称,国际刑警组织和英国政府通信总部,以及现任首席执行官捷特比特,DeepSeek 初期反响积极,因为它打破了现状,证明了“高性能大型语言模型不一定需要硅谷规模的预算”。
对于那些希望削减与生成式人工智能试点项目相关的巨额成本的企业而言,这种效率自然颇具吸引力。康纳观察到,这些“报道中极低的训练成本无疑重新点燃了业界关于效率、优化以及‘够用就行’人工智能的讨论。”
人工智能与数据主权风险
对廉价性能的追捧已与地缘政治现实相撞。运营效率无法与数据安全脱钩,尤其是在数据为托管于不同司法管辖区的模型提供动力时,这些管辖区在隐私和国家访问方面的法律框架各不相同。
关于DeepSeek的近期披露改变了西方企业的考量。康纳强调:“美国政府近期的披露表明,DeepSeek不仅在中国存储数据,还在积极与国家情报机构共享数据。”
这一披露使问题超出了标准的GDPR或CCPA合规范畴。“风险状况已从典型的隐私担忧升级到国家安全领域。”
对于企业领导者而言,这构成了一个特定的风险。大型语言模型(LLM)的集成很少是孤立的事件;它涉及将模型连接到专有数据湖、客户信息系统和知识产权库。如果底层AI模型存在“后门”或强制与外国情报机构共享数据,主权将不复存在,企业实际上绕过了自身的安全边界,并抹杀了任何成本效益优势。
康纳警告称:“DeepSeek 与军事采购网络的纠葛及其涉嫌规避出口管制的手段,应成为 CEO、CIO 和风险官们的重要警示信号。”使用此类技术可能会无意中使公司陷入制裁违规或供应链受损的困境。
成功不再仅仅关乎代码生成或文档摘要;它关乎供应商的法律和伦理框架。特别是在金融、医疗和国防等行业,对于数据来源模糊性的容忍度为零。
技术团队在概念验证阶段可能会优先考虑AI性能基准和集成便利性,从而可能忽视工具的地缘政治来源以及数据主权的需求。风险管理人员和首席信息官必须实施治理层,不仅要审查模型的“是什么”,还要审查其“是谁”和“在哪里”。
AI成本效益治理
决定采用或禁用特定AI模型是企业责任的问题。股东和客户期望他们的数据保持安全,并且仅用于预期的业务目的。
康纳明确地向西方领导层阐述了这一点,指出“对于西方的首席执行官、首席信息官和风险官来说,这并非关乎模型性能或成本效率的问题。”相反,“这是一个治理、问责和受托责任的问题。”
企业“无法为整合一个数据驻留、使用意图和国家影响力本质上不透明的系统进行辩护。”这种不透明性造成了不可接受的风险。即使某个模型的性能能达到竞争对手的95%,且成本仅为一半,潜在的监管罚款、声誉损害和知识产权损失也会瞬间抹去这些节省的成本。
DeepSeek的案例研究提醒我们,必须审计当前的人工智能供应链。领导者必须确保他们能够全面了解模型推理发生的位置,以及谁掌握着底层数据的密钥。
随着生成式人工智能市场的成熟,信任、透明度和数据主权很可能会超越原始成本效益的吸引力。
本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!