
自2018年开始与人工智能合作以来,我一直饶有兴趣地关注着它缓慢但稳定的复苏,以及非结构化的潮流跳跃。现在,最初对机器人收购的担忧已经有所消退,围绕人工智能融入日常业务结构的道德讨论已经取而代之。
需要一系列全新的角色来处理道德、治理和合规性,所有这些都将为组织带来巨大的价值和重要性。
其中最重要的可能是人工智能道德专家,他将被要求确保代理人工智能系统符合公平和透明等道德标准。这个角色将涉及使用专门的工具和框架来有效解决道德问题,避免潜在的法律或声誉风险。确保透明度和负责任的道德的人类监督对于保持数据驱动的决策、智力和直觉之间的微妙平衡至关重要。
此外,像代理人工智能工作流设计师、人工智能交互和集成设计师这样的角色将确保人工智能在整个生态系统中无缝集成,并优先考虑透明度、道德考虑和适应性。还需要一名人工智能监督员来监控整个代理和仲裁堆栈,即人工智能的决策要素。
对于任何着手将人工智能融入其组织并希望确保负责任地引入和维护该技术的人,我可以建议他们参考联合国的原则。这10项原则是联合国在2022年制定的,以应对人工智能日益占主导地位带来的道德挑战。
那么这十条原则是什么,我们如何把它们作为一个框架呢?
第一,不要伤害
为了使技术具有自主元素,第一个原则侧重于以避免对社会、文化、经济、自然或政治环境产生任何负面影响的方式部署人工智能系统。人工智能生命周期的设计应尊重和保护人权和自由。系统应受到监控,以确保这种情况得到维持,不会造成长期损害。
为了人工智能而避免人工智能
确保人工智能的使用是合理、适当和不过度的。在应用这一令人兴奋的技术时,有一种明显的诱惑,它需要与人类的需求和目标相平衡,绝不应以牺牲人类尊严为代价来使用。
安全和安保
应识别、解决和减轻安全和安保风险
在人工智能系统的整个生命周期中并持续进行。与业务的任何其他领域一样,应该将完全相同的强大健康和安全框架应用于人工智能。
平等
同样,部署人工智能的目的应该是确保利益、风险和成本的平等和公正分配,并防止任何形式的偏见、欺骗、歧视和污名。
可持续性
人工智能应旨在促进环境、经济和社会的可持续性。应进行持续评估以解决负面影响,包括对后代的任何影响。
数据隐私、数据保护和数据治理
应建立或加强适当的数据保护框架和数据治理机制,以确保个人的隐私和权利符合关于数据完整性和个人数据保护的法律准则。任何人工智能系统都不应侵犯他人的隐私。
人的监督
应该保证人类监督,以确保使用人工智能的结果是公平和公正的。应该采用以人为本的设计实践,并赋予人类在任何阶段介入并决定如何以及何时使用人工智能的能力,并凌驾于人工智能做出的任何决定之上。相当戏剧性但完全合理的是,联合国建议任何影响生死的决定都不应该留给人工智能。
透明度和可解释性
在我看来,这是围绕平等的指导方针的一部分。每个使用人工智能的人都应该充分了解他们正在使用的系统、系统使用的决策过程及其后果。当人工智能做出关于他们的权利、自由或利益的决定时,应该告诉个人,最重要的是,解释应该以一种易于理解的方式进行。
责任与问责
这是举报人原则,涵盖审计和尽职调查以及对举报人的保护,以确保有人对人工智能做出和使用的决定负责。治理应该围绕人类对任何基于人工智能的决定的道德和法律责任来实施。任何这些造成伤害的决定都应该受到调查并采取行动。
包容性和参与
正如在任何其他商业领域一样,在设计、部署和使用人工智能系统时,应采取包容性、跨学科和参与性的方法,这也包括性别平等。利益相关者和任何受影响的社区都应该被告知和咨询,并被告知任何好处和潜在风险。
围绕这些核心支柱构建您的AI集成应该可以帮助您放心,您进入AI集成是建立在道德和坚实的基础上的。
本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!