集中式人工智能很危险:我们如何阻止它?

集中式人工智能很危险:我们如何阻止它?

像OpenAI的ChatGPT这样的生成性人工智能聊天机器人所展示的智能已经抓住了个人和公司的想象力,人工智能突然成为技术创新中最令人兴奋的领域。

人工智能被认为是游戏规则的改变者,有可能改变我们生活的许多方面。从个性化医疗到自动驾驶汽车,从自动化投资到数字资产,人工智能带来的可能性似乎无穷无尽。

但是,尽管人工智能将带来变革,但这种新技术也带来了很多风险。尽管对天网式恶意人工智能系统失控的担忧是错误的,但人工智能集中化的危险并非如此。随着微软、谷歌和英伟达等公司在追求人工智能方面奋力前进,对权力集中在少数集中化参与者手中的担忧变得越来越明显。

我们为什么要担心去中心化的人工智能?

垄断势力

集中式人工智能带来的最紧迫问题是少数科技巨头对该行业实现垄断控制的前景。大型科技巨头已经在人工智能领域积累了非常大的市场份额,拥有大量数据。它们还控制着人工智能系统运行的基础设施,使它们能够扼杀竞争对手,阻碍创新,并延续经济不平等。

通过垄断人工智能的发展,这些公司更有可能对监管框架产生不公平的影响,它们可以操纵这些框架为自己谋利。这将意味着缺乏大型科技巨头巨大资源的小型初创企业将难以跟上创新的步伐。那些生存下来并看起来可能蓬勃发展的企业几乎肯定会被收购,进一步将权力集中在少数人手中。结果将是人工智能发展的多样性下降,消费者的选择减少,条款也不太有利,限制人工智能所承诺的用例和经济机会。

偏见和歧视

除了垄断控制之外,人们还真正担心人工智能系统的偏见,随着社会越来越依赖人工智能,这些担忧将变得更加重要。

风险源于这样一个事实,即组织在许多领域越来越依赖自动化系统来做出决策。例如,一家公司使用人工智能算法来过滤求职者并不罕见,风险在于有偏见的系统可能会根据候选人的种族、年龄或位置不公平地排除一小部分候选人。保险公司也使用人工智能来设定保单利率,金融服务公司也使用人工智能来确定某人是否有资格获得贷款以及他们需要支付的利息金额,执法部门也使用人工智能来确定哪些领域更有可能出现更高的犯罪率。在所有这些用例中,有偏见的人工智能系统的潜在影响非常令人担忧。

无论是针对少数族裔社区的执法、歧视性贷款做法还是其他方面,集中式人工智能都可能加剧社会不平等并导致系统性歧视。

隐私和监视

集中式人工智能系统带来的另一个风险是缺乏隐私保护。当只有少数几家大公司控制人工智能产生的绝大多数数据时,它们就有能力对用户进行前所未有的监控。最主要的人工智能平台积累的数据可用于以令人难以置信的准确性监控、分析和预测个人行为,侵蚀隐私并增加信息被滥用的可能性。

这在独裁政府的国家尤其令人担忧,在这些国家,数据可以被武器化,以创造更复杂的工具来监控公民。但即使在民主社会,监控的增加也构成了威胁,爱德华·斯诺登揭露的美国国家安全局棱镜计划就是例证。

公司还可能滥用消费者的数据来增加利润。此外,当中心化实体积累大量敏感数据时,这使它们成为黑客更有利可图的目标,增加了数据泄露的风险。

安全风险

集中的人工智能也可能引发国家安全问题。例如,人们有理由担心人工智能系统可能被国家武器化,用于进行网络战、从事间谍活动和开发新武器系统。人工智能可能成为未来战争的关键工具,增加地缘政治冲突的风险。

人工智能系统本身也可能成为目标。随着各国对人工智能的依赖增加,这种系统将成为诱人的目标,因为它们显然是单点故障。取出一个人工智能系统,你可能会扰乱城市的整个交通流量,摧毁电网等等。

伦理学

集中式人工智能的另一个主要担忧是道德。这是因为少数控制人工智能系统的公司将对一个社会的文化规范和价值观产生重大影响,并可能经常优先考虑利润,从而引发进一步的道德担忧。

例如,社交媒体平台已经广泛使用人工智能算法来调节内容,试图识别和过滤冒犯性帖子。令人担忧的是,算法可能会无意或有意******。

人工智能驱动的审核系统的有效性已经存在争议,许多看似无害的帖子被自动算法屏蔽或删除。这导致人们猜测,这些系统并没有被破坏,而是根据平台试图宣传的政治叙事在幕后被操纵。

替代方案?去中心化人工智能

对集中式人工智能唯一合乎逻辑的制衡是开发分散式人工智能系统。这种系统确保技术的控制权仍然掌握在多数人手中,而不是少数人手中。通过这样做,我们可以确保没有一家公司或实体对人工智能的发展方向产生重大影响。

当人工智能的开发和治理由成千上万的实体共享时,其进步将更加公平,更加符合个人需求。结果将是更加多样化的人工智能应用,不同系统使用的模型几乎无穷无尽,而不是少数几个主导行业的模型。

去中心化的人工智能系统也意味着对大规模监控和操纵数据的风险进行制衡。虽然集中式人工智能可以被武器化,并以一种违背许多人利益的方式使用,但分散式人工智能可以对冲这种压迫。

去中心化人工智能的主要优势是每个人都可以控制技术的发展,防止任何单一实体对其发展产生过大的影响。

如何去中心化人工智能

去中心化人工智能涉及对构成人工智能技术堆栈的层的重新思考,包括基础设施(计算和网络资源)、数据、模型、训练、推理和微调过程等元素。

例如,如果底层基础设施仍然完全由亚马逊、微软和谷歌等云计算巨头集中,我们就不能只寄希望于开源模型。我们需要确保人工智能的各个方面都是去中心化的

去中心化人工智能堆栈的最佳方式是将其分解为模块化组件,并根据供求关系围绕它们创建市场。Spheron就是这样一个例子,它创建了一个任何人都可以参与的去中心化物理基础设施网络(DePIN)。

有了Spheron的DePIN,每个人都可以自由分享他们未被充分利用的计算资源,基本上是把它们出租给那些需要基础设施来托管人工智能应用程序的人。因此,使用带有图形处理器的强大笔记本电脑的平面设计师可以在不将处理能力用于自己的工作时向DePIN捐赠处理能力,并获得象征性奖励。

这意味着人工智能基础设施层变得广泛分布和分散,没有单一的提供商控制。它由区块链技术和智能合约实现,提供透明度、不变性和自动化。

DePIN也可以用于开源模型和底层数据。例如,可以在像量子这样的分散网络上共享训练数据集,这将确保每次人工智能系统访问数据提供者的信息时,他们都会得到奖励。

为了确保访问和权限是分散的,技术堆栈的每一部分都是以这种方式分布的。然而,人工智能行业目前难以提供如此程度的去中心化。尽管开源模型在人工智能开发人员中变得非常流行,但大多数人继续依赖专有的云网络,这意味着训练和推理过程高度集中。

但是,去中心化有很强的动机赢得胜利。例如,DePIN网络的主要优势之一是有助于减少管理费用。因为像Spheron这样的网络不依赖中介机构,参与者不需要支付任何费用或与第三方分享收入。此外,与面临提高盈利能力压力的公司相比,它们能够在定价方面更具竞争力。

去中心化必须获胜

人工智能的未来潜力巨大,但也很危险。虽然人工智能系统的能力在过去几年里有了显著提高,但大部分进步都是由全能公司取得的,这导致它们对行业的影响力增加。这是要付出代价的,不仅仅是金钱上的代价。

唯一合理的选择是促进去中心化人工智能的更大采用,这可以增强可访问性并确保人工智能更大的灵活性。通过允许每个人平等地参与人工智能的发展,我们将看到更多样、有趣和有用的应用程序,这些应用程序可以平等地使每个人受益,并将用户放在首位。

构建一个去中心化的人工智能未来将涉及人工智能堆栈的每一层的大量协调和协作。幸运的是,参与者有强烈的动机这样做。同样,激励不仅仅是金钱。

本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!

(0)
AIIAW的头像AIIAW本站编辑
上一篇 2024-11-20 21:10
下一篇 2024-11-21 21:06

相关推荐