人工智能伦理问题需建立概念模型和明确规则!

近日,由清华大学社科学院主办的“人工智能心理学与算法伦理”研讨会在清华科技园举行。清华大学社科学院心理学系副教授伍珍在研讨会上表示,算法可促进个性化学习,不过相伴而生的人工智能伦理问题,需要建立概念模型和问责原则,规定每个角色具体承担什么样的责任。

伍珍:人工智能伦理问题需建立概念模型和明确规则
清华大学社科学院心理学系副教授伍珍

伍珍指出,目前,人工智能在发展心理学应用方面的研究集中在智能教育、智能导师、智能测评、教育游戏、教育机器人等热门领域。从智能教育来看,智能导师系统就是希望模拟人类教师实现一对一的智能化教学,它的关键作用就是希望能够完成知识计算和推理,同时能够尊重学习者的个体特征。

在伍珍看来,发展心理学主要探讨个体在人生不同阶段不同的特点,而人工智能在一定程度上可以做到尊重学习的个体特征、兴趣、特长。两者结合后,不仅可以满足学习者个性化的需求,还能够做一些适应性的教学策略选取、个性化资源推荐算法等。

“值得一提的是,人工智能通过监测学习环境以及学生学习状态,可以给老师提供更好的辅助。在电脑普及的前提下,智能教育在一定程度上可促进教育公平。”伍珍称。

不过,伍珍也指出,人工智能在重塑教育形态的同时,也衍生出了非常复杂的伦理问题。“比如价值塑造,我们希望孩子成为一个什么样的人?培养孩子哪方面的能力?如果把孩子的成长交到机器手里,人工智能背后的开发者需要思考怎么塑造价值观、引领学生思想,制定知识图谱和学习路径,真正实现个性化的学习。”

关于人工智能算法伦理问题,伍珍概括为三方面:一是算法理性与公平公正问题;二是数据泄露引发的隐私担忧问题;三是智能教学机器身份和权力边界问题。

对于智能机器是否能够取代教师的身份?伍珍表示,知识传授身份可以由机器人参与,教师可以起到情感支持和抚慰、价值塑造和引导的作用,由此看来,心理学就越来越重要了。

“面对人工智能的伦理问题,我们需要建立概念模型和问责原则。比如平台机器智能泄露的隐私怎么追责?算法开发者、算法设计者以及使用者等一系列过程中,需要制定一系列明确的规则,规定每个角色具体承担什么样的责任。”伍珍称。

本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!