人工智能的价值观如何定义?微软亚洲研究院谢幸:社会科学和人工

贡献者:码字狂魔-孔乙己 类别:简体中文 时间:2023-10-26 14:11:48 收藏数:18 评分:-1
返回上页 举报此文章
请选择举报理由:




收藏到我的文章 改错字
10月26日,由界面新闻主办的2023REAL科技大会在北京举行,
会上微软亚洲研究院首席研究员谢幸发表题为《社会责任人工智能:跨学科探索与前景》的演讲。他认为,
社会科学与人工智能的融合将使我们更好地理解和准备未来所面临的挑战,在未来,
社会科学与人工智能建立融合是不可避免的,我们需要展开人工智能和社会科学跨学科的合作,
探究更为丰富的解决方案。
从人工智能概念的提出到专家系统、计算机视觉、自然语言等的广泛应用,
人工智能的发展集中在过去不到100年的时间里,而对于人的研究,也就是所谓社会科学,
却已经有上千年的历史。随着人工智能正在金融、医疗更行业发挥越来越大的作用,
甚至于在部分任务上拥有了超越了人类的能力,社会科学研究也已经不可忽视人工智能的存在。
谢幸认为,在未来,社会科学和人工智能的融合是不可避免的。
社会科学与人工智能的融合将使我们更好地理解和准备未来所面临的挑战。目前,心理学、伦理、法学、
社会学等学科都开始了初步合作。
这些社会科学在过去积累下来的长期经验和洞察将助力我们应对人工智能的挑战。
以人工智能和心理评测学的合作为例,心理测量学更够帮助我们更好地进行人工智能评估。现代的人工智能评估,
首先会定义任务和数据集,然后基于数据集设计评估方法,评估不同的人工智能的模型。
目前的人工智能评估依然存在诸多挑战。首先,对人工智能模型未来潜力的预测无法得知。
现有数据集只能评价已知任务和表现,而无法测评人工智能未来能做的事情。第二,透明性。
现有技术可以测评任务表现上的差别,但无法解释差别形成的原因。第三,可靠性。
只要稍微修改数据就会产生很大变化,数据的可靠性满意保证。
心理测量学是测量心理能力和过程的科学,通常被应用于评估和量化心理属性,如智力、性格特质和情绪状态,
通过可靠和有效的测量来增进我们对人类行为和认知的理解。
谢幸介绍,目前,微软亚洲研究院已经和来自剑桥大学,北京师范大学的心理测量学者共同开展评测,
共同应对以上三个挑战。新的评估框架大致分为三步。第一,识别并明确要测量的潜在构建;第二,
为测量的目标构造测试的方式方案;第三,评估这个方案的可靠性和有效性。
另一个案例是人工智能和伦理学合作,以定义人工智能价值观对齐的范式。
谢幸介绍,所谓人工智能价值观对齐,通俗来讲,就是保证人工智能所认为的价值观和人类的理解相同。
某些情况下,人类尚且无法明确我们要的清晰的价值观是什么。即便明确,目前的应用场景下,
是否还能保持这个价值观,如何遵循这个价值观,这都是我们的研究和挑战。
因此,研究者们希望基于一种基本的价值观定义对齐的目标,通过与伦理学的合作,
构建一个更好的对齐人工智能材料的模型,来评测价值观定义是否有效。
谢幸表示,该领域潜在的研究方向还包括,如果没办法准确的定义价值观,
是否能够通过人工智能自主学习形成观点?
人工智能与人类的价值观之间是否会形成各种冲突?如何把控人工智能在做复杂决定时的价值观排序?以及,
随着人工智能能力进一步增强,如何进行监督?
人工智能影响的深入带来了评价和对齐等挑战,
社会科学长期积累的经验和洞察恰恰可以应用于缓解和解决这些挑战。对于人工智能未来的发展,谢幸表示,
“我们鼓励不同领域的专家学者相互协作,共同探索人工智能在社会领域的应用和影响。
我们也希望培养更多这方面的学者和研究人员。
界面新闻记者 |王怡然
声明:以上文章均为用户自行添加,仅供打字交流使用,不代表本站观点,本站不承担任何法律责任,特此声明!如果有侵犯到您的权利,请及时联系我们删除。
文章热度:
文章难度:
文章质量:
说明:系统根据文章的热度、难度、质量自动认证,已认证的文章将参与打字排名!

本文打字排名TOP20

登录后可见