信息来源:https://techxplore.com/news/2025-09-ai-predefined-norms-combination-logic.html
在人工智能(AI)技术的迅猛发展中 ,如何让这些系统不仅提供有用的结果,还能遵循法律、道德和社会规范,已成为迫在眉睫的挑战。维也纳理工大学的研究团队开发了一种创新方法 ,结合机器学习与逻辑,为自主代理的行为注入预定义的规范,以确保人工智能的应用能够符合社会期望与标准 。
创新的学习方法
该研究团队的方法源于对传统强化学习技术的改进。强化学习是一种通过奖励和惩罚来训练智能体的学习方式。在这种模式下 ,当人工智能执行正确任务时会获得奖励,而错误的反应则会受到惩罚 。然而,当面对条件复杂的规范时,这种方法可能不再有效。正如维也纳理工大学逻辑与计算研究所的Agata Ciabattoni教授所指出的 ,代理在学习过程中可能会采取策略,故意推迟实际任务的完成,以通过优先获取奖励来达到目标。
图片来源:维也纳理工大学
为了解决这个问题 ,研究团队选择了一条全新的路径 。他们将规范转化为逻辑公式,并规定在不遵守这些规范时,代理将受到惩罚。例如 ,"不得超过限速"可以被表示为"如果超过限速,您将受到X的惩罚"。这种新方法使得每项规范被视为一个独立的目标,从而更好地整合到智能体的决策过程之中。
设定与优化目标
维也纳理工大学的研究人员提出的框架使得代理能够在追求主要目标的同时 ,遵循多个规范 。这一新视角能够解决复杂规则的挑战,包括某些规范仅在特定条件下适用的情况,或是某些规范的遵守又依赖于其他规范的违反。
第一作者Emery Neufeld阐述了该方法的运作原理:“我们赋予智能体一个主要目标 ,比如找到到达目的地的最佳路线,同时定义在此过程中必须遵循的规则。实际上,每个规范都被视为目标,这样我们就可以通过算法来计算每个目标的相对权重 ,从而获得整体的良好结果 。”
这种结构化的规则表示方式,除了清晰,还使得系统对复杂环境的适应性大大增强。
灵活应变 ,持续学习
这一研究突出的另一个优点是,当规范变化时,智能体的学习不必从头开始。Ciabattoni教授强调:“我们开发了一个能够学习并遵守规范的系统 ,但在规范发生变化时,仍然可以灵活调整这些规范或者其相对重要性 。 ”这种灵活性在快速变化的实际应用场景中显得尤为重要,帮助AI更有效地执行任务和适应新情况。
在他们的研究论文中 ,Ciabattoni和团队展示了这种技术的有效性,证明了它允许广泛的规范强加,同时智能体依然能够追求其主要目标。他们的成果在加拿大蒙特利尔举行的国际人工智能会议IJCAI 2025上获得杰出论文奖 ,体现了该领域研究的前瞻性和实用性 。
展望未来
这一新方法的成功应用为开发符合社会 、法律和伦理标准的AI系统提供了重要途径。在日常生活、工业生产、金融服务等多个领域,AI技术的规范性训练将有助于提升应用的安全性和可靠性。
随着社会对智能系统的期望不断提高,对AI遵循法律和伦理标准的研究与实践也将持续深入 。维也纳理工大学的这项研究不仅在学术领域具有重要的里程碑意义,也为今后的AI技术发展指明了方向 ,为创建更加可信和可靠的人工智能生态奠定了基础。
本文来自作者[孤风]投稿,不代表视听号立场,如若转载,请注明出处:https://www.stddy.com/keji/202509-37886.html
评论列表(4条)
我是视听号的签约作者“孤风”!
希望本篇文章《维也纳理工研发新方法:用逻辑与机器学习结合教导AI遵循社会规范》能对你有所帮助!
本站[视听号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:信息来源:https://techxplore.com/news/2025-09-ai-predefined-norms-combination-logic.html在人工智能...