人工智能的“道德指南”:用“强化学习”算法实现自我学习
科学家正在努力开发具备道德意识的人工智能系统,他们的目标是为计算机和机器人提供“道德指南”,教会它们分辨是非善恶,并在生死攸关的问题上做出合理决策。
2021年10月,美国艾伦人工智能研究所成功开发了一款人工智能系统——pang。科学家为其提供了一本包含170万个人类道德问题和答案的“道德教科书”作为训练数据,供用户在网站上向IDelphi提问,查看其回答是否符合道德标准。
然而,尽管惠普学会了回答道德难题,但在种族、婚姻等问题上存在明显“偏见”,未能通过大众的考验。道德难题对人工智能和人类而言同样棘手,因为即使是熟悉的道德规范,在不同情况下也可能具有完全不同的性质。这使得为人工智能建立道德系统变得更加困难。
庞大的数据库是人工智能系统实现自我“学习”的基础,但也可能潜藏风险。2016年,微软公司推出的智能聊天机器人Tay因一群推特用户仅用24小时就将其教成了种族主义者,最终研究人员不得不强制干预,才阻止了Tay进一步沦落。
这个案例表明,人工智能所接收到的数据与其表现和行为直接相关。未来,自动驾驶汽车同样需要面对正确处理数据的问题。
这是否意味着拥有道德意识的人工智能系统不可能出现呢?科学家认为或许可以通过一种名为“强化学习”的算法来开发人工智能的道德系统。“强化学习”算法的代表是Deepmind公司开发的人工智能系统AlphaGo。
AlphaGo在几年前的围棋人机大战中先后战胜了多位世界围棋冠军。虽然AlphaGo的围棋技术并非完全由人类赋予,但科学家只是为其输入了围棋规则。它就在上百万次的对弈中摸索出了独特的“招式”,以至于它的某些下法令人类棋手闻所未闻。或许“强化学习”算法能从一个未知的角度为我们带来惊喜。《奇点科学》编辑部出品。
相关推荐
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。