OpenAI“宫斗”背后,是一则对人工智能的道德拷问
近日,知名科技公司OpenAI陷入“宫斗”,董事会突然宣布将创始人兼首席执行官萨姆·阿尔特曼(Sam Altman)扫地出门。作为发明ChatGPT的人工智能明星公司,OpenAI管理层的变动迅速引发全球科技圈的关注。身为公司“一把手”,阿尔特曼对OpenAI从一家小机构成长为全球科技领域“独角兽”有着重要贡献,为何董事会要赶走这样一位“功勋人物”?
目前来看,通用人工智能发展应当是“安全优先”还是“商业化优先”是冲突爆发的核心原因之一。OpenAI 成立之初是一家非盈利机构,并设立了宏大愿景——确保人工智能不被垄断以造福人类。这样的理想主义目标,吸引了一大批顶级AI科学家拒绝其他科技巨头的“高官厚禄”,而选择加入OpenAI。
阿尔特曼则在 2019 年将这方“理想之地”改制成了营利公司,并推出ChatGPT引发了全球新一轮人工智能热潮。然而,OpenAI在获得巨大商业成功的同时,数据泄露、深度伪造、AI失控等一系列安全隐患愈发凸显,而阿尔特曼仍在全力加速下一代GPT研发以巩固商业优势。最终OpenAI内部的“安全保守派”掀起了风暴,推动董事会“流放”了阿尔特曼等“商业激进派”,试图让公司回归初心。
犹记得八个多月前,包括马斯克在内的上千名科技人士曾发表联名信,呼吁暂停超强AI研发,也引发了全球对AI安全问题的重视。如今,OpenAI上演的这出“权力的游戏”,再次将人工智能发展所面临的道德拷问展现在世人面前。眼下,由于涉及上千亿参数与复杂的算法结构,一些AI大模型所展示的内容“涌现”能力已经令缔造者不可预测,其衍生的造假、侵犯隐私等问题更是大幅提高了监管难度。
令人担忧的是,实现平衡AI发展、安全性和商业化之间的关系是一个复杂的问题,需要综合考虑技术成熟度、道德准则和法律法规等因素,必然耗费大量的时间。但在商业公司对于金钱的欲望、垄断的野心、落后的恐惧和安全的无共识下,全球人工智能行业已经陷入了“千模大战”,在数据、算力和算法上疯狂“内卷”。
正如OpenAI首席科学家伊尔亚·苏茨克维(Ilya Sutskever)所指出的,“世界需要清醒地认识到,各公司竞相研发使‘超级智能’从‘永远可能不会发生’变成了‘很快就会发生’。”在超越人类的人工智能出现之前,其风险应当被高估还是低估?不同的人有不同答案。但显然,高估风险,人类只会浪费一些资源,但如果低估,则可能再没有翻身机会。汽车畅行马路五十年后,安全带才被发明出来;DDT杀虫剂面世近百年后,人类才怀疑其有害环境……回顾科技发展史,对于一种前所未见的新科技,人类可能永远不会有“准备好”的一天,但只有行动起来才能解决问题,至少减轻伤害。
值得欣慰的是,全球对于强化人工智能监管已经达成了一些共识。一方面,从美国提出负责任地使用人工智能的“五项核心原则”,到日本的“以人为本的人工智能社会原则”,再到中国的“包容审慎的分类分级监管”……世界各国纷纷挥笔立法,以期为这一技术巨兽划定明确的边界。
另一方面,近期通过2023年APEC会议、第三届“一带一路”国际合作高峰论坛等国际对话,各方积极贡献智慧,支持在联合国框架下讨论人工智能治理,推动形成普遍参与的国际机制和具有广泛共识的治理框架。这对于保障AI为人类的未来发展提供助力而不是成为威胁,都是有益的航标。今天的人类,已经跨越机械化、电气化、自动化的山峦,行进于智能化的快车道。我们有理由相信,让理性与智慧之光照耀人工智能的星辰大海,人类能够引导这场科技革命走向更加明亮、公正和有益的未来。
来源:北京日报客户端 评论员 鲍南
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。