谷歌CEO内部信:AI大模型翻车“不可接受”将全面纠正错误
财联社2月28日讯(编辑 刘蕊)
在谷歌人工智能产品Gemini的人物图片生成功能功能上周“翻车”之后,美东时间周二,谷歌CEO桑达尔·皮查伊(Sundar Pichai)给员工发了一封内部邮件,首次就Gemini的问题进行了回应,称这是“完全不可接受的”。
皮查伊在内部信中写道,谷歌的AI团队正在昼夜不停地纠正问题,并且已经取得进展。他强调,公司将对Gemini进行结构性改革,以防止类似事件的发生。
Gemini离谱错误“不可接受”
Gemini(原名Bard)是谷歌规模最大、功能最强大的多模态人工智能模型。上周,这款产品因为其生成的人物图片过于“政治正确”而遭到不少非议:一些用户近期发现,Gemini生成的大多数人物图像基本都是有色人种,甚至在被要求生成美国国父、教皇、二战德国士兵等人物时,都会生成非裔和亚裔的形象。
Gemini生成的美国国父图片
Gemini生成的二战德国士兵图片
这引发了外界的不少批评和担忧,也促使Alphabet在上周四暂停了Gemini的人物图像的生成功能。
在本周一,谷歌AI研究部门DeepMind的负责人Demis Hassabis在出席世界移动通信大会(MWC)时透露,谷歌计划在“未来几周内”恢复人物图像生成功能。
而在本周二,谷歌CEO皮查伊在内部信中,给出了更详细的说明。他写道:
“我们将推动一系列明确的行动,包括结构变革、更新产品指南、改进发布流程、建立强有力的评估体系和红队测试(Red-Teaming,一种安全评估方法),以及技术建议。”
他敦促把团队把工作重点放在打造“值得用户信任的有用产品”上。
以下是皮查伊写给谷歌员工的完整信件:
我准备解决最近在Gemini应用程序(以前的Bard)中的文本和图像响应的问题。我知道它的一些回答冒犯了我们的用户,并表现出一些偏见——澄清一下,这是完全不可接受的,我们错了。
我们的团队一直在夜以继日地工作以解决这些问题。我们已经看到了大量的实质性改进。没有哪个人工智能是完美的,尤其是在这个行业发展的新兴阶段,但我们知道我们的门槛很高,无论需要多长时间,我们都会坚持下去。我们会审视各种情况,并确保我们能大规模地修复它。
我们的使命是将世界上的信息组织起来,使其普遍可用而且有用处,这一使命是神圣的。我们一直寻求在我们的产品中为用户提供有用、准确和公正的信息。这就是人们信任这些产品的原因。这也必须成为我们所有产品所遵循的路径,包括我们新兴的人工智能产品。
我们将推动一系列明确的行动,包括结构变革、更新产品指南、改进发布流程、建立强有力的评估体系和红队测试(Red-Teaming,一种安全评估方法),以及技术建议。我们正在考虑所有这些问题,并将做出必要的改变。
即使我们从这次的错误中吸取教训,我们也应该在过去几周我们在AI方面所做的产品和技术声明的基础上继续发展。这包括我们在基础模型上的一些基础性进步,例如我们支持100万token的长上下文窗口的突破和我们的开放模型,这两者都得到了很好的认可。
我们知道如何创造出被数十亿人和企业使用和喜爱的伟大产品,凭借我们的基础设施和研究专长,我们为人工智能浪潮提供了一个令人难以置信的跳板。让我们把重点放在最重要的事情上:打造值得用户信速的有用产品。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。