首页 > AI资讯 > 行业应用 > 亚马逊AI工具Q被“锤爆”:不够精准、侵犯隐私、存在幻觉、泄露数据

亚马逊AI工具Q被“锤爆”:不够精准、侵犯隐私、存在幻觉、泄露数据

新火种    2023-12-06

来源:极客网

极客网·人工智能12月6日不久前亚马逊推出AI工具“亚马逊Q”,它的竞争对手是微软Copilot。业界本来以为亚马逊来势汹汹,Q应该很不错,但最新报告显示,这款AI工具并不成熟,可能还没有准备好。

Q到底有什么问题呢?The Platformer在报道中说,Q不够精准,侵犯隐私,存在“幻觉”(相当于出错),泄露数据。研究报告显示,亚马逊的大语言模型连接企业数据库时极其不精准,也不够透明。

亚马逊新闻发言人回应称,Q并没有泄露过任何机密文件。该新闻发言人称:“一些亚马逊员工会通过内部渠道和系统分享信息,这在亚马逊是标准操作。没有证据显示有什么安全问题是反馈的问题造成的。我们已经收集到所有的反馈意见,会继续调校Q,它正在从预览版产品变成公用产品。”

按照亚马逊自己的说法,Q已经是无数人的工作伙伴,但报告却认为Q还没有为企业使用做好准备。

EIIRTrend & Pareekh咨询公司CEO Pareekh Jain说:“如果出现‘幻觉’,在企业决策时就无法使用Q。如果只是个人使用或者获取信息,用Q没有什么问题,但在决策时不能用。”

亚马逊Q需要更多测试

在亚马逊生成式AI正式商用之前,可能还需要进行更多的测试。

Pareekh Jain说:“我觉得亚马逊应该先用内部员工多做些测试。很明显,亚马逊正在做。没有外部信息源提及当中的问题。有两样东西很重要,一是数据,二是算法。亚马逊应该看看到底是数据问题还是算法问题。”

亚马逊AWS已经积累了17年的数据。Q的定位很高,它的目标是成为企业“万能工具”。从产业发展趋势看,Q很重要,可能会影响亚马逊的前途。

IDC高管Sharath Srinivasamurthy认为,对于消费者和企业用户来说,“幻觉”并不会削弱AI的潜力,但进行更好的训练仍然是至关重要的。

Sharath Srinivasamurthy说:“用更高质量的数据、更好的提示(用更精准的提示引导用户,这些提示是模型容易理解的)训练模型,用组织或者行业专用数据持续优化模型,出现可疑精况时增加人工检查,亚马逊可以从这些措施下手,让新技术得到更好的应用。”

AI“幻觉”应该监管吗?

AI出现“幻觉”,是不是应该加强监管?Greyhound Research公司CEO Sanchit Vir Gogia认为,监管可能适得其反。

Sanchit Vir Gogia说:“任何监管都有可能妨碍数据的交换和使用。就眼下来说,监管越少,行业会发展越好。监管少了,数据使用会更容易,更流畅。看看OpenAI的GPT,如果限定它应该抓取什么数据,不应该抓取什么数据,它可能不会腾飞。”

Sanchit Vir Gogia还认为,设定外部边界可能不太可行,让企业自己来设定边界可能更好。他解释说:“监管可能会有,但主要还是要让企业自我监管。虽然监管和指导是必要的,但如何审计却是麻烦所在。重点应该是打造负责任的AI,也就是说创造者可以向客户解释内在逻辑,它不能是一套黑盒系统。”

“新人”亚马逊的AI之路还很长

分析师们认为亚马逊应该加强内部测试,加强自我监管,从而打造更好的AI,这些看法当然没错,但将AI部署到企业是很复杂的,这点更加值得关注。亚马逊需要解决这些挑战,在AI领域它是新人,前方的路还很漫长。

Jain说:“在这一领域AWS实际上慢了一拍,领导者是微软和谷歌。用户有很高的预期,在聊天机器人及其它相关技术方面更是如此。”

亚马逊AI出现“幻觉”并不稀奇,ChatGPT同样存在许多问题,比如分不清真与假,有时会发表伤害人的言论,传播虚假信息。可是亚马逊刚刚入门,工作做得不好,这对它的AI业务会造成很大打击。

面对质疑,亚马逊新闻发言人尽力淡化问题。上周亚马逊AWS主管Adam Selipsky接受采访,当时记者曾说,苹果、Verizon、Northrop Grumman年初时发布政策,禁止员工使用ChatGPT,主要是因为存在隐私、泄密担心,记者问他对此有何看法,Adam Selipsky回答道:“比起消费聊天机器人,亚马逊Q更安全、更重视隐私。”

但现在的报告证实,Adam Selipsky的说法经不起考验。(小刀)

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。