后悔开发AI?刚从谷歌离职的“人工智能教父”:真的好危险
财联社5月2日讯(编辑 马兰)被称为“人工智能教父”的多伦多大学教授Geoffrey Hinton,在宣布离开谷歌之后表示,对自己在开发人工智能这项技术中的角色感到遗憾。
在漫长的谷歌生涯之后,Hinton透露,他虽然常用“他不做,别人也会这么做”的借口安慰自己,但仍对于人工智能带来的负面影响感到不安,他怀疑这项技术将给人类带来危害。
他指出,生成式人工智能语言模型可能会导致虚假信息、照片和视频等在互联网上大量传播,而公众极易被其迷惑,很难分辨真假。
此外,Hinton还在媒体采访中表达了对科技巨头之间AI竞赛的担忧,并质疑巨头们是否走得太远,并无法在危险出现时及时踩下刹车。
辉煌成就下的不安2012年,Hinton和他的两个学生创建了一个神经网络模型,可以分析数千张照片并识别常见物体。其中一个学生Ilya Sutskever在2018年成为OpenAI的首席科学家,并领导了ChatGPT的开发。
而Hinton和其创办的公司后来则被谷歌收购,他本人也在谷歌研究了十多年的人工智能模型。
周一,Hinton在推特上发文称,因为离开了谷歌,他可以发表关于人工智能危险性的言论,而不用担心影响到谷歌。他强调,谷歌在人工智能上的行为非常负责。
而Hinton的担忧似乎也引发了谷歌一些现职员工的共鸣。据测试谷歌人工智能Bard的一些员工称,AI很危险,而谷歌也似乎并没有把人工智能的道德放在首位,反而急于求成,希望赶上OpenAI的ChatGPT技术。
但谷歌首席科学家Jeff Dean澄清称,谷歌致力于负责任地开发人工智能,不断学习、了解这项技术可能出现的风险,同时也在大胆创新。
除了人工智能的道德方面,Hinton还谈到人工智能最终对人类劳动力市场的冲击,其可能造成律师助理、翻译和行政性工作方面的大量裁员。这也是包括OpenAI首席执行官Sam Altman在内的行业专家们的忧虑所在。
Hinton指出,大多数人认为人工智能比人还聪明的未来还很遥远,他之前也认为这个可能性还需要30-50年时间去实践。但现在,他的想法改变了。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。