首页 > AI资讯 > 最新资讯 > 时评 | 对AI的风险到了该“直接讨论”的时候了

时评 | 对AI的风险到了该“直接讨论”的时候了

新火种    2023-10-21

近日,图灵奖得主、被誉为“人工智能之父”的杰弗里·辛顿(Geoffrey Hinton)在接受美国《60分钟》节目访谈时表达了对人工智能所引发的潜在风险的担忧。联想到他今年5月份不惜从工作了10年的谷歌离职,以便更自由地谈论AI的风险,人们不禁要问,在如今由LLM(大语言模型)带来的新一轮人工智能增长正如火如荼的时候,讨论AI的风险有必要吗?

诚然,AI正以前所未有的速度改善着我们的生活,提供了从提高效率到解决复杂问题的种种工具,如个人智能助手、药物辅助设计、自动驾驶等等。然而,由于AI技术的严重数据依赖以及不透明等特性,容易导致其受数据质量的影响而带来诸如性别歧视、种族歧视等问题;同时AI也可能引发社会问题,如AI自动化技术导致的工人失业问题、AI的普及和应用不均可能导致的社会不公平问题;此外,AI还给社会治理带来了极大的挑战,AI在给我们生活带来便利的同时也给各种犯罪行为提供了便利。利用AI可以快速地创建非常“真实”的假图片、假视频,给社会信息的真实性和可信度构成风险。
这些问题的突显加剧了人们对AI技术未来所带来风险的担忧,对AI风险的讨论迫在眉睫。也许有人会说,任何事物都有两面性,人类已有数千年的管控经验,AI的风险值得我们如此大动干戈吗?是的,对AI风险的重视程度怎么样都不为过,因为AI技术面临失控的可能。AI的风险可能远远超出了我们的预料,超越了我们人类所能应对的能力,而这绝不是危言耸听。
正如ChatGPT所展现的那样,AI已经具有理解和推理能力,而随着GPT的继续发展,它将有可能取得比人类更强的学习和推理能力。设想有一天,AI通过生成大量的以假乱真的文字、图片、视频等信息,利用社交媒体来影响和控制我们的舆论,而对这些行为我们人类将毫无感知。更为可怕的是,目前AI已经可以自主编写计算机代码,未来,AI也可以通过修改自身的代码,来摆脱人类设置的限制,最终逃脱人类的控制。同时,它还可能通过编码制造出更多的AI,并通过控制大量附属的AI来对人类发起挑战。而这些是我们人类历史上还从未遇见过的,人类社会将进入一个由AI带来的充满不确定性的非常时期。
未来,人工智能有可能超越人类智能,人类社会有可能首次面临来自超越自己智能的AI的挑战。因此,趁当前的技术还在可控范围内,当务之急,我们应该敦促社会各方尽快讨论,以为AI加上“紧箍咒”。
今天人们越来越多地在讨论科技产业变革带来的不确定性对人类的共同挑战。我们回望早期工业化时代的“红旗法案”,并未成为这个工业巨头发展的实质障碍。进入人工智能时代,谁扮演着在汽车的前方挥舞红色旗帜示警的角色?伦理道德是否继续在科技的突飞猛进中不断退缩?这是人类面临的共同问题。
(作者:易坤 北京理工大学计算机学院博士)
来源:“科协之声”微信公众号
Tags:
相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。

热门文章