外滩大会|圆桌实录:大模型时代下的“奥本海默纠结”
·“从价值观的角度来判断,没有一个完全统一的标准,但从结果好坏的角度来看,用海量正确的数据做的判断,一定比我们每个人根据自己简单的经验做出来的判断,要更科学和更合理。”
9月7日,由复旦大学、上海报业集团主办,复旦大学哲学学院、复旦大学计算机科学技术学院、澎湃新闻共同承办的外滩大会见解论坛“大语言模型消除人机鸿沟:人类主体性是强化还是弱化”在上海黄浦世博园C1场馆成功举办。文史哲领域的教授和人工智能领域企业家跨界对话,探讨人工智能取代人、人工智能对教育的影响、人工智能带来的科技伦理和“奥本海默纠结”等话题。
以下为澎湃科技整理的对话实录,略有删减。
文史哲领域的教授和人工智能领域企业家跨界对话。
“AI较难替代的工作有两个特点”
魏武挥(上海交通大学媒体与传播学院讲师、天奇创投基金管理合伙人):第一个问题想抛给在座每一位嘉宾,人工智能替代人类工作的原则是什么?
许纪霖(华东师范大学历史系教授):简单来说,人工智能不能替代不循规蹈矩的人。人工智能最能替代学霸,因为学霸没有原创力,只是机械地回答正确的答案,ChatGPT就是一个超级大学霸。人工智能可以替代所有循规蹈矩的人,也就是困在系统中的每一位。
人工智能也不能替代经常胡思乱想、有想象力和原创性的人,这些人像奥本海默一样能对人类作出巨大贡献和创新。
王国豫(复旦大学哲学学院教授、中国科协-复旦大学科技伦理与人类未来研究院院长):这可能取决于我们如何定义人工智能,以及人工智能在什么发展阶段。刚刚有一位老师在演讲中讲到,碳基生命会被硅基生命取代,所有工作都会被取代。但目前至少没有人被完全取代。
复旦大学哲学学院教授、中国科协-复旦大学科技伦理与人类未来研究院院长王国豫。
这是一个非常抽象的问题,意义在于时刻提醒我们,让人类更有危机感——我们有可能被取代。实际上每个人的生命都可以被取代。作为个体,每个人都可以被取代;作为一个类属,人类终将走向死亡。不一定说被人工智能取代,但我觉得人是有限的,人类在宇宙中可能只是一个时刻。这不是悲观,而是提醒我们要珍惜生命存在的意义。
严锋(复旦大学中文系教授):我认同王老师说的,有一天我们终将被取代。取代并不是一个可怕的词,这样的事情在生物演化史上已经发生了很多次,而且我也不认为取代就是死亡,它也可能是一种再生。
我有一个强烈的感觉,今天教师的角色在很大程度上会被取代,并且正在发生。作为教师、一个知识传播者,正在被ChatGPT取代。但教师还有其他功能和形象,这也是我们在研究思考的:我们可以把哪些方面进一步传到下一代教师或一种新的师生关系中。
陈运文(达观数据董事长):达观数据专门做大模型落地的应用系统开发,跟技术落地更紧密。我们在实践过程中看到,当前新一代人工智能技术能替代或减轻的人的工作有两个特征:一是相对标准化的工作,比如财务工作很标准化。二是这些岗位通常是纯脑力劳动,不需要体力劳动,并且是纯标准化的工作。新一代人工智能出来后,这些工作是大幅度自动化的,目前这个趋势非常明显。
反过来讲哪些工作比较难替代,有两个特点:一是脑力和体力相结合的工作。二是存在大量个性化的工作。我看到一个报道说现在最难被替代的一个岗位是园林绿化工,这是脑力和体力相结合的工作,比如剪草坪、剪树球,每一棵草、每一棵树都长得不一样,而且过程是体力和脑力相结合,当下比较难用AI实现。
刘华[上海稀宇科技有限公司(MiniMax)公共事务副总裁]:“替代”这个词过于沉重了,在业界,我们更愿意认为大模型技术让一些行业和工作的生产力大大提高。现在一些白领的工作是简单重复的,没有多少创新性,比如行政文员甚至是比较低阶的投资银行家、咨询师,这些传统上我们认为的高阶白领,他们从事的都是简单重复甚至是死记硬背的工作,这种岗位的数量会减少。
当然未来随着人工智能技术与机器人技术的结合,在运用体力劳动的第一线,如果从事的是简单重复、没有多少创新性的工作,这类岗位的数量也会急剧减少。这就涉及到许多其他问题了,总体来说这是社会的进步,更多人能从过去简单的机械工作里解放出来去做更有原创性的工作。
“教育要做的是ChatGPT+”
魏武挥:我想抛出关于大学的问题,在座的大学老师里有没有碰到过学生用ChatGPT做作业的?你们怎么看待ChatGPT或大语言模型在高校中使用?
许纪霖:我今年已经在多个高校做过这个话题的演讲了,也测试了现在有多少学生用ChatGPT学习,比例在60%左右,无论是华东师大、上海财大,等等。这个比例会增加,到明年可能接近90%。这个潮流是挡不住的,不管学校有没有进步,这对教育是颠覆性的。ChatGPT重新衡量了好老师、好学生的标准,这个尺度由ChatGPT来定义,也就是说以后一个好老师一定是在ChatGPT的海平面之上的,一个好学生的答卷是超越ChatGPT的,这是颠覆性的,对中国教育是一个挑战。
华东师范大学历史系教授许纪霖。
中国过去的教育最强的就是基础教育,但今天这些学霸式的学习对基础知识的掌握完全可以用ChatGPT实现。以后无论是个人之间的竞争,还是国家间的竞争,比的不再是学霸的水平,而是0-1这种从无到有的原创性。原创性一定和想象力、直觉有关,但人工智能到目前为止还没有肉身和情感意识,ChatGPT目前还没有这种能力,也许以后我们的教育要做的是ChatGPT+,也就是ChatGPT目前还没有完成的事,比如情感教育、批判思考、想象力,这些让我们有信心站在讲台上。
王国豫:我没有玩那么多ChatGPT。ChatGPT是去年11月30日左右开始的,我们在ChatGPT还没有开始时就研究了大模型。ChatGPT出来后我们也用它做了一些道德能力测试。我也没有注意到我学生的作业是用ChatGPT来做的。但如果说从互联网上去寻找资源,这很早就有了。我本人对于它进入教学环节持乐观开放态度,如果我们有一定的规则来梳理,它对教与学都会有促进。我最近在投一篇英文稿,我英文不怎么好,写了以后不行,ChatGPT弄完以后明显比我写得好,但有一些词写得不对,我再修改,ChatGPT起了助力作用。如果它可以作为文献综述的一个来源,帮我们寻找而不是简单复制,这样的工作它能替代,我们为什么不让它替代呢?
反过来,就像刚刚中国社会科学院哲学所科技哲学研究室主任、中国科协-复旦大学科技伦理与人类未来研究院教授段伟文讲的,它可以把很多知识的水分给挤掉。刚才许老师讲了对教育也是一个促进,我们在大学里不仅仅是传授知识、批判性能力和反思能力,我们还教做人,涉及到知、情、意。我自己觉得没有危机感,但有很大挑战。
严锋:我越来越觉得跟魏武挥老师有共鸣,我不但不禁止学生用ChatGPT,还鼓励他们用ChatGPT,但我发现我的学生用得反而少。
我教创意写作课,ChatGPT在创意写作中有很好的应用,比如点子、头脑风暴、世界构建、人物大纲,对创作来讲非常好,而且也是传统作家的必修课,他们以前也用各种各样的工具,但都没有ChatGPT更好更方便。学生用了没关系,最后写出来的东西怎么样还是要经过我的评判。
复旦大学中文系教授严锋。
老师是知识的评估者、价值的评估者、道德伦理的评估者,评估不完全是教师独占的。比如在写作课上,评估一个作品不是我一个人说了算的,是所有学生一起参加讨论写得好不好,这不光是知识,也包括了知、情、意这些人类非常复杂的情感,这恰恰是ChatGPT鞭长莫及的。ChatGPT确实给我们起到很好的推力,挤掉以往很多知识的水分,既给我们提供工具,同时还让我们更能审视传统教育学的薄弱,包括复制和粘贴的问题。教师、学生、ChatGPT之间建立了一种新型三角关系。
“把狗屁工作扔给ChatGPT”
魏武挥:今天有相当多的人在吐槽上班很没意思,对职场充满了厌倦,感觉自己没有做什么有意义的事。我们把事情交给ChatGPT、交给AI去做,能否从中解脱,去追求艺术、文学、音乐等有意义的事?
许纪霖:人工智能能否创造一种有意义的生活,我的答案是至少目前不可能。去年有本书叫《狗屁工作》,后来翻译成《毫无意义的工作》,这本书非常畅销,因为很多人都觉得自己在从事没有意义的工作,困在系统中。ChatGPT横空出世后,我们把毫无意义的工作扔给它去做了,我们开始有可能应用我们的想象力、创造力。
ChatGPT到目前为止没有创意,它写的文章都是模仿的,不可能写出鲁迅的金句,我家后院有两棵树,一棵是枣树,另外一棵也是枣树,那种绝句它是想不到的。在创造性、原创性这部分,今天我们可以寻求,我们依然有发挥的空间,到目前为止是替代不了我们的,而创造力和原创力都构成了我们生活的意义。
但我还是要说,不要乐观,今天仅仅是因为ChatGPT的情感功能和意志功能被关闭了,一旦打开,开发出具身智能这种功能后,它作为硅基生物也可能有想象力,这种想象力超越我们碳基生物,就像“阿尔法狗”下围棋的境界。未来我们依然面临新物种的挑战,它的智慧对我们的挑战是祸是福是另外一个问题,也许有点遥远。
但不管怎么说,把毫无意义的工作扔给ChatGPT,让我们去寻求生活和工作的意义吧。
王国豫:如果一部分工作让ChatGPT取代了,我没有工作了,必须寻找新的工作,要么找得到,要么找不到。找不到我可以游山玩水,发现自然的美、艺术的美,但这取决于谁资助我。如果ChatGPT替代了我的工作,我既有时间自由,又有资金自由,我可以去做很多其他工作,可能会有不一样的新生活,但是不是有意义,这是另外一回事。
即便天天做同样的工作我也不认为生活就没有意义,有的意义是工作自身。比如财务会计天天重复性工作,他觉得既养家糊口,也对社会做了贡献,觉得工作有意义。很多人讨厌997、996的生活,因为这不是他希望的,他生命的意义不在工作中,而是在工作之外,工作仅仅是为了养家糊口、维持他作为生命体的生存,这样一来工作可能就没有意义。
魏武挥:子非鱼安知鱼之乐。
王国豫:没错。
严锋:意义跟自我认知、追求有关,每个人都不一样。很多人觉得没意义,因为他觉得做的不是他想做的事,每个人想做的事都不一样,如果能真正做自己想做的事,就是最大的意义。从这个角度讲,ChatGPT能把我们从非做不可的事情中解放出来。标准化、机械、大量重复的劳动是流水线式的,往往被认为没有意义,这种事情在大学里也大量存在,就是所谓的学术民工,不停搬运、摘抄甚至是剽窃。ChatGPT对我们的推动是能够让我们从流水线式的知识生产中解放出来,更加
我想到了我的老师,我博士是做中国现代文学的,这是最苦最机械的,要不停找资料。但我们当时和老师在一起吃饭、聊天,在他家玩,他聊他的过去,跟茅盾、郭沫若怎么交往。这就是知识,活的知识,更有生命的知识。他会给学生介绍他的朋友,这些人本来就是现代文学中重要的作家或见证者。在某种意义上,因为有了ChatGPT,我们有没有可能形成一种新的师生关系?ChatGPT能做资料性的工作,这时候我们是不是能回到更传统的师生关系,就像苏格拉底和柏拉图、孔子和颜回、我的老师和他的学生。
陈运文:绝大部分工作只是谋生而已,追求真正的意义应该在下班以后,下班以后做的事情才是自己真正感兴趣的。人工智能时代对绝大部分人最大的价值是可以让我们加班少一些,上班时间可以缩短,而且这是很快能够实现的。我相信到我们的子女辈工作时,一个礼拜上5天班实在是太残酷的事情,在他们的时代可能一个礼拜上三天班、休息四天,一周四天可以追寻生命的意义、生活的意义、工作的意义。
达观数据董事长陈运文。
我们现在要做的事是努力把人工智能搞得更好,让更多行业能够把技术用起来,让加班变得更少,这才是真正能够让我们的工作更有价值,也让我们的生活体验更好。眼下坦率地说,人工智能还在很早期的阶段,我们现在才刚刚打开一个突破口而已。现在大家要赶紧把这些技术用起来才行,我们推出自己的大语言模型,鼓励所有员工用,比如我们员工写代码和宣传文案、设计图片,大量在用大模型,我们鼓励每个员工用,用起来才能提升生活的价值、生活的质量、工作的幸福感。
刘华:从一个人的角度讲,很难评判技术是否让人过得更有意义,但对人类一个种群来讲,新技术应该会让种群的生活过得更加有意义。在最原始的阶段,人类每天都忙着打猎、采果子,打不到猎物、采不到果子就活不下去。随着技术推进,满足衣食住行的时间在人类劳动时间中的占比越来越小。这次通用人工智能技术的演进必然会使我们用于人类基本衣食住行的时间进一步缩短,会让人类有更多时间去做有意思的事,会有更多时间从事文学创作、艺术创作。总体上,新的技术会让社会的原创性工作时间总量有极大提升。
“上天不用负责,算法得负责”
魏武挥:自动驾驶领域有一个非常有名的问题,乘客坐在一辆没有人开的自动驾驶车上,当车发现一个非常紧要的时刻,它只有两个选择,第一个选择是翻车,可能会造成乘客受伤,第二个选择是直接撞上去,把前面的人撞死,这样乘客不会有事。车会选择什么?普通人如何看待这样的算法?非常像电车难题。人工智能体会秉持什么样的价值观,我们有很多忧虑,我们该如何预防和防范这类问题?
上海交通大学媒体与传播学院讲师、天奇创投基金管理合伙人魏武挥。
王国豫:这是我和我的博士生在做的课题。对于汽车设计的伦理问题,作为设计者,究竟是牺牲自己还是牺牲路人,很纠结。比如我是一个人还是我孩子在我身边,对面的路人是跟我没有关系的人还是有关系的人,这些情况都不一样,很难就一个抽象的问题做出回答。我们在做一些实验,希望把问题进一步深化,我作为第三者的模型评价者,所有人跟我没有一点关系,我怎么设计?当我把自己代入,我要考虑我直觉会怎样?这是我们在算法研究上需要进一步细化的问题。
如果这样的车推出来了,我们如何规范它?现在有一系列办法,首先自动驾驶本身有级别分类,现在整个法律体系还没有完全变成我们被自动驾驶取代的体系,我们还涉及到前瞻性责任和回溯性责任,规则的问题是回溯性责任,也就是出了问题怎么办。还有一个责任叫前瞻性责任,比如游泳池旁边有人看着小孩会不会落水,他有提醒和救人的责任,我们设置了这样一个看的人,这就是一种前瞻性责任。教育、宣传等都可以起到前瞻性责任的作用。规则不是简单的黑和白,有个人的责任、机构的责任、代理的责任,还有共同责任、连带责任,现在肯定没有很明确的答案,但在这样的过程中会不断完善责任体系,就像我们的法律现在也在不断完善。
严锋:我完全不知道标准答案,我也不太相信有一个标准答案。但我们可以看到电车难题在ChatGPT时代升级了,展开了更加无穷无尽的讨论,而且涉及到非常具体的法律。
不要以为ChatGPT的出现就会把事情搞砸,我不相信它一下子能解决,我也不会相信它把问题搞得更坏,因为原来问题就没有好的解答,甚至可以说原来是交给上天,现在交给某种算法、某个理性,上天不用负责,算法得负责,现在有责任人了,这是不一样的。谁在搞算法?算法是不是透明?大家有没有知情权?算法偏向于什么?比如算法规定车不要压院士、领导,或者年轻的不要压、年老的不要压,这又涉及到隐私和数据采集的问题,以后看到这样一个庞大的数据海洋,听上去很可怕,但肯定不比之前更可怕。我觉得有一点,就是要有多样性、透明性、公开性,让大家有知情权,我们要学习、要了解ChatGPT,当然有很多是黑箱,我们要尽可能在黑箱之外多了解到底发生了什么。
陈运文:我作为科技从业者,从技术角度来说,今天所有的算法结果,背后都是数据带来的,与其说是算法带来的,不如说是算法背后的数据带来的。我们对于涉及到的价值观判断、取舍等,很多时候很偏主观。我们每个人经常在做出主观的判断,我们开车的时候都是自己在不知不觉地做这种判断,要不要冲过去,还是踩刹车。只不过今天我们把决策权交给了大数据去做,我们概率里有一个大数法则,当数据量足够大足够充分时,它做出来的决策一定比绝大部分人根据自己的小样本学习做出来的决策相对更科学更优秀。所以从价值观的角度来判断,没有一个完全统一的标准,但从结果好坏的角度来看,用海量正确的数据做的判断,一定比我们每个人根据自己简单的经验做出来的判断,要更科学和更合理。
刘华:大模型首先要有它的伦理,但伦理不是大模型自己的,是大模型的公司赋予它的。我们现在对自己的模型会提一些原则性的要求,按照国家设定的人工智能管理办法,大模型的运作有一些基本伦理,比如要遵守社会主义核心价值观,要热爱和平、反对战争,不要民族歧视、种族歧视,要珍爱生命、不伤害他人,这些都是基本原则。
上海稀宇科技有限公司(MiniMax)公共事务副总裁刘华。
至于碰到其他特别棘手的环境,自动驾驶系统会有很多累积的数据,单个人很难做出正确判断到底是伤害谁,如果有大量累积的数据,也许会非常精准地控制车辆,不伤害任何一方,这是在大量驾驶数据基础上对车子进行精准的控制。
至于种族歧视的问题,这应该是数据标注的问题,这在大模型发展中肯定会被慢慢去除,会对各种原始数据进行更加精准的标识,现在市面上打开门提供服务的任何大模型都不敢做这种歧视,否则会有很大的麻烦。
“永远不要让AI有自主意识”
魏武挥:最后有一个开脑洞的问题,跟当下一部非常热的电影《奥本海默》有关。很多人把原子弹的开发与人工智能相比,如何看待当下现实对“奥本海默纠结”的映射?我们现在是不是在打开潘多拉的盒子,给人类挖了一个巨大的坑?有些人对人工智能有奥本海默式的纠结,这个看法本身对不对?如果看法是对的,我们如何看待这种“奥本海默纠结”?
王国豫:关于《奥本海默》,电影公映那天,我正好在澎湃科技上发过一篇《我的科学观》,就是讲奥本海默纠结的问题。奥本海默事件给我们的启迪是什么?我认为现代科学已经不是过去古希腊那样仅仅作为无功利的体系,现代科学用海德格尔的话讲,所谓企业的行为实际上就是有组织、有计划、有目的的,而且是有经济推动的。
国外现在有个概念叫技科学(technoscience),实际上是把“科技”这个词连在一起了,技科学的力量非常巨大,它不仅仅是一个工具,实际上有很多不确定性,而这种不确定性一旦发生以后可能是负面的,也可能是好的,人类很难控制。奥本海默的纠结比较天真,他把技术仅仅看作一个技术,或者他也知道,至少没说出来,他当时希望尽早结束第二次世界大战,向希拉德、爱因斯坦写信时希望造出原子弹,加速赶在纳粹之前结束第二次世界大战。
这对我们今天的启示是,第一,现代科学本身是确定的。第二,在这种背景下,我国2022年发布了《关于加强科技伦理治理的意见》,提到伦理先行,国际上也有预防原则等概念,其实都是希望我们对可能发生的恶果或负面的后果要有提前准备。对所有人来讲,最大的警示是我们不仅仅仰望星空,还要心怀道德、心怀敬畏感。
严锋:这确实是一个有意义的比较,技术一定是有风险的,现在没什么技术没有风险,生物工程、元宇宙、AI、核弹都有共同的风险,但生命就是风险、生存就是风险,没有风险就没有生命。我们得跟风险共存,不可能消除风险,最安全的就是躺在床上什么也不做。我们要控制风险,但我们也得知道,至少不可能完全控制风险,就像核的应用不断扩散,扩散后大家又觉得不对头,再去找一个新办法控制,甚至核扩散在某种意义上讲也是一种控制、平衡、制约,就像达摩克利斯之剑那样,在这个过程中人也要始终保持警觉。我虽然是中文系的,但我是一个技术主义者,我对任何技术都热情拥抱,去了解、介入。而且越是有道德感、有责任感、希望人类的未来能够变得更好的人,越要去拥抱技术,你不去拥抱,坏人一定会去拥抱,所以要去对冲、介入。
陈运文:新技术发展时,从人类个体来说,一定是有好有坏的,但对于人类整体来说一定是越来越好的。我觉得在有生之年能看到人工智能在2023年有一个非常好的突破,在未来几年看到很多非常优秀的成果源源不断地出来,我感到非常高兴,因为它带来很多新鲜的活力,带来很多我们能够畅想的更加美好的未来生活。
刘华:新技术的发明者在发明之初没有想到对人类可能会有巨大的危害,这对我们人工智能行业从业者来讲,要从中汲取经验教训。尽管我们行业还是“萌芽期”,技术确实发展得非常快,我们一方面在不断迭代模型,提高人类社会生产力,另一方面我们要始终心生畏惧,始终要明白人工智能只是一个工具、手段,人类自己才是最终目的。我们公司从一开始的定位就是AI只是人类的助手,永远要明确这一点,永远不要让AI有自主意识,如果现在AI有自主意识,万一到了具身智能时代就非常危险。在任何时候对科技都要有敬畏感,要有伦理观,在大模型运行过程中要把事情跟大模型讲清楚,甚至我们要用符合这套伦理的大模型来监督大模型。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。