清华大学复杂工程系统实验室主任任勇:数据、资源、技术优势方在AI时代中更具竞争力|智能金融助力数实融合暨产教融合研讨会
华夏时报记者冯樱子北京报道
9月23日,由华夏时报、中央财经大学数字经济发展中心联合主办,中国人工智能学会智能产品与产业工作委员会作为支持单位的“智能金融助力数实融合暨产教融合研讨会”在北京举行。
清华大学复杂工程系统实验室主任、中国人工智能学会智能产品与产业工作委员会主任任勇先从科学、技术与工程的联系与区别入手,指出目前在人工智能发展过程中的五大关键因素,包括数据、算法、算力、自动化、伦理,其中,“算力”和“伦理”既是推动人工智能发展的重要因素,也成为人工智能产业化应用开发走向的重要约束变量。
任勇提到,AI的发展可能会加剧机会上的不公平和结果上的不平等问题,谁拥有数据、资源、技术,谁就具有更强的竞争力,缺乏数据、资源、技术优势,就可能被边缘化、被盘剥。因此,在人工智能快速发展的过程中,强化对技术使用的方向引导和人才培养的方向引领,关注算法演进背后的技术伦理,对我们社会的健康可持续发展非常重要。
突破算力和资源瓶颈需要新思维和新视野
所谓算力,就是设备处理数据、输出结果的能力,或者简而言之,就是计算的能力。当代基于神经网络的深度学习方法对于算力的要求在不断提高,为了处理大量的数据并训练日益复杂的网络、实现日益复杂的算法,人工智能对算力的需求几乎每3个月翻一番。这也同时带来了能源问题,智能计算需要消耗的能源是巨量的。
近年来,人工智能在各个领域取得了巨大的进步,其中2016年AlphaGo战胜李世石成为人工智能之路上的里程碑时刻。与传统的计算机围棋程序不同,AlphaGo采用了深度神经网络和强化学习技术,使其能够通过自我对弈来学习和提高自身水平。
通过大量的围棋对弈数据和先辈棋谱的学习,AlphaGo能够模拟人类棋手的思考方式,并从中发展出独特且优越的策略。这使得AlphaGo在与人类棋手对决时具有强大的竞争力。
任勇介绍,人工智能的发展对算力的需求逐渐增加,也对能源消耗带来了巨大的挑战。例如AlphaGo用到了1202个CPU和176个GPU,一盘棋能耗约3000千瓦时,相当于一吨煤的发电量,训练过程进行了千万盘的自我对弈,消耗的能源超过了20万吨煤的发电量。
因此,突破现有资源瓶颈,拓展新的资源空间,对未来发展意义重大。
任勇以智慧海洋的开发为例,指出以技术手段深化海洋资源开发前景广阔,包括了海洋矿业、海洋电力、海洋盐业、海洋生物医药、海洋化工、海洋渔业、海洋交通运输以及滨海文化旅游业等,2021年海洋经济占我国GDP比重为8%,而这一占比达到15%才可以称为海洋强国,以2035年我国海洋经济占GDP总量上升至15%来推算,未来15年海洋经济会有20-25万亿的增量想象空间。
任勇在演讲中以系统工程思维为我国海洋经济摹画出融合了深海渔业、宽带海洋网络和海洋产品深加工等多条发展链路的未来发展蓝图。
技术快速进步的同时尤需关注技术伦理和人才培养
人工智能发展过程中伴随着大量新的伦理和社会问题。在隐私和数据安全方面,人们担心个人数据可能被滥用,用于个人信息窃取、定向广告、歧视性决定等。
另外,AI可能会带来社会不公、不平等问题,拥有更多数据、资源、技术的优势方可能会在AI时代中更具竞争力;缺失这些资源优势,则可能被边缘化、被盘剥。
人工智能还带来失业焦虑,自动化和机器人技术的进步可能会导致一些工作的机器换人,从而引发失业问题,也倒逼一些群体进行职业转型。
此外,在责任和透明度方面,任勇指出,AI系统做出决策时,谁对决策结果负有责任,以及如何解释决策过程和结果的合理合法合规性,都需要我们在法律法规上进一步明晰界定。
任勇提到,化解技术进步引发的不公平不平等一方面需要制度和规则的完善,另一方面也需要我们进一步强化技术伦理层面的规约,引导科技向善。此外,在人才培养上一方面要进一步加强产教融合力度,提升高校人才面向社会需求的适配性,另一方面要强化全人教育,培养具有良好表达能力、社会交往能力、团队精神和科学批判精神的优秀人才。
任勇用“三心二意”(责任心、进取心、平常心、有意思、有意义),八种智能(语言、数学逻辑、视觉空间、肢体运动、音乐、人际、内省、自然认知)和八种素质(政治、思想、道德、审美、业务、劳技、身体、心理)对未来所需人才进行整体画像,指出越是在技术飞速进展的今天,健全的人格就越是成功的必要基础。
大模型是当代人工智能发展的又一里程碑
大模型(Large Model)是数据量巨大、神经网络规模巨大的深度学习模型。其中,ChatGPT可视为大模型的一个里程碑。
任勇介绍了ChatGPT中的几项关键技术,如“预训练”、“Transformer架构”、“微调”。
预训练提升ChatGPT能力。预训练首先要完成数据的收集和预处理。在预训练中常使用批量处理、Adam优化器、3D并行(数据并行、流水线并行、张量并行)等技术。
Transformer架构具有并行任务完成能力,是GPT-3的骨干架构;微调包括指令微调(增强模型能力)、对齐微调(模型行为与人类价值观对齐)。
在大模型发展中,目前仍然处于算力资源短缺状态。任勇提出,对于超算芯片的需求已经成为人工智能发展的瓶颈。只搞算法、模型,不搞硬件是不可行的,Meta AI内部的算力纷争已经导致其发展出现问题。
同时,任勇表示,大模型项目需要软硬件协同,把算子库IP硬件化,然后通过流水线架构来构建超算加速芯片,这已经成为基于数据的AI项目的共性问题。
“技术逼迫管理改变,管理推动技术进步。”任勇提出,技术上,主要解决方案是采用基于人类反馈的强化学习 (RLHF) ,通过将人类纳入训练循环开发与人类价值观良好对齐、安全性高的大模型。然而RLHF严重依赖专业标注者的工作、严重依赖高质量的人类反馈数据,因此在实际中难以大规模实施。目前的研究正在努力改进RLHF框架,并且考虑将人工智能引入进来,以减少人类的工作量。
在管理上,失业焦虑、机器人人权、对高性能AI的恐惧等问题,需要在社会的发展过程中不断探索、完善法律法规、坚持原则。
(文章来源:华夏时报)
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。