大模型已进入应用阶段专家:算法脆弱性、算法漏洞等问题仍待解
“百模大战”告一阶段,国内大模型领域开始进入到各行各业的应用探索阶段。
12月6日,2024 AI+数字笔迹创新应用发展论坛在重庆举行。《每日经济新闻》记者在现场注意到,阿里云副总裁、产业智能首席科学家张磊表示,大模型真正变成生产力可能会经历三个阶段,最终将打破固有的生产关系,越往深层走,大模型作为一个新质生产力产生的业务价值、社会价值将会越来越大。
随着大模型的应用进入到日常生活以及生产经营领域,其安全短板也亟待解决。电子科技大学网络空间安全学院院长、俄罗斯工程院外籍院士张小松认为,大模型的背后是机器学习,而机器学习存在脆弱性,需通过多种措施加以应对。
专家:大模型变成生产力有三个阶段过去的一年时间,国内的大模型领域经历了“百模大战”,各行各业的开源、闭源大模型层出不穷。
在张磊看来,大模型产业中长期可能有两个比较重要的发展趋势,一是从大模型利用或者需求的角度来说,肯定会呈现大模型越来越多、百花齐放的普惠效应趋势;二是在整个大模型技术、基础设施的供给上,全球范围内又将是一个比较极化的效应趋势,即寡头格局、强者愈强。
因此,张磊认为,在大模型的供给方面,需要生态圈里最头部的厂商进行抱团,包括云计算厂商、运营商、硬件厂商等,从而形成一个完整的产业链。
与此同时,值得注意的是,随着“百模大战”带来的投入越来越大,行业发展的重点也逐渐向应用层迁移。
张磊表示,大模型真正变成生产力可能有三个阶段,第一个阶段是没有行业属性的大模型应用,包括客服、问答、数据分析、报表总结,文本、图片生成,会议纪要生成,招聘辅助等,各行各业都可以用;第二个阶段是大模型通过智能体、私域数据库、小助手的方式进入有行业属性的实际场景的业务流程中,开始为现有的业务流程进行降本提效;第三个阶段是大模型将产生新的能力,开始去重构业务流程,打破固有的生产关系。
而对于推动大模型产业的发展,张磊也给出了自己的建议,包括统筹算力、构建高质量的数据集、大力推动人才培养以及加速示范应用。
存算法脆弱性、算法漏洞等问题,专家支招在大模型逐渐进入应用阶段之际,大模型的数据安全和算法漏洞等问题也愈发受到各方关注。
张小松指出,大模型的实践手段是机器学习。在机器学习的早期,存在几个威胁:一是机器学习的算法非常脆弱,脆弱到甚至还不如几岁的小孩,稍微把图形图像的内容进行篡改就会发生识别错误;二是经常有利用机器学习的错误,用来操纵大模型,例如有意喂错误样本进行投毒攻击或对抗攻击,通过有选择性地学习进行逃逸攻击。
“所以一是要对学习过程进行完整性的检测,二是要对推理过程进行防错性的检测,三是要对机器学习内容样本进行隐私保护的处理。”张小松补充道。
值得一提的是,在人工智能时代,由深度伪造等带来的挑战也愈发显现,网络安全中的身份认证问题也亟待解决。
《2024人工智能数字笔迹技术白皮书》在论坛现场发布。根据白皮书内容,AI数字笔迹将成为多模态生物特征识别的重要手段之一,并作为数字交易中确权和授权的底层基础技术,在数字经济高质量发展中发挥非常重要的作用。
“AI在提高数字笔迹识别准确率方面可发挥关键作用,通过卷积神经网络(CNN)等深度学习模型,未来本人数字笔迹识别的识别通过率将提高到99.99%。”白皮书显示。
每日经济新闻
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。