首页 > 参数

参数

  • 爆火Sora参数规模仅30亿?谢赛宁等大佬技术分析来了

    就说Sora有多火吧。生成的视频上线一个、疯传一个。作者小哥新上传的效果,点赞很快破千。失败案例都让人看得上瘾。学术圈更炸开锅了,各路大佬纷纷开麦。纽约大学助理教授谢赛宁(ResNeXt的一作)直言,Sora将改写整个视频生成领域。

  • 报告:中国10亿级参数规模以上大模型已发布79个

    据中新网,5月28日,在北京举行的中关村论坛平行论坛“人工智能大模型发展论坛”上,中国科学技术信息研究所所长赵志耘发布了《中国人工智能大模型地图研究报告》。赵志耘解读称,中国大模型的各种技术路线都在并

  • 60亿参数AI模型测试:Intel2.4倍领先!唯一可替代NVIDIA

    快科技9月12日消息,MLCommons官方公布针对60亿参数大语言模型及计算机视觉与自然语言处理模型GPT-J的 MLPerf推理v3.1的性能基准测试结果,Intel CPU处理器、AI加速器表现亮眼,在AI推理方面相当有竞争力。此前6月份披露的MLCommons AI训练结果、Hugging

  • Meta探索大模型记忆层,扩展至1280亿个参数,优于MoE

    预训练语言模型通常在其参数中编码大量信息,并且随着规模的增加,它们可以更准确地回忆和使用这些信息。对于主要将信息编码为线性矩阵变换权重的密集深度神经网络来说,参数大小的扩展直接与计算和能量需求的增加相关。语言模型需要学习的一个重要信息子集是简单关联。虽然前馈网络原则上(给定足够的规模)可以学习任何函

  • 720亿、千亿级参数大模型接连开放国产开源大模型进入参数时代

    封面新闻记者 欧阳宏宇围绕开源大模型打响的混战正演变为参数之争。12月1日,阿里云宣布开源通义千问720亿参数模型Qwen-72B,18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio。至此,通义大模型共开源18亿、70亿、140亿、720亿参数的四款大语言模型,以及视觉理解、音频理解两

  • AI时代CPU不老!Intel五代至强五大革新:340亿参数小意思

    AI漫长的历史中,ChatGPT绝对是浓墨重彩的一笔。正是它引爆了AI大模型概念,也让以往高高在上的AI飞入了寻常百姓家,开始融入每个人的日常工作、生活,AI PC、AI手机、AI边缘也都在大踏步前进,变革千行百业。

  • AMD推出10亿参数开源大模型

    7日讯,AMD推出了其首个完全开源的10亿参数大语言模型,名为AMD OLMo,其面向各种应用,并在AMD Instinct MI250 GPU上进行了预训练。