新开源之王来了!1320亿参数,还比Llama2-70B快1倍
“最强”开源大模型之争,又有新王入局:大数据巨头Databricks,刚刚发布MoE大模型DBRX,并宣称:包括同为混合专家模型的Grok-1和Mixtral。
“最强”开源大模型之争,又有新王入局:大数据巨头Databricks,刚刚发布MoE大模型DBRX,并宣称:包括同为混合专家模型的Grok-1和Mixtral。
11月8日,媒体报道称,亚马逊正在训练他的第二个大语言模型——内部代号为“Olympus”,很有可能在今年12月份上线。这一名为Olympus大语言模型规模达到2万亿(2000B)参数,超过GPT-4的参数规模(此前报道称GPT-4的参数约为1万亿)。亚马逊计划将“Olympus”接入在线零售商店、
大模型作为新一代人工智能技术的代表,其热度从2022年末以来一直维持在高位。从应用侧来说,多家银行已在进行相关探索。大模型参数规模的选择,对于银行来说或是一个问题。《银行科技研究社》发现,包括中小银行在内,多家银行似乎不满足于百亿参数大模型,而是在引进、布局更大规模的千亿大模型。大型银行、中小银行均
11月29日,北京市科学技术委员会、中关村科技园区管理委员会在2023人工智能计算大会(AICC)上发布了《北京市人工智能行业大模型创新应用白皮书(2023年)》(以下简称“《白皮书》”)。
突然间,整个大模型圈都在谈论同一件事。微软论文里一张「乍一看不足为奇」的统计图,泄露了“天机”。引领全球风暴的ChatGPT,背后大模型参数竟只有200亿???论文一经发布,就吸引了国内外众多关注。不少网友还不相信:确定不是拼写错了?有网友表示:难怪OpenAI对开源这么紧张。又或者,这也许是为Op
ChatGPT惨遭攻击,参数规模终于被扒出来了——很可能只有7B(70亿)。消息来自南加州大学最新研究,他们使用一种攻击方法,花费不到1000美元就把最新版gpt-3.5-turbo模型的机密给挖了出来。
联发科于11月21日正式发布天玑8300 5G生成式AI移动芯片,许多旗舰级技术都得到了下放,比起天玑8200有着很大的提升。作为天玑8000系列家族的新成员,天玑8300拥有先进的生成式AI技术与高能效特性,并且游戏体验出色,同时具备高速稳定的网络连接能力。联发科无线通信事业部副总经理李彦辑博士表
8月31日消息,日前,由中国移动承建的国内运营商最大单集群智算中心在哈尔滨正式运营。据悉,该智算中心具有单集群算力规模最大、国产化网络设备组网规模最大等特点。单集群智算中心把所有AI加速卡打造成1个集群,用以支持千万亿级参数的大模型进行训练。这个集群智算中心通过先进的智算网络技术把上万块GPU芯片像
在人工智能的应用领域,出现了一些让人始料未及的趋势:很多传统企业开始选择在 CPU 平台上落地和优化 AI 应用。例如制造领域在高度精细且较为耗时的瑕疵检测环节,就导入了 CPU 及其他产品组合,来构建横跨「云-边-端」的 AI 缺陷检测方案,代替传统的人工瑕疵检测方式。
9月25日,阿里云开源通义千问140亿参数模型Qwen-14B及其对话模型Qwen-14B-Chat,免费可商用。阿里云此前开源了70亿参数模型Qwen-7B等,一个多月下载量破100万,成为开源社区的口碑之作。记者了解到,Qwen拥有出色的工具调用能力,能让开发者更快地构建基于Qwen的Agent