ChatGPT最强竞对更新!上下文长度翻倍,API降价近30%
OpenAI开发者大会后不久,它的最强竞对Claude也宣布推出了重磅更新。更新后的Claude 2.1,上下文长度直接翻番到20万,重新超过了GPT-4。根据官方通告,Claude 2.1版本的API已经上线,网页版本也已经完成升级。那么,这次更新具体都有哪些内容呢?
OpenAI开发者大会后不久,它的最强竞对Claude也宣布推出了重磅更新。更新后的Claude 2.1,上下文长度直接翻番到20万,重新超过了GPT-4。根据官方通告,Claude 2.1版本的API已经上线,网页版本也已经完成升级。那么,这次更新具体都有哪些内容呢?
“Claude 3、Gemini 1.5,是要把RAG(检索增强生成)给搞死了吗?”随着新晋大语言模型们的上下文窗口(Context Window)变得越发得长,业界人士针对“RAG终将消亡”观点的讨论也是愈演愈烈。
Panda自然语言处理的基础涉及到对词的表征。华盛顿大学计算机科学与工程教授 Noah Smith(史諾亞)近日在 arXiv 发布了一篇入门介绍论文,由浅入深通俗易懂地介绍了自然语言处理中对词的处理和表示方法。
1月29日,致力于为中国定制AI大模型的APUS与波形智能联合发布新一代中文创作大模型,并对APUS“萤火小说”产品进行了升级迭代,进一步解决了常见网文的“模型幻觉”痛点,如:小说情节链重复、可信度与流畅度不佳和人设崩塌上下文不一致等。
我们都知道,大语言模型(LLM)能够以一种无需模型微调的方式从少量示例中学习,这种方式被称为「上下文学习」(In-context Learning)。这种上下文学习现象目前只能在大模型上观察到。比如 GPT-4、Llama 等大模型在非常多的领域中都表现出了杰出的性能,
3月29日消息,就在刚刚,埃隆·马斯克旗下的人工智能初创公司xAI宣布正式推出Grok-1.5,官方推送啥也没说,直接甩链接,主打一个“字少事大”。
让大模型一口气处理35万个汉字,百川智能最新Baichuan2-192K大模型发布。192K为目前全球最长的上下文窗口,是目前支持长上下文窗口最优秀大模型Claude2(支持100K上下文窗口,实测约8万字)的 4.4倍,更是 GPT-4(支持32K上下文窗口,实测约 2.5万字)的14倍。Baic
谷歌下一代大模型,无预警降临。Gemini 1.5,除了性能显著增强,还在长上下文理解方面取得突破,甚至能仅靠提示词学会一门训练数据中没有的新语言。此时距离去年12月Gemini 1.0发布,还不到3个月。
EMNLP顶会落下帷幕,各种奖项悉数颁出。最佳长论文奖被北大微信AI团队收入囊中,由北大孙栩老师和微信周杰、孟凡东合作指导。他们发现了大模型中关键能力——上下文学习背后的工作机制。通过理解这一机制,还提出一系列方法来提高其性能。
就在刚刚,马斯克Grok大模型宣布重大升级。难怪之前突然开源了Grok-1,因为他有更强的Grok-1.5了,主打推理能力。来自xAI的官方推送啥也没说,直接甩链接。