首页 > 上下文

上下文

  • ChatGPT最强竞对更新!上下文长度翻倍,API降价近30%

    OpenAI开发者大会后不久,它的最强竞对Claude也宣布推出了重磅更新。更新后的Claude 2.1,上下文长度直接翻番到20万,重新超过了GPT-4。根据官方通告,Claude 2.1版本的API已经上线,网页版本也已经完成升级。那么,这次更新具体都有哪些内容呢?

  • 百万token上下文窗口也杀不死向量数据库?CPU笑了

    “Claude 3、Gemini 1.5,是要把RAG(检索增强生成)给搞死了吗?”随着新晋大语言模型们的上下文窗口(Context Window)变得越发得长,业界人士针对“RAG终将消亡”观点的讨论也是愈演愈烈。

  • 自然语言处理基础:上下文词表征入门解读

    Panda自然语言处理的基础涉及到对词的表征。华盛顿大学计算机科学与工程教授 Noah Smith(史諾亞)近日在 arXiv 发布了一篇入门介绍论文,由浅入深通俗易懂地介绍了自然语言处理中对词的处理和表示方法。

  • 新一代中文创作大模型发布,上下文一致性提升40%

    1月29日,致力于为中国定制AI大模型的APUS与波形智能联合发布新一代中文创作大模型,并对APUS“萤火小说”产品进行了升级迭代,进一步解决了常见网文的“模型幻觉”痛点,如:小说情节链重复、可信度与流畅度不佳和人设崩塌上下文不一致等。

  • GPT-4的14倍!百川智能发布192K最长上下文大模型,7项评测SOTA

    让大模型一口气处理35万个汉字,百川智能最新Baichuan2-192K大模型发布。192K为目前全球最长的上下文窗口,是目前支持长上下文窗口最优秀大模型Claude2(支持100K上下文窗口,实测约8万字)的 4.4倍,更是 GPT-4(支持32K上下文窗口,实测约 2.5万字)的14倍。Baic

  • 中国团队再获EMNLP最佳长论文!北大微信揭大模型上下文学习机制

    EMNLP顶会落下帷幕,各种奖项悉数颁出。最佳长论文奖被北大微信AI团队收入囊中,由北大孙栩老师和微信周杰、孟凡东合作指导。他们发现了大模型中关键能力——上下文学习背后的工作机制。通过理解这一机制,还提出一系列方法来提高其性能。