LLM幻觉问题全梳理!哈工大团队50页综述重磅发布
原文来源:新智元由无界 AI生成幻觉,老朋友了。自打LLM进入我们的视野,幻觉问题就一直是一道坎,困扰着无数开发人员。当然,有关大语言模型幻觉的问题已经有了无数研究。最近,来自哈工大和华为的团队发表了一篇50页的大综述,对有关LLM幻觉问题的最新进展来了一个全面而深入的概述。这篇综述从LL
原文来源:新智元由无界 AI生成幻觉,老朋友了。自打LLM进入我们的视野,幻觉问题就一直是一道坎,困扰着无数开发人员。当然,有关大语言模型幻觉的问题已经有了无数研究。最近,来自哈工大和华为的团队发表了一篇50页的大综述,对有关LLM幻觉问题的最新进展来了一个全面而深入的概述。这篇综述从LL
原文来源:硅星人由无界 AI 生成你有多久没听到一家创业公司说自己要拯救互联网了。今天的创业者似乎要么闷声赚钱,要么在讨论用AI拯救(或者毁灭)全人类。我们每天都生活其中的互联网,似乎早就没人关心他的死活了。而在Chri看起来,它就要死了。我在圣何塞明媚的阳光下听他这么对我说的时候,感觉
来源:深思SenseAI由无界 AI生成汽车是工业时代机械电子的集大成者。OpenAI 布局自动驾驶领域,有了具备通用理解能力的多模态大规模语言模型(MLLM)加成,汽车会是我们通往 AGI 道路的重要 Agent。自动驾驶对安全性和可靠性依赖度高,MLLMs 可以在自动驾驶堆栈的各个环
由无界 AI生成当前,让大语言模型拥有更强的上下文处理能力是业界非常看重的热点主题之一。本文中,加州大学伯克利分校的研究者将 LLM 与操作系统巧妙地联系在了一起,在扩展上下文长度领域带来了新的进展。近年来,大语言模型(LLM)及其底层的 transformer 架构已经成为了对话式 AI
LLM 能力强大,倘若别有用心之人用其来干坏事,可能会造成难以预料的严重后果。虽然大多数商用和开源 LLM 都存在一定的内置安全机制,但却并不一定能防御形式各异的对抗攻击。近日,OpenAI 安全系统(Safety Systems)团队负责人 Lilian Weng 发布了一篇博客文章《Advers
从涌现和扩展律到指令微调和 RLHF,OpenAI 科学家带你进入 LLM 的世界。由无界 AI生成近日,OpenAI 研究科学家 Hyung Won Chung 在首尔国立大学做了题为「Large Language Models (in 2023)」的演讲。他在自己的 YouTube 频
大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方法超越了使用监督调优(SFT)和人类反馈强化学习(RLHF)的 LLM 性能。原文来源:机器之心由无界 AI生成我们知道,仅在无监督文本语料库上预训练的基
GPT-4根本不知道自己犯错?最新研究发现,LLM在推理任务中,自我纠正后根本无法挽救性能变差,引AI大佬LeCun马库斯围观。原文来源:新智元由无界AI生成大模型又被爆出重大缺陷,引得LeCun和马库斯两位大佬同时转发关注!在推理实验中,声称可以提高准确性的模型自我纠正,把正确率从16%
对于 2023 年的计算机视觉领域来说,「分割一切」(Segment Anything Model)是备受关注的一项研究进展。Meta四月份发布的「分割一切模型(SAM)」效果,它能很好地自动分割图像中的所有内容Segment Anything 的关键特征
原文来源:新智元由无界AI生成最近,包括LeCun在内的一众大佬又开始针对LLM开炮了。最新的突破口是,LLM完全没有推理能力!在LeCun看来,推理能力的缺陷几乎是LLM的「死穴」,无论未来采用多强大的算力,多广阔和优质的数据集训练LLM,都无法解决这个问题。而LeCun抛出的观点,引发