港科大&华为诺亚方舟实验室:吃“有毒”数据,大模型反而更听话了!
来源:量子位现在,大模型也学会“吃一堑,长一智”了。来自香港科技大学和华为诺亚方舟实验室的最新研究发现:相比于一味规避“有毒”数据,以毒攻毒,干脆给大模型喂点错误文本,再让模型剖析、反思出错的原因,反而能够让模型真正理解“错在哪儿了”,进而避免胡说八道。具体而言,研究人员提出了“从错误中学习”的对齐
来源:量子位现在,大模型也学会“吃一堑,长一智”了。来自香港科技大学和华为诺亚方舟实验室的最新研究发现:相比于一味规避“有毒”数据,以毒攻毒,干脆给大模型喂点错误文本,再让模型剖析、反思出错的原因,反而能够让模型真正理解“错在哪儿了”,进而避免胡说八道。具体而言,研究人员提出了“从错误中学习”的对齐
原文来源:新智元由无界 AI生成自GPT多模态亮相以来,开源多模态大模型层出不穷。在人工智能领域,融合多种模态的大规模模型已被广大研究者和业界视为发展的主流方向,也被认为是构建通用AI助手的核心组件。国内外一些研究人员在GPT-4V未真正亮相期间,推出了一些代表作,如LLaVa, Mini
由无界 AI生成众所周知,幻觉问题一直是困扰大模型的一大难题。近日,一个名为 Vectara 的 AI 平台通过自建幻觉评估模型(该模型已在Hugging Face上开源供商业使用),计算得出了目前市面上大多数公共 LLM 的幻觉频率,并以排行榜的形式在 X 上发布了截止 11 月 1 日
近期,关于GPT-4.5提前泄露的消息在全网疯传,逼的OpenAI研究员甚至Altman本人下场否认,但这仍然挡不住愉快吃瓜的网友。GPT-4.5,难道已经瞒着我们悄悄上线了?最近,许多网友都发现了一件令人震惊的事情。
来源:量子位大模型的幻觉问题,又有新的解决方法了!Meta AI实验室提出了一种“分而治之”的解决方案。有了这个方案,Llama-65B输出的信息准确率提升了一倍,甚至超过了ChatGPT。所谓大模型幻觉,就是输出一些看似合理但完全不对的内容。Meta此次提出的“验证链”(CoVe),是与“思维链”