首页 > 幻觉

幻觉

  • 最新评测对主流大模型幻觉问题进行了评估

    如何准确评估和解决大语言模型中的幻觉问题已成为一个至关重要的挑战。近日,复旦大学与上海人工智能实验室构建了针对中文大模型的幻觉评测数据集HalluQA,对业界主流的大模型进行了评估。   HalluQA采用无幻觉率来评估大模型的优劣。无幻觉率越高代表模型幻觉越低,事实准确性越高。

  • 阿里达摩院提出“知识链”框架,逐步纠错降低大模型幻觉

    阿里巴巴达摩院(湖畔实验室)、新加坡南洋理工大学等联合提出了大模型知识链(CoK)框架。该框架可实时检索异构知识源并逐步纠正推理错误,进一步提高大模型问答知识型问题的准确率,降低幻觉现象。在通用知识、

  • 多模态LLM幻觉问题降低30%!业内首个“啄木鸟”免重训方法诞生|中科大

    还在用指令微调解决多模态大模型的“幻觉”问题吗?比如下图中模型将橙色柯基错认为“红狗”,还指出周围还有几条。现在,中科大的一项研究想到了一个全新办法:一个免重训、即插即用的通用架构,直接从模型给出的错误文本下手,“倒推”出可能出现“幻觉”之处,然后与图片确定事实,最终直接完成修正。他们将这个方法命名

  • 亚马逊ai聊天机器人q被曝幻觉问题严重

    据 businessinsider 报道,亚马逊在上周发布的 AI 聊天机器人 Q 存在严重的幻觉问题,且有可能泄露机密信息。据报道,有亚马逊员工表示, Q 存在严重的幻觉问题,它会输出有害或者是不适当的聊天内容,比如过时的安全信息等,这将会让客户面临一定的风险。

  • 大模型「幻觉」,看这一篇就够了

    大模型“幻觉”,终于有系统综述了!一口气49页,详细阐述了幻觉定义、分类、导致幻觉的原因,还有检测幻觉、减轻幻觉的方法。这篇最新综述来自哈工大和华为,一po出就在网上火得不行:具体来说,文中用一套新的范畴框架来定义模型幻觉,

  • 对话IJCAI2024大会主席张成奇:克服了幻觉,大模型就不够「靓丽」

    作者丨王悦 张进编辑丨陈彩娴第 33 届IJCAI大会在韩国济州岛圆满结束,为期一周(8.3-8.9)的 IJCAI 吸引了来自全世界各地人工智能领域的研究者和关注者,大会现场的氛围跟 8 月的济州岛天气一样火热,现场的热情氛围昭显了当下人工智能领域的蓬勃发展。延续了 IJCAI 2023,此次大会

  • 和谷歌搜索抢活,FRESHLLM「紧跟时事」,幻觉更少,信息更准

    LLM 能更新知识的话,还有谷歌搜索什么事?大型语言模型的能力有目共睹,如 BARD 和 CHATGPT/GPT-4,被设计成多功能开放域聊天机器人,可以就不同主题进行多轮对话。它们能够帮助人们完成诸多任务,但这并不代表它们是万能的。「幻觉」与过时的信息降低了这些大模型回复的可信度。尤其对于需要信息

  • 开源模型「幻觉」更严重,这是三元组粒度的幻觉检测套件

    BSChecker:细粒度大模型幻觉检测工具与基准测试排行榜大模型长期以来一直存在一个致命的问题,即生成幻觉。由于数据集的复杂性,难免会包含过时和错误的信息,这使得输出质量面临着极大的挑战。过多的重复信息还可能导致大型模型产生偏见,这也算是一种形式的幻觉。

  • 大模型幻觉率排行:GPT

    大盘鸡排行榜一出,高下立见。人工智能发展进步神速,但问题频出。OpenAI 新出的 GPT 视觉 API 前脚让人感叹效果极好,后脚又因幻觉问题令人不禁吐槽。幻觉一直是大模型的致命缺陷。由于数据集庞杂,其中难免会有过时、错误的信息,导致输出质量面临着严峻的考验。