首页 > 代码

代码

  • 通过这些代码,PyTorch团队让Llama7B提速10倍

    要点:PyTorch团队通过优化技术,在不到1000行的纯原生PyTorch代码中将Llama7B的推理速度提升了10倍,达到了244.7tok/s。优化方法包括使用PyTorch2.0的torch.compile函数、GPU量化、Speculative Decoding(猜测解码)、张量并行等手段

  • OpenAI背后的神秘推手!这家公司如何用代码“喂养”AI巨兽

    作者|Eric,编辑|伊凡谁在喂养“AI巨兽”?3月19日,OpenAI在其开发人员API上推出了o1-pro——o1推理AI模型更强大的版本。所向披靡的Open AI,正在“创飞”一部分创业公司,只要Open AI想做某个业务,就会有一批初创公司宣告倒闭。

  • 热乎的GPTs体验报告:创建专属GPT,不懂代码人的春天来了

    机器之心报道编辑:大盘鸡、娄佳琪离 AI 智能体越来越近。如果 OpenAI 的开发者大会是砸向水面的石头,当它结束后,阵阵涟漪正向四面散开。GPT 不仅在集成上更进一步,不必一步步调用,更将成为人人可开发的强大工具。即使你不懂编码、没有计算机相关的基础知识,也能轻松构建。官方博客:https://

  • GPT-4惨遭削弱,偷懒摸鱼绝不多写一行代码,OpenAI已介入调查

    GPT-4再次遭网友“群攻”,原因是“懒”得离谱!有网友想在Android系统开发一个能够与OpenAI API实时交互的应用。于是把方法示例链接发给GPT-4,让它用Kotlin语言编写代码:没成想,和GPT-4一来二去沟通半天,GPT-4死活给不出一个能正常运行的完整代码。

  • 混元大模型升级超180个腾讯业务接入内部用来写代码

    证券时报e公司讯,10月26日,腾讯宣布腾讯混元大模型迎来全新升级,并正式对外开放“文生图”功能,升级后的腾讯混元中文能力整体超过GPT3.5,代码能力大幅提升20%,达到业界领先水平。腾讯内部开始使用混元大模型写代码。目前,超过180个腾讯内部业务已接入腾讯混元,包括腾讯会议等。已有来自零售、教育

  • 涵盖500多项研究、50多个模型,代码大模型综述来了

    本文带你全面洞悉用LLM写代码的各式方法。随着 BERT 和 GPT 等预训练 Transformer 的出现,语言建模近些年来取得了显著进步。随着大型语言模型(LLM)的规模扩展至数以千万计的参数数量,LLM 开始展现出通用人工智能的迹象,它们的应用也已经不局限于文本处理。