• 一行代码提高大模型10%性能,开发者:免费午餐

    在7B参数量的Llama 2上甚至出现了性能翻倍的结果,Mistral也有四分之一的增长。虽然这种方法用在监督微调阶段,但RLHF模型也能从中受益。

    2023年10月23日
    97
  • 麻省理工AI实验室推出图像大模型PFGM++,性能超过扩散模型

    麻省理工学院 CSAIL 的研究人员将创新的 AI 模型变为现实,想象力的领域不再仅仅是抽象的。 他们的新技术整合了两个看似无关的物理定律,支撑着迄今为止表现最好的生成模型:扩散(diffusion),通常说明元素的随机运动,例如热量渗透到房间或气体膨胀到空间,以及泊松流,它利用了控制电荷活动的原理。

    2023年10月17日
    144
  • 开源大模型正在“杀死”闭源?

    自Llama 2后,开源逐渐成为主流趋势。以Llama架构为首,先掀起了一波以其为核心的开源,如Llama 2低成本训练版、Llama 2最强版、微调版等等。截至发稿前,以“LLama 2”为关键词在国外最大的AI开源社区Hugging Face检索模型,有5341条结果;在全世界最大的开源项目托管平台Github上,也有1500个词条。

    2023年10月7日
    105
  • 详解Modular:LLVM之父如何打造未来AI引擎语言?

    编译器 (Compiler),是一种将高级编程语言翻译成计算机可执行代码的软件工具,编译器将程序员编写的源代码转换成计算机可以理解和执行的二进制指令,这些指令被打包成可执行文件或库,以便在计算机上运行程序。

    2023年9月17日
    95
  • AI大模型并非越大越好?全面解析模型「瘦身」技术方案

    如果要继续改进 AI 模型,开发者将需要解决如何以更少的资源实现更高性能的问题。无论是在学术界还是在工业界,大模型压缩一直是一个热门领域,目前也有很多技术在做。本文简单介绍四种常见的模型压缩手段:量化、剪枝、参数共享和知识蒸馏,帮助大家对模型压缩方法有一个直观的了解。

    2023年9月10日
    94
  • 苹果公司加入大模型战争

    不过,根据 8 月初苹果的财报,营收连续第三个季度下降,也是苹果自 2016 年以来最持久的财报表现下滑,主要是 iPhone 消费设备需求的下降,因为苹果利润的主要驱动力很大一部分来自于 iPhone,那么,大语言模型会给苹果带来新的增长点吗?

    2023年9月8日
    102
  • 通往AGI之路:ChatGPT背后的逻辑,压缩即智能

    机器学习(Machine learning),对于非计算机背景的朋友来说或许有些陌生。但是我们生活的方方面面都已经被机器学习覆盖。比如,当我们打开知乎、抖音、小红书等软件的时候,系统会自动推荐我们可能感兴趣的内容;当我刚和朋友聊到想买一某品牌的裙子时,打开淘宝就发现搜索推荐已经变成了该品牌;邮件系统会帮我们自动屏蔽垃圾邮件;交通摄像头拍摄司机的行驶照片来推断是否有违规行为。这些都得益于机器学习。

    2023年9月4日
    140
  • 6000字解读:当前大语言模型LLM研究的10大挑战

    输出环境是一个已经被大量讨论过的话题,所以这里我会长话短说。当人工智能模型胡编乱造时,就会产生幻觉。对于许多创意用例来说,幻觉属于功能的一种。然而,对于大多数应用场景来说,幻觉属于一种错误。最近,我与 Dropbox、Langchain、Elastics 和 Anthropic 的专家共同参加了一个关于 LLM 的专题讨论会,在他们看来,企业在实际生产中,应用 LLM 需要克服的首要障碍就是幻觉输出。

    2023年8月22日
    92
  • GPT-5要来了?AI行业会发生哪些剧变?

    尽管在今年上半年,各个 AI 专家、学者已经多次联合发表公开信,呼吁人们重视生成式 AI 的潜在风险,而 OpenAI 当时也宣布短期内不会有训练 GPT-5 的计划。

    2023年8月7日
    90
  • OpenAI申请GPT-5商标,什么时候发布?都会带来哪些新能力?

    2023 年 3 月发布 GPT-4 时,预计 OpenAI 将在 2023 年 12 月发布下一代模型。 Runway 联合创始人 Siqi Chen 此前表示,我被告知 GPT5 计划于今年 12 月完成训练,Openai 预计它能够实现通用人工智能(AGI)。这意味着我们都会激烈争论它是否真正实现了 AGI。

    2023年8月3日
    94
  • 为机器人装「大脑」:谷歌发布RT-2大模型

    谷歌 DeepMind 机器人技术主管 Vincent 举例称,如果让以前的机器人丢垃圾,必须要专门训练它理解什么是垃圾、如何捡起和扔到哪去。现在 RT-2 能够从网络数据上学习识别和处理垃圾的方法,不必逐一特训不同的场景了。

    2023年8月2日
    96
  • 大语言模型“百宝书”,一文缕清所有大模型

    大模型可以分为基座模型和在基座模型上进行指令微调、人类反馈对齐等instruction-tuning之后的微调模型。但实际上,正如艾伦研究所的文章‘How Far Can Camels Go?’所指明的:不同的指令微调数据集可以释放或者增强特定的能力,但并没有一个数据集或者组合可以在所有的评估中提供最佳性能,因此,我们需要一个更大强大的基座模型。

    2023年7月31日
    102