2024 年我们在 LLM 方面学到的东西

在 2024 年,大型语言模型(Large Language Models, LLM)领域发生了 很多 事情。这是一篇回顾过去十二个月里我们在这个领域弄清楚的事情的文章,加上我尝试识别的关键主题和关键时刻。

使用 DeepSeek-R1 和推理时扩展自动化 GPU Kernel 生成

随着 AI 模型将其能力扩展到解决更复杂挑战,一种新的扩展定律,即所谓的 测试时扩展推理时扩展 正在兴起。这项技术也称为 AI 推理长思考,通过在推理期间分配额外的计算资源来评估多种可能的结果,然后选择最佳结果,即神经网络,从而提高模型性能。这使 AI 能够像人类剖析复杂问题并单独解决它们以得出最终解决方案一样,制定策略并系统地解决复杂问题。

在这篇文章中,我们讨论了 NVIDIA 工程师进行的一项实验,他们使用最新的开源模型之一 DeepSeek-R1 模型,以及推理期间的额外计算能力来解决一个复杂的问题。该实验旨在使用自动化的方式生成在数值上正确且针对不同 Attention 变体优化的 GPU Attention Kernel,而无需任何显式编程。

结果表明,在某些情况下,其效果甚至优于经验丰富的工程师开发的优化 Kernel。

使用 Pydantic 在 Python 中稳健地验证和构建用户、产品和订单数据的分步教程

在许多现代 Python 应用程序中,尤其是在处理传入数据(例如,来自 API 的 JSON 有效负载)的应用程序中,确保数据的有效性、完整性和正确类型至关重要。Pydantic 是一个强大的库,允许您使用标准的 Python 类型提示为您的数据定义模型,然后自动根据这些模型验证任何传入数据。在本例中,我们将展示如何建模一个典型的用例:用户为产品下订单。我们将使用 Pydantic 定义 User、Product 和 Order 模型,确保电子邮件、价格、数量和用户详细信息等数据符合我们指定的约束。

打造用于理想姿势位置的 AI 提示词

AI 图像生成器正在改变我们创作艺术的方式。这些强大的工具使用文本描述,称为提示词 (prompts),来生成图像。创建惊人的 AI 艺术的关键之一是掌握 AI 姿势提示词 (AI pose prompts)。本指南将教您如何使用姿势提示词来控制 AI 生成图像中人物的姿势和动作。

顶级 AI 搜索引擎:完整指南 [2025年2月更新]

搜索从未如此简单。借助人工智能搜索引擎,您可以比以往更轻松地发现、访问和研究主题。

过去,搜索引擎依赖关键词匹配来检索您正在寻找的信息。但现在,随着人工智能的兴起,一种新型的搜索引擎应运而生。

这种搜索引擎更强大、更复杂,它使用先进技术来理解用户查询并产生准确的结果。

但哪些是_最好的_ AI 搜索引擎?在我们的搜索中,我们发现了 10 个最佳 AI 搜索引擎,我们将在本指南中一起探索它们。

让我们深入了解一下!

2025 年 50 款最佳 AI 工具(亲测有效)[2025年2月更新]

在本文中,我列出了 21 个不同类别的 50 款 AI 工具。在探索了每个类别中的所有可用选项后,我根据个人经验精心挑选了最佳工具。这确保了这些建议来自真实的实际使用,因此您可以相信它们是以实际有效的工具为基础的。

对于每款工具,我都专注于其最佳用例,解释何时以及如何才能最有效地使用它。我还分享了我对每款工具的喜爱之处,以及我在使用过程中遇到的任何缺点。此外,我还提供了每款工具的免费版本和高级定价计划的信息。

如何在大型语言模型中进行角色扮演

角色扮演是一种创新技术,也是人工智能系统动态发展领域中的关键工具。这种方法包括指示 LLM “扮演”特定的职业、角色或职能,例如数据科学家、卡通人物、语言代理或财务顾问,使人工智能能够更有效地执行给定的特定任务。本文探讨了这种引人入胜的现象,强调了角色扮演在 LLM 中的优势和理论基础,并向您展示了如何通过 Novita AI 使用强大的模型进行角色扮演。

AI 角色扮演在游戏中的应用:终极指南

Image 4: AI 角色扮演在游戏中的应用终极指南

人工智能 (AI) 角色扮演在游戏中的应用彻底革新了游戏行业,为全球玩家提供了无与伦比的体验。AI 技术的整合不仅增强了游戏玩法,还改变了开发者创建沉浸式游戏环境的方式。 预计市场规模将增长45 亿美元,复合年增长率 (CAGR) 高达 24.65%,AI 在游戏中的重要性是不容置疑的。这篇博客深入探讨了 AI 角色扮演应用领域,探索它们的影响和未来趋势。

如何像专业人士一样在 Character AI 上进行角色扮演

我第一次试用 Character AI 时,我的机器人听起来像是卡在了永无止境的客户服务循环中——真的不骗你。

我当时都等着它在对话结束时给我一个 “满意度调查” 了。😂

Image 55: Herman thinking 2

但是,嘿,知道如何在 Character AI 上进行角色扮演并不是什么神秘的艺术。

在这份循序渐进的指南中,我将倾囊相授我是如何扭转局面的,帮助你打造不仅仅是代码和字节的 AI 角色……

我说的是 史诗般、引人入胜的个性,这将给你带来 绝佳的 AI 角色扮演体验

无论你是在寻找一丝幽默、一点性感,还是背脊发凉的感觉,Character AI 都能满足你。

创建你的 AI 角色

创建你的第一个角色可能看起来令人生畏,但请别担心 - 这是一个面向完全初学者的指南,将涵盖 Agnai 上角色创建过程的所有部分,以及角色卡中的每个字段。在阅读完本文后,你应该对角色创建的工作原理有一个基本的了解,并对这个过程有足够的认识,从而能够轻松地开始。

Open R1: Update #2

Image 48: image/png

Open R1 项目已经进行了两周,该项目旨在重建 DeepSeek R1 中缺失的部分——特别是训练流程和合成数据。

在这篇文章中,我们很高兴分享 OpenR1-Math-220k 的构建成果:这是我们首个大规模数学推理数据集!

我们还将关注社区在策划用于微调的小型、高质量数据集方面的一些令人兴奋的进展,以及关于如何在训练时和推理时控制推理模型的思维链长度的见解。

让我们深入了解一下!

Open-R1: 更新 #1

Image 56: image/png

自从 DeepSeek R1 发布以来已经过去了两周,自从我们启动 open-r1 项目来复现缺失的部分(即训练流程和合成数据)以来也仅仅过去了一周。这篇文章总结了:

  • Open-R1 在复现 DeepSeek-R1 流程和数据集方面的进展
  • 我们从 DeepSeek-R1 中学到的以及围绕它的讨论
  • 社区自 DeepSeek-R1 发布以来构建的酷炫项目

它既可以作为项目的更新,也可以作为围绕 DeepSeek-R1 的有趣资源的集合。

单 T4 显卡玩转大模型微调:GRPO 训练 Qwen2.5-0.5B 详细教程

大语言模型 (LLM) 的强大能力毋庸置疑,但其庞大的参数量也带来了巨大的计算资源需求。如何在有限的硬件条件下,例如单张消费级显卡 T4 上,高效地进行大模型微调,成为了许多开发者关注的焦点。

本文将基于一个实用的 Notebook 示例,深入探讨如何使用 GRPO (Gradient Ratio Policy Optimization) 算法,在单张 T4 GPU 上对 Qwen2.5-0.5B 这一开源大模型进行全参数微调。我们将详细解析代码,并解释背后的优化策略,帮助读者理解如何在资源受限的环境下也能玩转大模型微调。

解锁 AI 魔力 - 通过 Gemini 2.0 Flash 和 Google AI Studio 完全免费

嘿,各位技术探索者们!你们有没有听说 Google 令人难以置信的 AI 工具的最新消息? 如果你和我一样,可能正渴望深入探索和体验最新最棒的 AI 技术,但也许你也在想,“这会花费我一大笔钱吗?”

好消息是!Google 实际上是在免费赠送 AI 王国的钥匙,通过其 Gemini 2.0 Flash 模型和 Google AI Studio。 最棒的是什么?你可以完全 免费 开始使用。 是的,你没听错!

在 Google Colab 免费使用 Ollama

Google Colab 为运行机器学习模型和诸如 Ollama 这样的工具提供了绝佳的环境。虽然 Colab 提供了慷慨的免费层级,但我们需要采取一些额外的步骤来确保我们能够有效地运行 Ollama。 让我们逐步完成这个过程。

Andrej Karpathy 深入探讨类 ChatGPT 的 LLM (TL;DR)

Image 24: LLM ChatGPT TL;DR

本次深入探讨的目标读者

几天前,Andrej Karpathy 发布了一个名为 “深入探讨类 ChatGPT 的 LLM” 的 视频。这是一个信息金矿,但时长也达到了 3 小时 31 分钟。我观看了完整视频并做了大量笔记,所以我想为什么不为那些想要获取要点而又不想投入大量时间的人整理一个 TL;DR(太长不看)版本呢。

揭秘Q*:新型LLM基础模块

我已经完全解开了 Q* 的谜团:它是一个用于 LLM 的新型基础模块,一个文本条件的空间计算机模型

在此文中,你可以看到一个为路径寻找训练的模型。这些模型被称为神经元胞自动机 (Neural Cellular Automatons, NCA),而 Q* 是它的基础模型版本 + Q-learning(强化学习)。

它之所以被称为 Q*,很可能是因为它受到了这项关于路径寻找的初步研究的启发,如这里所示,而 Q 则是因为它集成了 Q-learning 作为其训练方法的一部分。

与为单一任务训练不同,你可以对 NCA 进行文本条件设定,并使用今天的 O1/R1 来生成一个庞大的“数据集生成器”库,用于各种谜题,并带有难度参数以进行渐进式训练。

那么这实际上是如何运作的呢?