人工智能是一个深奥且复杂的领域。该领域的科学家们常用专业术语来解释他们的研究内容,因此我们在报道人工智能行业时也不得不使用这些技术词汇。为此,我们整理了一份术语表,定义了文章中常用的一些重要词汇和短语。
我们将定期更新这份术语表,随着研究人员不断发现推动人工智能前沿的新方法,同时识别新兴的安全风险,我们会添加新的条目。
AGI
人工通用智能(AGI)是一个模糊的概念,通常指的是在许多甚至大多数任务上能力超过普通人的人工智能。OpenAI CEO Sam Altman 最近将AGI描述为“相当于你可以雇佣的中等水平人类同事”。OpenAI的章程定义AGI为“高度自主的系统,在大多数经济价值工作上超过人类”。Google DeepMind则稍有不同,认为AGI是“在大多数认知任务上至少与人类同等能力的AI”。如果你感到困惑,不用担心,领先的AI专家们也同样如此。
AI代理
AI代理指的是使用人工智能技术代表你执行一系列任务的工具,超出普通聊天机器人的能力,比如报销、订票、订餐,甚至编写和维护代码。正如我们之前解释的,这一新兴领域中“AI代理”的定义因人而异,相关基础设施仍在建设中。基本概念是一个自主系统,可能调用多个AI系统来完成多步骤任务。
思维链
对于简单问题,人类大脑往往无需过多思考即可回答,比如“长颈鹿和猫哪个更高?”但有时需要借助笔和纸来解决中间步骤的问题。例如,一个农场有鸡和牛,共有40个头和120条腿,可能需要写出简单方程来计算(20只鸡和20头牛)。
在AI中,思维链推理指的是将问题分解为更小的中间步骤,以提高最终结果的质量。虽然回答时间更长,但答案更准确,尤其在逻辑或编程场景中。推理模型是在传统大型语言模型基础上,通过强化学习优化思维链能力而发展起来的。
计算能力
计算能力通常指支持AI模型运行的关键计算资源。这种处理能力推动了AI行业的发展,使其能够训练和部署强大的模型。该词通常是硬件的简称,如GPU、CPU、TPU等基础设施,是现代AI产业的基石。
深度学习
深度学习是机器学习的一个子集,AI算法采用多层人工神经网络结构,使其能比简单的线性模型或决策树建立更复杂的关联。其结构灵感来源于人脑神经元的互联路径。
深度学习模型能自动识别数据中的重要特征,无需人工定义。它们通过反复学习和调整,从错误中改进输出。但深度学习需要大量数据(数百万甚至更多),训练时间也较长,开发成本较高。
扩散模型
扩散技术是许多生成艺术、音乐和文本AI模型的核心。受物理学启发,扩散系统通过逐渐添加噪声“破坏”数据结构(如照片、音乐),直到完全消失。物理中的扩散是自发且不可逆的,但AI中的扩散系统学习“逆扩散”过程,从噪声中恢复数据。
蒸馏
蒸馏是一种从大型AI模型中提取知识的技术,采用“师生模型”方法。开发者向教师模型发送请求并记录输出,有时将答案与数据集比较准确性,再用这些输出来训练学生模型,使其模仿教师行为。
蒸馏可用于基于大型模型创建更小、更高效的模型,且损失最小。OpenAI的GPT-4 Turbo就是通过此法开发的更快版本。
虽然所有AI公司内部都使用蒸馏,但部分公司可能通过蒸馏竞争对手模型来追赶前沿技术,这通常违反AI API和聊天助手的服务条款。
微调
微调指对AI模型进行进一步训练,以优化其在特定任务或领域的表现,通常通过输入新的专业化数据实现。
许多AI初创企业以大型语言模型为基础,结合自身领域知识,通过微调提升模型在目标行业或任务中的实用性。
生成对抗网络(GAN)
GAN是一种机器学习框架,支撑生成式AI在生成逼真数据(如深度伪造工具)方面的重要进展。GAN由两个神经网络组成:生成器根据训练数据生成输出,判别器对生成结果进行评估。两者相互竞争,生成器试图骗过判别器,判别器努力识别假数据。
这种对抗结构无需额外人工干预即可优化生成结果,更适合生成逼真图片或视频等狭义应用,而非通用AI。
幻觉
幻觉是AI行业用来描述模型“编造”错误信息的术语。这是AI质量的重大问题。
幻觉导致生成式AI输出误导性内容,甚至带来现实风险(如错误医疗建议)。因此大多数生成式AI工具都提醒用户核实答案,尽管这些警告通常不如输出信息显眼。
幻觉产生的原因被认为是训练数据的缺失。对于通用生成式AI(基础模型)来说,解决这一问题困难重重,因为不存在足够全面的数据来涵盖所有可能的问题。简言之,我们还未发明“万能神”。
幻觉问题推动了向更专业化、垂直领域AI模型发展的趋势,以减少知识盲区和虚假信息风险。
推理
推理是运行AI模型的过程,即让模型基于已学数据进行预测或推断。推理必须建立在训练基础上,模型需先学习数据模式才能有效推断。
多种硬件可执行推理,从手机处理器到高端GPU和专用AI加速器,但性能差异显著。大型模型在普通笔记本上推理速度远慢于云端高性能服务器。
大型语言模型(LLM)
大型语言模型是许多流行AI助手(如ChatGPT、Claude、Google Gemini、Meta Llama、微软Copilot、Mistral Le Chat)背后的核心技术。与AI助手交互时,实际上是在与大型语言模型对话,模型可能直接处理请求或借助网页浏览、代码解释器等工具。

AI助手和LLM名称不同,例如GPT是OpenAI的大型语言模型,ChatGPT是其AI助手产品。
LLM是由数十亿参数组成的深度神经网络,学习词语和短语间的关系,构建语言的多维映射。
这些模型通过编码数十亿书籍、文章和对话中的模式生成回答。模型根据提示预测最可能的下一个词,反复进行,形成连贯输出。
内存缓存
内存缓存是提升推理效率的重要技术。AI推理涉及大量数学计算,缓存通过保存部分计算结果,减少重复计算,从而节省计算资源和时间。
常见的缓存技术包括KV(键值)缓存,适用于基于Transformer的模型,显著加快生成答案的速度。
神经网络
神经网络是深度学习的基础结构,也是大型语言模型和生成式AI工具兴起的核心。
虽然受人脑神经元互联结构启发的算法设计理念早在20世纪40年代就提出,但GPU的兴起真正释放了其潜力,使得多层神经网络训练成为可能,推动了语音识别、自动导航、药物发现等领域的突破。
RAMageddon
RAMageddon是形容当前技术行业面临的随机存取存储器(RAM)短缺问题。随着AI行业发展,科技巨头和AI实验室大量采购RAM以支持数据中心,导致市场供应紧张,价格飙升。
这影响了游戏行业(游戏机价格上涨)、消费电子(智能手机出货量可能十年来首次下降)和企业计算(数据中心难以获得足够RAM)等多个领域。预计价格上涨趋势将持续,短缺问题短期内难以缓解。
训练
训练是机器学习AI开发的过程,即向模型输入数据,使其学习模式并生成有用输出。
训练前,模型仅是随机参数和层的组合,训练过程使模型逐渐适应数据特征,实现目标任务,如识别图像或生成诗歌。
并非所有AI都需训练,基于规则的AI(如线性聊天机器人)无需训练,但功能较为有限。
训练成本高昂,因需大量数据和计算资源。混合方法(如对规则AI进行数据驱动的微调)可降低开发成本和复杂度。
令牌(Tokens)
令牌是人机交流的基本单位,是大型语言模型处理和生成的离散数据片段。
通过“分词”过程,将原始数据拆分成模型可理解的单元,类似编译器将人类语言转为计算机代码。
令牌包括输入令牌(用户查询)、输出令牌(模型回答)和推理令牌(处理复杂任务时使用)。
在企业AI中,令牌使用量决定成本,AI公司通常按令牌计费,使用越多费用越高。
迁移学习
迁移学习是利用已有训练模型作为新模型开发起点,针对相关但不同任务进行训练,复用先前学习的知识。
此方法可节省开发时间和资源,特别适合数据有限的任务。但依赖迁移学习的模型通常仍需额外训练以提升特定领域表现。
权重
权重是AI训练的核心参数,决定数据中不同特征的重要性,影响模型输出。
权重是数值参数,通过乘法作用于输入,训练开始时随机初始化,随着训练调整以更准确匹配目标。
例如,预测房价的模型会为卧室数量、是否独栋、是否有车库等特征分配权重,反映其对房价的影响程度。
本文将定期更新,补充最新信息。


