作者:Susanna Ray
自2022年底生成式人工智能进入主流视野以来,大多数人都对这一技术有了一些基本的了解,并知道了它是如何利用自然语言来帮助人们更轻松地与计算机进行交互的,甚至有些人会在与朋友的闲谈中聊到“提示词”(prompts)和“机器学习”(machine learning)等热门术语。然而,随着 AI 技术的不断发展,其词汇量和术语体系也在持续演进。你知道大语言模型与小语言模型之间的区别么?是否知道 ChatGPT 中的“GPT”代表什么?又是否了解 RAG(检索增强生成模型)在清理虚假信息方面的作用?
今天,让我们通过对一些热门人工智能术语的解析,帮助大家快速了解相关领域中的最新知识。
推理(Reasoning)和规划(Planning)
人工智能可以通过从历史数据中学到的模式和规律来理解信息,从而解决问题并完成任务。这种能力类似于人类的推理过程,即基于已有的知识和经验分析、判断新情况。更先进的 AI 系统还可以展示出更进一步的能力,通过制定计划、设计一系列行动来实现目标,从而解决更加复杂的问题。比如,当你让一个 AI 程序帮忙组织一次主题公园之旅时,AI 会利用推理能力将你提出的目标需求——游玩六项游乐设施并在中午游玩水上项目,分解成具体步骤,并在确保行程连贯性的同时避免走回头路。
训练(Training)与推断(Inference)
创建和使用一个 AI 系统包含两个关键步骤:训练和推断。“训练”就是 AI 系统的“学习过程”,在这一阶段,AI 会被“投喂”一个数据集,并基于这些数据学习如何去执行任务或做出预测。例如,给 AI 某社区内最近售出房屋的价格列表,以及每套房屋的卧室和浴室数量等多个变量。在训练阶段,AI 会调整其内部参数来决定每个因素在影响最终定价时的权重。在推断阶段,AI 则可以运用它学到的模式和参数,对即将上市的新房价格进行预测。
小语言模型(SLM/small language model)
小语言模型(SLMs)是大语言模型(LLMs)的袖珍版。两者都是利用机器学习技术来识别模式和关系,从而生成逼真的自然语言回复。但大语言模型规模庞大,需要大量的算力和内存支持,而小语言模型,如 Phi-3 等,则可以在更小、更精心挑选的数据集上进行训练。小语言模型参数较少,因此更加紧凑,甚至可以在没有互联网连接的情况下离线使用。这使得小语言模型对于笔记本电脑或手机等设备上的应用程序十分友好,在这些设备上,你可能只想询问一些关于宠物护理的基本问题,而不是如何训练导盲犬这种复杂、多步骤的推理问题。
锚定(Grounding)
生成式人工智能可以创作故事、诗歌和笑话,也可以回答研究问题。但它们有时在区分事实与虚构方面会面临挑战,或者会因为训练数据已经过时而导致回应不准确,这种现象也被称为“幻觉”。所以,研发人员致力于通过锚定过程帮助人工智能更准确地与现实世界互动,他们将模型与数据和具体实例相连接并锚定,以此提高人工智能的准确性并产生更具上下文相关性和个性化的输出。
检索增强生成(RAG)
当研发人员为人工智能提供基础资源以帮助其更加准确和及时进行回应时,他们会采用一种名为“检索增强生成”(Retrieval Augmented Generation,简称 RAG)的方法。RAG 能够在不重新训练 AI 模型的基础上为其添加新的知识,从而节省时间和资源。这就好比你是福尔摩斯,已经读完了图书馆里的每一本书,但案件仍未告破,于是你走到阁楼,打开了一些古老的卷轴,然后你就找到了拼图中缺失的碎片。又或者,假如你经营着一家服装公司,想创建一个能够回答公司商品具体问题的聊天机器人,那么你可以在你的产品目录上使用 RAG 模式,以帮助顾客从你的店铺中找到那件完美的绿色毛衣。
编排(Orchestration)
在处理人们的请求时,人工智能承担着繁重的任务。编排层的作用是引导它们按照正确的顺序执行所有任务,以进行最佳响应。例如,如果你向 Microsoft Copilot 询问 Ada Lovelace 是谁,然后问她何时出生,AI 的编排器会存储聊天历史,以了解你后续查询中的“她”是否指的是 Ada Lovelace。编排层还可以遵循 RAG 模式,在互联网上搜索新的信息添加到上下文中,并帮助模型给出更好的答案。这就像是一位指挥家指挥着小提琴、长笛和双簧管等乐器,按照乐谱演奏,共同产生作曲家心目中的声音。
记忆(Memory)
从技术层面讲,当前的 AI 模型并没有记忆。但 AI 程序可以编排指令,通过遵循具体步骤来帮助它们“记住”信息。例如,在聊天中临时存储之前的问题和答案,然后将该上下文包含在模型的当前请求中,或者使用 RAG 模式中的基础数据来确保回复里有最新的信息。研发人员正在对编排层进行试验,希望帮助人工智能判断是否需要暂时记住那些细分步骤(类似短期记忆,如在便利贴上写下提醒),或者帮助其判断是否有必要将信息存储在更永久的位置来记住更长的时间。
Transformer模型和扩散模型(Diffusion model)
几十年来,人们一直在教 AI 系统如何理解和生成语言,Transformer 模型的出现为 AI 技术的发展带来了极大突破。在生成式人工智能的模型中,Transformer 模型无疑是理解和把握上下文及其细微差别最好、最快的模型。它擅长讲故事,会关注数据中的模式和规律并权衡不同输入的重要性,以帮助人工智能快速预测接下来的内容,从而生成文本。Transformer 模型之所以名声大噪,是因为它是 ChatGPT 中的 “T”,即“生成式预训练 Transformer”。
另一个模型是扩散模型(Diffusion models),通常用于图像创作。通过更渐进、更系统的方法,扩散模型可以从随机位置扩散像素,直到像素以形成提示中要求的图像的方式分布。扩散模型在生成最终结果之前会持续进行微小的调整。
前沿模型(Frontier models)
前沿模型是突破人工智能界限的大规模系统,能够以全新、更广泛的能力执行各种任务。它们非常先进,有时甚至能完成令我们惊讶的事情。目前,包括微软在内的科技公司成立了一个前沿模型论坛(Frontier Model Forum)[1],旨在分享知识、制定安全标准,并帮助每个人了解这些强大的 AI 程序,以确保人工智能安全、负责任地发展。
GPU
GPU,是图形处理单元 Graphics Processing Unit 的缩写,本质上是一种“涡轮增压”计算器。GPU 最初被设计用于平滑视频游戏中的精美、复杂图形,现在它们已成为计算机领域的“核心动力车”。这些芯片拥有大量微型核心,或电路和晶体管网络,它们共同解决数学问题,这种处理方式被称为并行处理。因为人工智能的本质就是大规模进行大量计算,以便能够用人类语言交流并识别图像或声音,所以 GPU 对于 AI 工具的训练和推理都是不可或缺的。目前,最先进的模型都是用成千上万的 GPU 组成的庞大集群来训练的,这些 GPU 分布在像微软 Azure 所拥有的巨型数据中心里。作为如今最强大的计算机之一,微软 Azure 数据中心可以提供强大的计算支持。
相关阅读:
[1] 前沿模型论坛(Frontier Model Forum)
https://blogs.microsoft.com/on-the-issues/2023/07/26/anthropic-google-microsoft-openai-launch-frontier-model-forum/ (opens in new tab)
*文中配图均由 Makeshift Studios 设计。