跳到主要内容

AI 人工智能专业术语

  • AI:Artificial Intelligence,人工智能。是研究和开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新技术科学。它的目标是让机器具备类似人类的智能,能够感知、理解、学习、思考、决策等。
  • AIGC:AI Generated Content,人工智能生成内容。指利用人工智能技术生成各种形式的内容,包括文本、图像、音频、视频等。例如,ChatGPT生成的文章、Midjourney生成的图片等都属于AIGC的范畴。
  • AGI:Artificial General Intelligence,通用人工智能,也称为强人工智能。它指的是一种具有广泛认知能力的AI系统,能够像人类一样在多种领域和任务中表现出智能,而不仅仅局限于特定的任务。AGI目前还处于理论和研究阶段。
  • ANI:Artificial Narrow Intelligence,人工窄智能,也称为弱人工智能。它指的是一种只能在特定任务或领域表现出智能的 AI 系统。例如,语音助手、图像识别软件等都属于 ANI。
  • ASI:Artificial Super Intelligence,人工超级智能,指的是一种在所有领域都超越人类智能的 AI 系统。它能够进行自我改进、快速学习和创新,甚至可能超越人类的理解能力。ASI目前还属于科幻和理论探讨的范畴。
  • AI Agent:人工智能代理,通常又称为“AI 智能体”,是一种能够感知环境、自主理解、决策并执行动作的智能实体。它基于预设目标或任务,在给定环境中运作,通过感知环境状态、处理信息、规划行动路径并执行行动来实现其功能。AI Agent 的核心能力包括自主性、反应性、主动性和社会性。
  • 具身人工智能(Embodied AI):是一种强调智能体通过物理身体与环境互动来产生智能行为的系统。它不仅依赖于计算和信息处理能力,更注重通过感知、行动和环境反馈来实现智能。具身智能的核心在于“身体”和“环境”的相互作用,认为智能的生成离不开身体的实际体验和对物理世界的操作。
  • 人形机器人:是一种仿生机器人,其外形和尺寸与人类相似,能够模仿人类的运动、表情、互动及动作,并具备一定的认知和决策智能。人形机器人是一种特殊的 AI Agent。
  • OpenAI:一家人工智能研究实验室,由埃隆·马斯克、山姆·奥特曼等人于 2015 年创立。OpenAI 致力于开发和推广安全的通用人工智能技术,并开发了多个知名的人工智能模型,如 GPT 系列。
  • GPT:Generative Pre-trained Transformer,生成式预训练变换器,是 OpenAI 开发的一系列语言模型。GPT 模型通过大规模的预训练和微调,能够生成自然语言文本,广泛应用于聊天机器人、写作辅助、翻译等领域。目前最新的版本是 GPT-4。
  • Transformer:一种深度学习架构,由 Vaswani 等人在2017年提出。Transformer 架构基于自注意力机制(Self-Attention),能够高效处理序列数据(如文本)。它是现代自然语言处理(NLP)模型的基础架构,包括 GPT、BERT 等都基于 Transformer 架构。
  • NLP:Natuarl Language Processing,自然语言处理。是人工智能的一个重要分支,旨在让计算机理解和生成人类语言。它通过模拟人类的语言理解和分析能力,实现人机交互、信息提取、语义分析等任务。
  • BERT:Bidirectional Encoder Representations from Transformers,双向编码器表示,是一种预训练语言模型,由谷歌开发。BERT 通过双向上下文理解文本,广泛应用于文本分类、问答系统、命名实体识别等自然语言处理任务。
  • RAG:Retrieval-Augmented Generation,检索增强生成,是一种结合检索和生成的 AI 技术。它通过检索外部知识库中的信息,结合生成模型的能力,生成更准确、更有依据的文本。RAG 模型在处理需要大量背景知识的任务时表现出色。
  • MCP:Model Context Protocol,模型上下文协议。一种新的开放标准协议,用来在大模型和数据源之间建立安全双向的链接。MCP 旨在解决当前 AI 模型因数据孤岛限制而无法充分发挥潜力的难题,通过 MCP 可以实现 AI 智能体与外部数据及工具的结合。例如 BlenderMCP 项目就是通过 MCP 将 Blender 连接到 Claude AI,这样用户就可以通过 Claude 直接与 Blender 进行实时交互和控制。
  • LLM:Large Language Model,大语言模型。指基于大量数据进行预训练的超大型深度学习模型,可以执行各种自然语言处理(NLP)任务。大型语言模型会使用多个转换器模型,并使用海量数据集进行训练,因此规模非常庞大。GPT 系列、文心一言等都属于 LLM。
  • vLLM:Very Large Language Model,是一个高性能的大型语言模型(LLM)推理引擎,专注于解决大语言模型推理过程中的性能瓶颈,提供高效、灵活且易于使用的推理解决方案。它由加州大学伯克利分校的研究团队开发,并在2023年6月开源。
  • LLaMA:Large Language Model Meta AI,是由 Meta 公司于2023年2月发布的一系列开源大型语言模型,旨在提供高效且开放的基础语言模型,推动自然语言处理(NLP)技术的发展。
  • Prompt:提示词。是用户输入给 AI 模型的指令或信息,用于引导 AI 系统生成特定的输出。它通常包括任务描述、上下文信息、约束条件等,以帮助模型更好地理解用户需求并生成符合预期的结果。例如,在与 ChatGPT 交互时,输入的问题或命令就是 Prompt。
  • Prompt Engineering:提示工程。指通过精心设计输入提示(Prompt)来引导 AI 模型生成期望的输出。提示工程在使用生成式 AI 时非常重要,能够提高模型的准确性和效率。
  • 机器学习(Machine Learning):人工智能的一个分支,通过让计算机从数据中学习规律和模式,从而实现自动化的任务执行。机器学习包括监督学习、无监督学习和强化学习等。
  • 强化学习(Reinforcement Learning):一种机器学习范式,通过让智能体在环境中进行试错学习,根据奖励信号来优化其行为策略。强化学习常用于机器人控制、游戏AI等领域。
  • 深度学习(Deep Learning):机器学习的一个子领域,通过构建多层神经网络来学习数据中的复杂模式。深度学习在图像识别、语音识别、自然语言处理等领域取得了巨大成功。
  • 神经网络(Neural Network):一种模仿生物神经元结构的计算模型,由多个神经元(节点)和连接组成。神经网络能够通过学习数据中的模式来进行分类、预测等任务,是深度学习的基础。
  • 卷积神经网络(Convolutional Neural Network,简称 CNN):是一种深度学习架构,广泛应用于图像识别、视频分析、自然语言处理等领域,尤其在计算机视觉任务中表现出色。CNN 通过模拟人类视觉系统的层次化结构,能够自动提取数据中的特征,从而实现高效的模式识别和分类。
  • 卷积(Convolution):是一种数学运算,广泛应用于信号处理、图像处理和深度学习等领域。