什么是RAG(检索增强生成)
RAG(Retrieval-Augmented Generation)是一种将信息检索与生成式模型结合的技术,用于提升生成模型的准确性和实用性。
工作原理: 检索(Retrieval): 在生成内容之前,模型会从外部知识库(如文档库、数据库、网络资源等)检索相关信息,确保回答基于最新或特定领域的信息。 生成(Generation): 利用检索到的上下文信息,生成式模型(如 GPT)根据用户的提问生成内容,保证回答更贴近真实或高质量内容。
应用场景: 知识问答:结合企业内知识库,为员工或客户提供精准答案。 文档生成:根据特定上下文,生成报告、摘要或策略文档。 实时更新:对依赖实时信息的应用(如新闻摘要)特别有效。
优势: 提高模型生成内容的准确性和可信性。 解决语言模型的“幻觉问题”(hallucination),减少无依据的回答。
什么是智能体(Agent)
智能体(Agent)是指一种自主运行的系统或实体,能够感知环境并根据环境变化采取相应的行动来完成目标任务。智能体可以是软件系统、硬件设备或虚拟助手。 应用场景:
- 虚拟助手:如 Siri、Alexa 等,通过自然语言处理帮助用户完成任务。
- 机器人:工业生产中的自动化机器人,或智能家居中的清扫机器人。
- 自动化系统:企业流程自动化(RPA)或自动驾驶技术。
什么是工作流(WorkFlow)
工作流(Workflow)是指一系列任务或操作的顺序化执行,用于实现某个具体目标或解决特定问题。工作流通常以规则和逻辑为基础,明确定义了任务的执行顺序、参与者及各步骤之间的关系。
什么是大模型
大型语言模型,也称大语言模型、大模型(Large Language Model,LLM;Large Language Models,LLMs)。
大语言模型是一种深度学习模型,特别是属于自然语言处理(NLP)的领域,一般是指包含数干亿(或更多)参数的语言模型,这些参数是在大量文本数据上训练的,例如模型GPT-3,PaLM,LLaMA等,大语言模型的目的是理解和生成自然语言,通过学习大量的文本数据来预测下一个词或生成与给定文本相关的内容。
OpenAI 的 GPT (Generative Pre-trained Transformer) 系列是大语言模型的典型代表,作为目前为止公认最强的 GPT-4 架构,它已经被训练在数十亿的单词上。从实际应用表现来看,大语言模型具备回答各种问题、编写文章、编程、翻译等能力,如果深究其原理,LLM建立在Transformers架构之上,并在很大程度上扩展了模型的大小、预训练数据和总计算量。
什么是ChatGPT
GPT,全称"Generative Pre-training Transformer",是一个由OpenAI开发的自然语言处理(NLP)的模型。它的主要目标是理解和生成人类的自然语言。通过对大规模文本数据进行预训练,GPT模型能学习到语言的各种模式,如语法、句法、一词多义等,以及一些基础的世界知识。 总的来说,它通过预训练和生成技术,以及Transformer的自注意力机制,来理解和生成人类的自然语言。
GPT与大模型的关系
GPT-3、GPT-4、GPT-4o 是具体的大模型的例子。当提到“大模型”时,通常是指具有大量参数的机器学习模型。
ChatGPT、GPT与大模型三者的关系
ChatGPT是一种特定的GPT应用,GPT是一种大模型,而大模型是一类具有大量参数的深度学习模型。
开源大模型举例
LLaMa:LLaMa是Meta AI公司开源的一组大规模语言模型,参数范围从7B到65B。它们在多达14,000亿tokens的语料上进行了训练。其中,LLaMA-13B在大部分基准测评上超过了GPT3(175B),6B可在个人GPU上使用,13B时性能相当于GPT3(175B),训练复杂度高于ChatGLM。
ChatGLM:ChatGLM-6B是清华大学知识工程和数据挖掘小组发布的一个开源的、支持中英双语的对话语言模型,基于General Language Model (GLM)架构,具有62亿参数。根据智谱AI公司的GLM-130B修改而来,结合模型量化技术,可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。
Alpaca:斯坦福大学根据LLAMA7B模型训练得到,性能接近GPT3.5,测试中发现中文支持较差。
MOSS:复旦大学团队开发,是一个支持中英双语和多种插件的开源对话语言模型,moss-moon系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力,同样,经测试对中文支持一般。
miniGPT4:沙特国安大学的华人团队,未公布参数,使用4块A100(80G显存)GPU训练得到,本地部署最低需要12G显存,具备多模态能力。即除了识别文字外,还可识别图像,可以根据图像输出文字。
GPT4ALL:基于LLAMA7B模型微调得到,训练数据采用了OpenAlGPT-3.5-Turbo模型创建的对话语料和其他语料,GPT-3.5-TurboAPI总花费500刀,全部语料均已开源,本地部署需要至少16G显存,缺乏中文训练语料,因此对中文支持较差。
OpenAI API
OpenAI API 就是 OpenAI 为第三方开发者提供的接口,开发者可以将 OpenAI API 集成到自己的产品中,实现用 AI 生成文字的效果。在产品中不需要训练自己的模型,只需把用户输入的句子发送到 OpenAI 的 API,API 就会返回按照自定义指令润色之后的句子,在网站上展示。
OpenAI付费方式的区别
OpenAI 旗下各产品简单的分为两种:
- ChatGPT Plus:先付后用,20 美元/月,开通时绑定信用卡并付款,之后每月自动从信用卡扣费(也可以通过 App Store 开通,从 App Store 余额或绑定的支付方式中扣费)。
- OpenAI API:先用后付,按量付费,绑定信用卡后,每月月初自动从信用卡按上个月用量扣费。 其他
- OpenAI 一个研究 AI 技术的机构
- GPT (Generative Pre-trained Transformer)OpenAI 发布的一种人工智能语言模型
- GPT-3.5 GPT 模型的 3.5 版本
- GPT-4 GPT 模型的 4 版本,相比 GPT-3.5 模型拥有更强的推理能力
- ChatGPT OpenAI 基于 GPT 模型发布的 AI 聊天产品
- ChatGPT Plus ChatGPT 的付费版本,可以理解为 ChatGPT 的高级会员
- OpenAI API OpenAI 向开发者提供的接口服务,方便开发者在自己的产品(App 或网站)中使用 OpenAI 的模型实现 AI 相关的功能
- DALL-E OpenAI 发布的一种文本转图像模型
- Whisper OpenAI 发布的一种语音识别模型
liang14658fox