AI大模型常见术语

LLM

它叫做“大语言模型”,可以把它想象成一个超级聪明的大脑。
就像我们学习语文、数学一样,LLM也通过大量的文本数据进行了训练,所以它知道很多很多的知识。当我们向它提出问题时,它会用学到的知识来回答我们。

比如,我们可以问 LLM:“天空为什么是蓝色的?”它会根据自己的知识和算法,给出一个答案。而且,LLM 还可以生成文本,比如写故事、写作文等等。

LLM 的应用非常广泛,它可以帮助我们更好地理解和处理语言,也可以用于自然语言处理、机器翻译、智能客服等领域。未来,随着技术的不断发展,LLM还会有更多的应用和发展前景!

要让 LLM 更好地理解和处理语言,可以尝试以下几个方法:

提供更多的上下文信息:LLM 对于语言的理解是基于上下文的。因此,在与 LLM 交互时,提供尽可能多的相关上下文信息,有助于它更准确地理解问题。

使用简单明了的语言:避免使用复杂或含糊不清的词汇和句子结构。使用简单、清晰的语言可以提高 LLM 对问题的理解。

进行示例说明:如果可能的话,可以通过举例的方式向 LLM 解释问题,这样它可以更好地理解你的意图。

训练和优化:通过对 LLM 进行更多的训练和优化,可以提高它的语言理解和处理能力。

与其他技术结合:将 LLM 与其他自然语言处理技术,如词法分析、句法分析等结合使用,可以提高它的语言处理效果。

不断测试和改进:在实际应用中,不断测试 LLM 的表现,并根据反馈进行改进,以提高它的语言理解和处理能力。

就像我们学习语文一样,多读多写可以提高我们的语言能力。同样的,给 LLM 更多的学习机会,它就能变得更聪明!

LLaMA

今天我们来认识一个非常有趣的东西,它叫做“羊驼”,也可以叫它 LLaMA。LLaMA 是一个大型语言模型,由 Meta AI 发布,它有7B、13B、33B、65B(650亿)四种版本。它就像一个超级聪明的大脑,可以理解和生成人类的语言!

你们可以把 LLaMA 想象成一个非常厉害的语言老师,它可以教我们很多知识。而且,LLaMA 的性能非常优异,具有130亿参数的 LLaMA 模型在大多数基准上可以胜过 GPT-3(参数量达1750亿),而且可以在单块 V100 GPU 上运行;而最大的650亿参数的 LLaMA 模型可以媲美谷歌的 Chinchilla-70B 和 PaLM-540B。

LLaMA 的应用非常广泛,它可以帮助我们更好地理解和处理语言,也可以用于自然语言处理、机器翻译、智能客服等领域。未来,随着技术的不断发展,LLaMA 还会有更多的应用和发展前景!

LangChain

LangChain是一个强大的框架,旨在帮助开发人员使用语言模型构建端到端的应用程序,它提供了一套工具、组件和接口,可简化创建由大型语言模型(LLM)和聊天模型提供支持的应用程序的过程。

LangChain是一个语言模型集成框架,其使用案例与语言模型的使用案例大致重叠,包括文档分析和摘要、聊天机器人和代码分析。简单来说,LangChain 提供了灵活的抽象和 AI 优先的工具,可帮助开发人员将 LLM 应用程序从原型转化为生产环境。

LangChain 还提供了一套工具,可帮助开发人员构建上下文感知、推理应用程序, LangChain 的工具包括聊天机器人、文档分析、摘要、代码分析、工作流自动化、自定义搜索等。

Markdown

Markdown是一种简单的文本标记语言,它可以帮助我们在写文本的时候更加清晰、简洁、富有层次。它的核心是简单的标记,这些标记可以用来创建文本样式、加粗、斜体、下划线、链接等,还可以使用标题、段落、列表等格式化文本,从而使得文本更加易于阅读。这种语言尤其适合在网页和博客等需要在网络上发布的地方使用,因为它使得文本易于搜索和分享。例如,你可以使用 Markdown 来编写一篇博客文章,其中的标题、段落、列表等都是使用 Markdown 标记来实现的。

Markdown 最初是在 2004 年由 John Gruber 发明的,他是一位程序员和写作博客的人。他在写博客的时候,发现了一种方法,可以使用简单的标记来实现文本的格式化,使得博客更加美观和易于阅读。这种方法很快就在博客和其他需要发布文本的地方流行起来,成为了一种标准的文本标记语言。

随着时间的推移,Markdown 的功能不断扩展,现在已经成为了一种广泛使用的文本标记语言。它可以被用来创建各种文档,包括网页、博客、电子书、电子邮件、文档等。此外,Markdown 还可以和其他技术结合使用,比如 HTML、CSS、JavaScript 等,使得文本的格式和效果更加丰富。

总之,Markdown 是一种非常有用的文本标记语言,它可以帮助我们在写文本的时候更加清晰、简洁、富有层次。无论是在网页和博客上发布文本,还是在各种文档中使用,Markdown都有着广泛的应用前景。

ComfyUI

ComfyUI是一种新型的WebUI(网页用户界面),它特别适用于AI绘画软件。想象一下,你在画画时,想要画出一个非常复杂的场景,但是你的电脑内存有限,就像你的画板空间有限一样。ComfyUI就像一个聪明的助手,它能让你在有限的画板空间里画出更大、更复杂的画面,而且画得更快,更节省资源。

ComfyUI的特点是:

  1. 节省显存:就像在小画板上画出大画,ComfyUI能在电脑内存有限的情况下,让你创作出更宏伟的图像。
  2. 处理复杂任务:它擅长处理那些需要很多步骤的复杂任务,就像把一系列复杂的绘画步骤简化成一个流畅的过程。
  3. 工作流可复用:你可以保存你的创作流程,下次想用同样的步骤画画时,可以直接拿来用,非常方便。
  4. 玩法多样:ComfyUI允许你自由添加和连接不同的功能节点,就像用不同的画笔和颜色来创作,给你更多探索和创造的可能性。

不过,ComfyUI也有它的挑战,就是学习起来可能有点难,而且目前可用的插件还没有那么多。但总的来说,ComfyUI是一个让AI绘画变得更高效、更有趣的工具。

【模型参数VS模型超参数】

在机器学习中,模型参数是模型内部的配置变量,它们是在建模过程中通过数据自动学习得到的。

例如,在线性回归或逻辑回归模型中,这些参数对应于方程中的系数;在支持向量机中,它们是支持向量;在神经网络中,则是连接不同层之间的权重。这些参数的学习是模型训练的核心,旨在捕捉数据中的模式和关系。

相对地,模型超参数是模型外部的配置变量,它们不是从数据中学习得到的,而是由研究人员或数据科学家根据先验知识和经验预先设定的。

超参数包括学习率、迭代次数、网络层数、隐藏单元的数量等,它们对模型的性能和训练过程有显著影响。正确的超参数选择对于获得高效的模型至关重要,通常需要通过实验和调优来确定最佳值。

RAG

RAG(Retrieval-Augmented-Generation)是一种人工智能技术,它结合了两种不同的方法来帮助电脑更好地理解和回答问题。想象一下,你有一个超级聪明的图书馆管理员,它有两个特别的技能:一个是能快速找到正确的书籍(检索),另一个是能根据找到的信息写出精彩的文章(生成)。RAG就像是这个图书馆管理员,它先用第一个技能找到正确的信息,然后用第二个技能把信息变成有用的回答。

详细的概念介绍:
RAG技术的核心是它能够同时使用检索(Retrieval)和生成(Generation)两种方式来解决问题。检索就像是在图书馆里找到一本关于某个话题的书,而生成则是根据这本书的内容写出一篇报告。RAG首先会从大量的信息中找到最相关的部分,然后根据这些信息生成一个详细的回答。这个过程就像是在做一道菜,先找到最好的食材,然后把它们烹饪成美味的菜肴。

概念详细说明:
在RAG系统中,电脑首先会搜索大量的数据,就像图书馆管理员在书架上找到相关的书籍。然后,它会从这些书籍中提取关键信息,就像是摘录书中的重点。最后,电脑会用这些信息来生成一个完整的回答,就像是一个故事或者文章。这个过程需要电脑非常聪明,能够理解信息之间的关系,并且能够流畅地表达出来。

相关应用和发展前景:
RAG技术在很多领域都有应用,比如在搜索引擎中,它可以帮助我们更快地找到想要的信息。在教育领域,它可以作为一个智能助教,帮助学生找到学习资料并给出详细的解释。随着技术的发展,RAG可能会变得更加智能,能够处理更复杂的任务,比如自动撰写新闻报道或者帮助医生查找医疗信息。未来,RAG可能会成为我们获取信息和解决问题的重要工具,让我们的生活更加便捷。

Prompt

Prompt(提示词)在人工智能中,就像是给AI的一个小小提示,帮助它更好地理解我们的问题或者任务。就像我们在学校做作业时,老师会给我们一些提示,比如“想一想这个数学问题和我们之前学过的哪个公式有关?”这样我们就能更快地找到解题的思路。

详细的概念介绍:
在人工智能的世界里,电脑需要通过学习大量的数据来理解语言和完成任务。Prompt就像是给电脑的一个小提示,告诉它应该从哪个角度去思考问题。比如,如果我们想要电脑帮我们写一篇文章,我们可以给出一个prompt,比如“请写一篇关于春天的短文”,这样电脑就知道它需要围绕春天来创作内容。

概念详细说明:
Prompt在人工智能中的作用就像是引导电脑的思考方向。电脑通过分析prompt中的关键词,可以更快地找到相关的信息,然后生成回答或者完成任务。这个过程就像是我们在玩猜谜游戏,prompt就是我们给出的谜面,电脑需要根据这个谜面来猜出谜底。

相关应用和发展前景:
Prompt在人工智能的应用非常广泛。比如在聊天机器人中,prompt可以帮助机器人理解用户的问题并给出合适的回答。在教育软件中,prompt可以用来引导学生学习新知识。随着人工智能技术的发展,prompt可能会变得更加智能,能够更好地理解复杂的指令,甚至在没有明确prompt的情况下,也能自主完成任务。未来,prompt可能会成为人工智能与人类沟通的重要桥梁,让电脑更好地服务于我们的生活。

今天的#AI术语词典 是prompt提示词,做一下知识扩充

【下面的东西,在直播间都有更详细的讲过,所以每次直播务必要去听】

理解“提示词”是什么,AI 就很好用了。

提示词的英文是「 prompt 」,翻译成中文还有“鼓励,提示,提醒(某人说话);促使;导致;激起;给(演员)提词;”的意思。

在跟 AI 对话的时候,prompt 更确切的解释应该是“提醒某人说话”。

一起想象一个场景:

你们部门开例会,你睡着了,突然被同事戳醒,告诉你回答领导的问题。

这时候有两种情况:

情况一:同事什么都没说,就跟你说“领导问你的意见是什么”。

情况二:同事详细介绍了刚刚你睡着的时间里,领导安排了哪些工作,问你对此的意见是什么。

显然,情况二你的回答会更靠谱一些。

你面对的 AI,就跟刚被戳醒的你是一样的:它知道非常多信息,掌握很多技能,但仅仅是缺少“领导刚刚讲的那些话”的信息。

作为提醒 AI 说话的人,想要让 AI 给出完美的回答,应该给它足够多背景信息,而不只是给它下一个“回答问题”这样的指令。

当然,更好的方式是把它当成刚来的实习生,布置任务时除了提供背景信息,还有你已经掌握的方法论。

番外:

用“指令”来代指提示词,是非常不专业的做法,这样称呼prompt 的根本原因在于不知道“生成式 AI ”的基本原理。

AI 生成内容的根本驱动力不是你下达了某个“指令”,而是给它一段“提示”,它在你提示的基础上继续“续写”内容,确保“你的提示”和“他续写的内容”,整体符合逻辑。

所以你问问题AI 能回答,并不是因为他的知识库有你问题的答案,而是因为它生成带有答案的文本是符合逻辑的。
所以你发出“指令”AI能按要求生成结果,同样是因为整体符合逻辑。
所以“林黛玉倒拔垂杨柳”、“周树人打鲁迅”这样的故事,AI 并不知道实时对错,只有整体符合逻辑。

因为它必须继续往下写,这是它能给出最符合逻辑的下文了。
你突然被叫醒回答领导问题的时候,不也努力胡说八道,试图不出丑但反倒引得同事哄堂大笑了么…

RPA

RPA(Robotic ProcessAutomation)是一种利用机器人技术和软件自动化流程的工具,可以帮助企业快速实现业务流程的自动化,提高效率和准确性,减少人工干预。例如,RPA机器人可以模拟人类的操作,从一个应用程序抓取数据,然后输入到另一个应用程序中,从而实现流程自动化。

RPA的工作原理是通过模仿人类的操作,使用各种工具和技术,自动化日常的流程和任务,例如数据录入、文件审批、客户服务等。使用RPA可以减少人力成本,提高效率和准确性,同时还可以减少人为错误和时间浪费,实现更高效、更智能的工作流程。

在未来,RPA将进一步发展,与人工智能、大数据等技术相结合,实现更高级别的自动化和智能化。例如,未来的RPA机器人可以在复杂的环境中进行自主决策和行动,实现真正的智能化自动化。同时,RPA还将在各个行业和领域得到广泛应用,包括金融、医疗、教育、零售等,为企业带来更大的价值和效益。

例如,银行可以利用RPA机器人自动处理客户服务、贷款申请、账户管理等业务流程,提高服务质量和效率。物流公司可以利用RPA机器人自动跟踪货物运输、处理订单、安排仓储等业务流程,提高物流效率和准确性。医院可以利用RPA机器人自动处理病例、药品管理、病人管理等业务流程,提高医疗服务质量和效率。

SDXL

SDXL是Stable Diffusion文本到图像模型的最新版本。它包括两种不同的模型:

  • sdxml-base-1.0:可生成1024x1024图像的基本文本到图像模型,该模型使用OpenCLIP-ViT/G和CLIP-ViT/L进行文本编码。
  • sdxml-refiner-1.0:一个图像到图像的模型,用于细化基本模型的潜在输出,可以生成更高保真度的图像。细化模型只使用OpenCLIP-ViT/G模型。

SDXL 1.0的refiner是基于OpenCLIP-ViT/G的具有6.6B参数的模型,是目前可用的较为强大的开放访问图像模型之一。
SDXL是Stable Diffusion文本到图像模型的最新版本,相对于Stable Diffusion之前的版本来说,功能确实强大了很多。根据用户研究,SDXL的性能始终超过Stable Diffusion以前所有的版本,比如SD 1.5、SD2.1。导致这种性能提升的设计选择如下:

- UNet主干架构增加了3倍。

- 两种简单而有效的附加调节技术,不需要任何形式的额外监督。

- 一个单独的基于扩散的细化模型,该模型对SDXL产生的潜在信号采用去噪处理 ,以提高样本的视觉质量。

token

在自然语言处理(NLP)中,Token通常是指在句子中代表单词或短语的字符。

例子:
你在市场上看到的任何产品,无论是食品还是电子产品,都会有一个品牌标志或名称作为其标记,这就是一个产品Token。

在自然语言处理(NLP)中,我们将单词或短语视为Token。例如,“我是一名学生”这个句子中有“我”、“是”、“一”、“名”、“学生”这五个Token。

在计算机程序中,Token通常是用于处理文本或字符的基本单位。例如,搜索引擎可以使用Token来解析文档中的单词或短语,并识别出这些单词或短语之间的关系。

Embedding

Embedding(嵌入)这个概念,就像是给电脑一个特殊的工具,让它能够理解我们说的话或者写的字。想象一下,你有一个魔法盒子,你把一个苹果放进去,盒子就会显示出苹果的颜色、形状和味道等信息。Embedding就是这个魔法盒子,它帮助电脑把我们的文字或者图片转换成电脑能理解的形式。

详细的概念介绍:

在人工智能中,Embedding是一种技术,它可以把复杂的数据(比如文字、图片)转换成电脑能够处理的数值形式。这就像是给电脑一个字典,让电脑知道每个词或者图像代表什么。比如,我们说“猫”,Embedding就会告诉电脑这个词和“动物”、“毛茸茸”、“喵喵叫”等信息有关。这样,电脑就能更好地理解我们的语言,甚至能够根据这些信息做出反应,比如生成一个关于猫的视频。

概念详细说明:

Embedding的过程就像是把一个三维的物体放在二维的纸上。我们不能直接放,但是可以通过画出这个物体的轮廓和特征来表示它。在电脑的世界里,Embedding就是通过数学的方法,把复杂的数据转换成一系列数字,这些数字包含了原始数据的关键信息。这样,电脑就可以用这些数字来进行计算和分析了。

相关应用和发展前景:

Embedding在很多领域都有应用。比如,在文本生成视频的领域,Embedding可以帮助电脑理解剧本中的文字,然后根据这些文字生成相应的视频场景。随着技术的发展,Embedding可能会变得更加智能,能够理解更复杂的语言和图像,生成更加真实和生动的视频。未来,我们可能会看到更多由电脑自动生成的电影、动画,甚至是新闻报道,让信息的传播和娱乐更加丰富多彩。

DALL·E 3

DALL-E3是由OpenAI训练的一种人工智能,其能够生成逼真的图片,模拟人类艺术家的创作过程。
例如,它可以通过训练,生成一幅人像,并且使用原始图像进行修改,例如替换面部特征或改变图像的颜色。

DALL·E3 已经内置在 ChatGPT 中,但仅限 Plus 用户使用。

DALL-E3的工作原理是,它从大量的图像数据中学习如何生成逼真的图像。通过对这些图像数据进行分析和处理,它能够理解图像中的元素,例如线条、形状、颜色等。然后,它使用这些元素来生成新的图像,以达到它的训练目标。

DALL-E3的应用非常广泛,可以用于图像编辑、修复、合成、动画等多个领域。例如,它可以用于生成电影海报、广告图片、艺术作品等。此外,DALL-E3还可以用于图像识别、自动驾驶等领域,具有非常广阔的发展前景。


AI 重塑职场竞争力行动营,有针对 Token 的详细介绍,想要系统性学习 AI,可以直接入AI重塑职场竞争力行动营-起点课堂-培养数字化产品、运营、营销人才| 人人都是产品经理旗下教育品牌

浏览量(23) | 此条目发表在未分类分类目录。将固定链接加入收藏夹。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据