在本课中,我们将深入探讨,在本课中,我们将深入探讨,评估,我们将带您了解一些,评估,我们将带您了解一些,关于如何评估rag系统的核心概念,关于如何评估rag系统的核心概念,具体来说,我们将介绍。
llm应用程序的编程评估然后我们将向您展示如何在给,定任何非结构化语料库的情况下综合生成评估数据集,定任何非结构化语料库的情况下综合生成评估数据集,让我们,让我们,现在开始我将使用笔记本来引导。
基础性,以了解如何将每个内容,基础性,以了解如何将每个内容,与真实镜头一起使用来检测,与真实镜头一起使用来检测,幻觉,此时您,幻觉,此时您,已经安装了真实镜头val和。
已经安装了真实镜头val和。
llama索引文本,所以我不会向您展示,llama索引文本,所以我不会向您展示,该步骤,您的第一步将是,该步骤,您的第一步将是,设置开放式AIAPI,设置开放式AIAPI。
密钥开放式AI密钥用于,密钥开放式AI密钥用于,完成抹布步骤并,完成抹布步骤并,使用真实镜头进行评估,使用真实镜头进行评估,因此这里有一个代码片段可以实现,因此这里有一个代码片段可以实现。
这一点,现在您已经完成了,这一点,现在您已经完成了,开放式密钥的设置,开放式密钥的设置,下一节我将快速回顾一下,使用llama索引构建查询引擎Jerry已经在第一,课中详细介绍了这一点。
我们将在,课中详细介绍了这一点,我们将在,很大程度上以该课为基础,很大程度上以该课为基础,对象,对象,我们是将导入true,我们是将导入true,类,然后我们将设置一个true对象,类。
然后我们将设置一个true对象,然后该对象将用于,然后该对象将用于,重置,重置,数据库,该数据库稍后将用于,数据库,该数据库稍后将用于,记录,记录,LlamaIndex,LlamaIndex。
应用程序的提示响应中间结果以及,应用程序的提示响应中间结果以及,我们将,我们将,使用true,使用true,阅读器,以便,阅读器,以便,上帝的这段代码从Andrew编写的。
上帝的这段代码从Andrew编写的,关于如何在AI领域建立职业生涯的目录中读取此PDF文档,关于如何在AI领域建立职业生涯的目录中读取此PDF文档,然后将此,然后将此。
数据加载到此文档对象中下一步,数据加载到此文档对象中下一步,是将,是将,所有这些内容合并到一个,所有这些内容合并到一个,大文档中,而不是,大文档中,而不是,每页一个文档(这是默认。
每页一个文档(这是默认。
设置)接下来我们,设置)接下来我们。
利用一些Llama索引,利用一些Llama索引,实用程序设置句子索引,以便您可以在这里看到,我们,实用程序设置句子索引,以便您可以在这里看到,我们,使用,温度为,温度为,0。
1的开放AIGPD3。5涡轮作为将用于,0。1的开放AIGPD3。5涡轮作为将用于。
完成,完成,rag的llm,嵌入模型设置为BGE,rag的llm,嵌入模型设置为BGE,小,版本,小,版本,1。5,所有这些内容都被,1。5,所有这些内容都被。
索引接下来,通过句子索引,索引接下来,通过句子索引,对象,对象,我们设置了句子窗口,我们设置了句子窗口,引擎,这是,引擎,这是,稍后将用于,稍后将用于,从该高级rag,从该高级rag。
应用程序进行有效检索的查询引擎,现在我们已经,应用程序进行有效检索的查询引擎,现在我们已经,为基于句子窗口的rag设置了查询引擎,为基于句子窗口的rag设置了查询引擎,让我们看看通过实际。
让我们看看通过实际。
询问一个具体问题来实际操作如何,询问一个具体问题来实际操作如何,创建AI投资组合这将,创建AI投资组合这将,返回一个完整的对象,其中包含,返回一个完整的对象,其中包含,来自,来自。
llm的最终响应、检索到的上下文的中间片段,llm的最终响应、检索到的上下文的中间片段。
以及一些其他,以及一些其他,元数据让我们看看,元数据让我们看看。
像这样,在这里你可以看到,像这样,在这里你可以看到,从这句话,从这句话,基于窗口的抹布中得出的最终响应,它,基于窗口的抹布中得出的最终响应,它,在,在,表面上为“如何,表面上为“如何。
创建人工智能投资组合”这个问题提供了一个很好的答案,稍后我们,创建人工智能投资组合”这个问题提供了一个很好的答案,稍后我们,将看到如何评估这个答案,现在我们有,现在我们有,一个对此,一个对此。
问题的回答示例,表面上看起来相当不错,问题的回答示例,表面上看起来相当不错,我们将看到如何利用,我们将看到如何利用,反馈功能,例如现在我们已经设置了基于句子窗口的拖动应用程序。
现在我们可以使用rag,反馈功能,例如现在我们已经设置了基于句子窗口的拖动应用程序,现在我们可以使用rag,Triad来更深入地评估这种响应,Triad来更深入地评估这种响应,识别故障模式。
识别故障模式。
并建立信心或迭代以,并建立信心或迭代以,改进llm,改进llm,应用程序,让我们看看如何使用,让我们看看如何使用,rag,rag。
Triad来评估它首先,我们将做一些,Triad来评估它首先,我们将做一些,内务处理,第一步,内务处理,第一步,是这段代码片段,它让我们,是这段代码片段,它让我们。
从笔记本内部启动一个流盖仪表板,从笔记本内部启动一个流盖仪表板,稍后您将看到,稍后您将看到,我们将使用该仪表板来,我们将使用该仪表板来,查看结果评估并,查看结果评估并,运行实验来查看不同的。
运行实验来查看不同的,应用程序选择,看看哪个应用程序,应用程序选择,看看哪个应用程序,做得更好,我们初始化iiz打开AIGPD,做得更好,我们初始化iiz打开AIGPD,3。
幻灯片和笔记本之间来回切换,以便首先为,幻灯片和笔记本之间来回切换,以便首先为。
您提供完整的,您提供完整的。
一般地说,反馈函数,在,在。
审查llm应用程序输入输出后提供0到1的分数和,审查llm应用程序输入输出后提供0到1的分数和,中间,中间,结果现在让我们,结果现在让我们,使用答案,使用答案。
我们正在使用来自开放AI的llm来,我们正在使用来自开放AI的llm来,实现这些反馈,实现这些反馈,函数请注意,反馈功能,函数请注意,反馈功能,不一定要,不一定要。
使用llms来实现,我们还可以使用Bert模型,使用llms来实现,我们还可以使用Bert模型,和其他类型的机制来,和其他类型的机制来,实现反馈功能,我将,实现反馈功能,我将。
我们给它一个名称,一个人类,功能,我们给它一个名称,一个人类,可读的名称,稍后将显示在,可读的名称,稍后将显示在,我们的评估仪表板中,对于这个,我们的评估仪表板中,对于这个,特定的反馈功能,我们。
特定的反馈功能,我们,在用户输入上运行它用户查询,在用户输入上运行它用户查询,它还将应用,它还将应用,程序的最终输出或响应作为输入,因此给定,程序的最终输出或响应作为输入,因此给定,用户问题和。
用户问题和,rag的最终答案,此反馈功能将,rag的最终答案,此反馈功能将,利用llm,利用llm,提供程序(例如openAIGPD,提供程序(例如openAIGPD,3。
5)来得出分数了解,3。5)来得出分数了解。
现在让我们。
函数,我们将导入,我们将导入,反馈,反馈,类然后我们设置我们刚刚讨论的,类然后我们设置我们刚刚讨论的。
功能访问输入(即,功能访问输入(即。
提示)和输出(即,提示)和输出(即,来自rag,来自rag,应用程序的最终响应)稍后在笔记本中进行设置,应用程序的最终响应)稍后在笔记本中进行设置,我们将看到如何,我们将看到如何。
并,并,进行评估该,进行评估该。
我们还与此,或提示,我们还与此,反馈函数共享一个指向检索,反馈函数共享一个指向检索,上下文的指针,该检索上下文是,上下文的指针,该检索上下文是,执行rag应用程序的中间结果。
反馈功能中我们只使用了,反馈功能中我们只使用了,原始输入以及,此反馈函数中抹布的最终响应,我们,此反馈函数中抹布的最终响应,我们,利用用户的输入或提示,利用用户的输入或提示,以及中间结果检索。
以及中间结果检索,上下文集来,上下文集来,评估,评估,这两个示例之间的检索质量,这两个示例之间的检索质量,反馈函数的全部功能,反馈函数的全部功能,通过使用rag应用程序的输入输出和。
通过使用rag应用程序的输入输出和,中间结果,中间结果。
来评估其,来评估其,质量现在我们已经有了上下文,质量现在我们已经有了上下文,选择设置,我们可以。
反馈函数它获取输入,反馈函数它获取输入。
提示检索上下文片段集,提示检索上下文片段集,它运行评估,它运行评估,每个检索上下文片段的函数,每个检索上下文片段的函数,分别获取每个片段的分数,分别获取每个片段的分数。
然后对它们进行平均以报告最终的,然后对它们进行平均以报告最终的,连接分数。现在,连接分数。现在,如果您愿意,您还可以使用一个附加变体,如果您愿意,您还可以使用一个附加变体,除了报告,除了报告。
你可以看到,的例子,你可以看到,这里的问题或用户提示,这里的问题或用户提示。
评估llm上调用了思想链推理,所以它,评估llm上调用了思想链推理,所以它,提供了,提供了,为什么分数是这样的理由。为什么分数是这样的理由。0。7现在让我向您展示,0。7现在让我向您展示。
用于设置接地反馈,用于设置接地反馈,功能的代码片段,我们以,功能的代码片段,我们以,与之前,与之前,利用llm提供程序进行评估的反馈功能大致相同的方式启动它。
利用llm提供程序进行评估的反馈功能大致相同的方式启动它。
3。5,那么我们定义接地,3。5,那么我们定义接地,反馈这个定义在,反馈这个定义在,结构上与,结构上与。
度量带有思想链,度量带有思想链,原因,证明分数的合理性,就像,原因,证明分数的合理性,就像,我在幻灯片上讨论的那样,我们给它,我在幻灯片上讨论的那样,我们给它,命名为“接地性”,它很容易。
命名为“接地性”,它很容易。
汇总平均以产生,完整的最终接地分数,完整的最终接地分数,响应这里的上下文选择与,用于设置上下文,用于设置上下文。
抹布的检索步骤中获取一组检索到的上下文片段,然后可以访问其中的每个节点,然后可以访问其中的每个节点,列表,列表,从该节点恢复上下文的文本,并继续,从该节点恢复上下文的文本,并继续,使用它来进行上下文。
评估,我们,评估,我们。
看看它们的表现如何,以及它们是否有机会进一步迭代和,以及它们是否有机会进一步迭代和,改进它们,改进它们,现在让我们看看,现在让我们看看。
工作流程为了评估和迭代以,工作流程为了评估和迭代以,改进llm应用程序,我们将从上一课中介绍的,改进llm应用程序,我们将从上一课中介绍的,基本llama指数抹布开始。
然后我们将使用,高级抹布技术迭代基本抹布,高级抹布技术迭代基本抹布,Llama索引句子窗口抹布接下来我们,Llama索引句子窗口抹布接下来我们,将使用。
尝试填补这些空白这会,尝试填补这些空白这会,导致失去,导致失去,基础性最后,我们将尝试,基础性最后,我们将尝试,不同的窗口大小,以,不同的窗口大小,以,找出哪种窗口大小会产生最佳。
导致,最终响应中,导致。
我们笔记本中的基础性这三个都是,我们笔记本中的基础性这三个都是,通过llm,通过llm,评估来实现的,我确实想指出,评估来实现的,我确实想指出,反馈功能可以,反馈功能可以,通过不同的,通过不同的。
方式来实现,我们经常看到从业者,方式来实现,我们经常看到从业者,从基础事实评估开始,从基础事实评估开始,收集这些评估可能会很昂贵,但仍然是一个,收集这些评估可能会很昂贵,但仍然是一个,很好的,很好的。
起点,我们也看到,起点,我们也看到,人们利用人类来进行,人们利用人类来进行,评估,这也是有帮助和,评估,这也是有帮助和,有意义的,但在实践中很难扩展,有意义的,但在实践中很难扩展。
地面真实评估只是为了给,地面真实评估只是为了给,你一个具体的,你一个具体的,例子想想一个总结用,例子想想一个总结用,例,其中有一个大段落,例,其中有一个大段落,然后法学硕士会产生,然后法学硕士会产生。
一个人类专家会产生的总结然后给,一个人类专家会产生的总结然后给,该摘要一个分数,表明它有多好,该摘要一个分数,表明它有多好,这也可以用于其他类型,这也可以用于其他类型,的用例,例如聊天机器人之类的。
的用例,例如聊天机器人之类的,用例,甚至分类,用例,甚至分类,用,用,例。人类评估在某些,例。人类评估在某些,方面与vals的基本事实相似,因为,方面与vals的基本事实相似,因为。
llm产生一个输出,或者rag,llm产生一个输出,或者rag,应用程序产生一个输出,应用程序产生一个输出,该应用程序的人类用户将,该应用程序的人类用户将,为该输出提供一个评级,它有多。
为该输出提供一个评级,它有多,好,与真实水平的区别,好,与真实水平的区别,在于,这些人类用户,在于,这些人类用户,可能不是这方面的专家。可能不是这方面的专家。作为产生,作为产生,策划的基本事实。
策划的基本事实,评估的主题,它仍然是一个非常,评估的主题,它仍然是一个非常,有意义的评估,它的规模会,有意义的评估,它的规模会,比基本事实值更好一些,比基本事实值更好一些,但我们对其的置信度。
但我们对其的置信度,较低,较低,研究文献中的一个非常有趣的结果,研究文献中的一个非常有趣的结果,是:如果你让一组,是:如果你让一组,人对一个问题进行评分,大约有,人对一个问题进行评分,大约有。
80%的人同意,有趣的,80%的人同意,有趣的,是,当你使用llm进行,是,当你使用llm进行,评估时,llm,评估时,llm,评估和人类评估之间的一致性,评估和人类评估之间的一致性。
也约为80%到85%,因此这,也约为80%到85%,因此这,表明llm评估与应用它们的,基准数据集的人类评估相当相似,因此反馈函数为我们提供了,因此反馈函数为我们提供了。
一种以编程方式扩展评估的方法,一种以编程方式扩展评估的方法,除了,除了,llm评估之外,您已经,llm评估之外,您已经,看到反馈函数也提供了可以,看到反馈函数也提供了可以。
beimp可以实现传统的NLP,beimp可以实现传统的NLP。
指标,例如rou分数和blue,指标,例如rou分数和blue,分数,它们在某些情况下可能会有所帮助,分数,它们在某些情况下可能会有所帮助,但它们的一个弱点,但它们的一个弱点。
是它们非常注重语法,是它们非常注重语法。
它们会寻找,它们会寻找,两段文本中的两个单词之间的重叠,两段文本中的两个单词之间的重叠,例如,如果你有一段,例如,如果你有一段,文本指的是河岸,文本指的是河岸,另一段文本指的是金融银行,从。
另一段文本指的是金融银行,从,语法上讲,它们可能被视为,语法上讲,它们可能被视为,相似,并且这些引用最终可能会被,传统的NLP,传统的NLP,评估视为相似的引用,而舍入上下文,评估视为相似的引用。
而舍入上下文,将习惯于,将习惯于,当您使用,当您使用,大型语言模型(例如GPD,大型语言模型(例如GPD,4)或中型语言模型(例如,4)或中型语言模型(例如。
鸟类模型)时,提供更有意义的评估,并执行,鸟类模型)时,提供更有意义的评估,并执行,评估,同时在课程中我们为,评估,同时在课程中我们为,您提供了三个反馈,您提供了三个反馈,函数和,函数和。
正在构建的应用程序是诚实无害,正在构建的应用程序是诚实无害,且有用的,这些都可以在,且有用的,这些都可以在,开源库中找到,我们,开源库中找到,我们,鼓励您在工作时使用它们,鼓励您在工作时使用它们。
通过课程并,通过课程并。
构建您的llm,构建您的llm,应用程序现在我们已经设置了所有,应用程序现在我们已经设置了所有,反馈功能,我们可以设置一个,反馈功能,我们可以设置一个。
对象来开始记录,该对象将,对象来开始记录,该对象将,用于记录,用于记录。
应用程序在各种,应用程序在各种,记录上的执行情况,因此您将在这里看到我们,记录上的执行情况,因此您将在这里看到我们,导入这个真正的Lama类,导入这个真正的Lama类。
通过这个真正的Lama类的记录器创建一个对象,通过这个真正的Lama类的记录器创建一个对象,这是我们将,这是我们将,真实镜头与llama索引的集成,它,真实镜头与llama索引的集成。
它,从,从,我们之前创建的Lama索引中获取句子窗口引擎,设置,我们之前创建的Lama索引中获取句子窗口引擎,设置,应用程序ID并利用这三个。
之前创建的ragTriad的反馈函数这个真正的记录器对象将,之前创建的ragTriad的反馈函数这个真正的记录器对象将,稍微用于,稍微用于,运行Llama索引,运行Llama索引。
应用程序以及,应用程序以及,这些反馈函数的评估,这些反馈函数的评估。
数据库中,现在让我们加载,数据库中,现在让我们加载,设置中的一些评估问题评估,设置中的一些评估问题评估,问题已在此文本文件中设置,问题已在此文本文件中设置,然后我们只需执行此,然后我们只需执行此。
代码即可加载它们,代码即可加载它们。
让我们快速浏览一下,让我们快速浏览一下,评估的这些问题可以看到关键是什么,评估的这些问题可以看到关键是什么,在,在,人工智能等方面建立职业生涯,您可以自己编辑此文件,人工智能等方面建立职业生涯。
您可以自己编辑此文件,并添加您自己的问题,并添加您自己的问题,您可能希望从安德鲁那里获得答案,您可能希望从安德鲁那里获得答案,或者您也可以通过这种方式直接附加到,或者您也可以通过这种方式直接附加到。
EV问题列表,现在让我们看一下,EV问题列表,现在让我们看一下,Val问题列表,Val问题列表,您可以看到这个问题已,您可以看到这个问题已,添加到最后,继续添加,添加到最后,继续添加,您自己的。
您自己的,问题,现在我们已经完成了所有设置,可以,使用此代码来执行此笔记本中最令人兴奋的步骤,我们,使用此代码来执行此笔记本中最令人兴奋的步骤,我们,可以执行我们刚刚查看的,可以执行我们刚刚查看的。
评估问题列表中的每个问题的句子窗口引擎。
然后使用真实记录器,我们将,然后使用真实记录器,我们将,针对抹布三合会运行每条记录,我们,针对抹布三合会运行每条记录,我们,将在真实数据库中记录提示响应,将在真实数据库中记录提示响应,中间结果和评估。
中间结果和评估。
反馈并执行此代码,反馈并执行此代码,片段来查看笔记本中的日志,我不希望您,片段来查看笔记本中的日志,我不希望您。
一定要阅读通过,一定要阅读通过。
这里的所有信息,我想说的要点,这里的所有信息,我想说的要点,是,您可以看到,是,您可以看到。
仪器和应用程序的深度,仪器和应用程序的深度。
通过,通过,真实,真实,记录器记录大量信息,并且这些围绕,记录器记录大量信息,并且这些围绕。
提示、响应、评估结果,提示、响应、评估结果,等的信息可能非常有价值为了,等的信息可能非常有价值为了,识别应用程序中的故障模式并,识别应用程序中的故障模式并。
通知应用程序的迭代和改进,通知应用程序的迭代和改进,所有这些信息都,所有这些信息都。
以灵活的Json格式提供,因此,以灵活的Json格式提供,因此。
它们可以由下游进程导出和使用,它们可以由下游进程导出和使用。
接下来让我们看一些,接下来让我们看一些,更易于理解的提示格式,更易于理解的提示格式。
使用此代码进行响应和反馈函数评估,您,使用此代码进行响应和反馈函数评估,您,可以看到,对于每个输入提示或,可以看到,对于每个输入提示或,问题,我们都会看到输出以及,问题,我们都会看到输出以及。
这是针对问题列表中的每个条目运行的,这是针对问题列表中的每个条目运行的,在评估,在评估,非核心,非核心。
问题中。问题中。你可以在这里看到的文本最后一个问题,你可以在这里看到的文本最后一个问题,是我如何才能在,是我如何才能在。
人工智能方面取得成功,这是我在最后手动,人工智能方面取得成功,这是我在最后手动。
有时在运行评估时,有时在运行评估时,你可能会看到一个可能会发生的问题,你可能会看到一个可能会发生的问题。
因为API高尔夫faur你会只是,因为API高尔夫faur你会只是。
想要重新运行它以确保,想要重新运行它以确保。
执行成功,执行成功,完成我刚刚向您展示了评估的记录,完成我刚刚向您展示了评估的记录,级别,级别,视图提示,视图提示,响应和,响应和,评估现在让我们,评估现在让我们。
在排行榜中获得一个聚合视图,在排行榜中获得一个聚合视图,该视图聚合所有,该视图聚合所有,这些单独的记录并生成,这些单独的记录并生成,平均值,平均值,该数据库中10条记录的得分,以便您可以。
该数据库中10条记录的得分,以便您可以,在排行榜中看到我们,所说的所有10条记录的聚合视图应用程序id2app1,所说的所有10条记录的聚合视图应用程序id2app1。
应用程序询问的10条记录,然后成本是,应用程序询问的10条记录,然后成本是,这10条记录中以美元为单位的总成本,这10条记录中以美元为单位的总成本,获取此,获取此,聚合视图非常有用。
可以了解您的应用程序的性能,聚合视图非常有用,可以了解您的应用程序的性能。
以及,以及,延迟和成本水平,延迟和成本水平,TRLens还提供了,TRLens还提供了,一个本地简化的应用程序仪表板,一个本地简化的应用程序仪表板,您可以使用它检查正在构建的应用程序。
您可以使用它检查正在构建的应用程序,查看,查看,评估结果深入到,评估结果深入到,记录级别,记录级别,视图中,以获得有关您的性能的汇总和详细,视图中,以获得有关您的性能的汇总和详细。
评估视图,评估视图,应用程序,这样我们就可以让仪表板,应用程序,这样我们就可以让仪表板,与真实情况一致。运行仪表板,与真实情况一致。运行仪表板,方法,这会,方法,这会,在某个,在某个。
该,仪表板,您可以在此处看到聚合,仪表板,您可以在此处看到聚合,视图应用程序性能11条记录,视图应用程序性能11条记录,由应用程序处理并进行了评估,由应用程序处理并进行了评估。
评估视图,您,评估视图,您。
可以看到用户输入的每条记录提示,可以看到用户输入的每条记录提示,响应有,响应有。
令牌总数和总,令牌总数和总,成本让我选择一行,其中llm,成本让我选择一行,其中llm,表示评估,表示评估。
表明呃,表明呃。
llmrag应用程序做得很好,llmrag应用程序做得很好,让我们在单击AR后选择这一行,让我们在单击AR后选择这一行。
可以向下滚动并从表格中更,可以向下滚动并从表格中更,详细地了解,详细地了解,该行的不同组件,因此,该行的不同组件,因此,这里的问题提示是,这里的问题提示是,成为擅长人工智能的第一步是什么。
成为擅长人工智能的第一步是什么,抹布的最终回应是,抹布的最终回应是。
8,检索到的,检索到的,两条上下文都分别获得了0。8的分数,两条上下文都分别获得了0。8的分数,我们可以看到,我们可以看到,llm评估在检索步骤中对来自rag的。
llm评估在检索步骤中对来自rag的,特定uh响应给出0。8uh分数的思想链原因。
然后在下面你,然后在下面你,可以看到基础性评估,所以,可以看到基础性评估,所以,这是最终答案中的条款之一,这是最终答案中的条款之一。
呃它得到了一分,呃它得到了一分,在这里是该分数的原因你,在这里是该分数的原因你,可以看到这是陈述句,可以看到这是陈述句,和支持,和支持,证据支持它所以它,证据支持它所以它。
在0到1的范围内得到1分满分,在0到1的范围内得到1分满分。
或者在0到10的范围内得到10分满分,或者在0到10的范围内得到10分满分,所以之前,所以之前。
我们,我们,通过幻灯片和笔记本讨论的推理和信息现在,通过幻灯片和笔记本讨论的推理和信息现在,你可以看到在,你可以看到在。
完整的Json,完整的Json,对象,现在让我们看一个示例,对象,现在让我们看一个示例,其中抹布做得不太好,所以我,其中抹布做得不太好,所以我,查看评估,我看到这一,查看评估,我看到这一。
行的接地性分数为0。5,行的接地性分数为0。5。
所以让我们点击该行,显示,所以让我们点击该行,显示,此,此,示例。问题是利他主义如何有,示例。问题是利他主义如何有,利于建立职业生涯,利于建立职业生涯。
答案是,如果我向下滚动,答案是,如果我向下滚动,到接地性,到接地性,评估然后,呃,这两个,评估然后,呃,这两个,句子和最后的回答都有,句子和最后的回答都有。
较低的接地性分数,让我们选择其中一个,较低的接地性分数,让我们选择其中一个,看看为什么接地性,看看为什么接地性,分数很低,这样你就可以看到,分数很低,这样你就可以看到,整体回答被分解为。
整体回答被分解为,四个陈述,前两个是,四个陈述,前两个是,好的但最后两个,好的但最后两个,在检索上下文方面没有很好的支持证据,在检索上下文方面没有很好的支持证据,特别是如果你,特别是如果你,看最后。
看最后,一个,法学硕士的最终输出表明,一个,法学硕士的最终输出表明,另外练习利他主义可以,另外练习利他主义可以,有助于个人成就感和,有助于个人成就感和,使命感,从而增强,使命感,从而增强。
动力整体幸福感,动力整体幸福感,最终有利于一个人的职业,最终有利于一个人的职业,成功,虽然情况很可能是,成功,虽然情况很可能是,这样,但,这样,但,在检索到的上下文中没有发现支持证据来。
在检索到的上下文中没有发现支持证据来,支持该陈述,支持该陈述,这就是为什么我们的,这就是为什么我们的,低分,您可以考虑一下,低分,您可以考虑一下,仪表板并探索一些,仪表板并探索一些,其他示例,其中。
其他示例,其中,llm呃最终的rag,llm呃最终的rag,输出uh表现不佳,无法很好地了解,当您使用rag应用程序时非常常见的故障模式,当您使用rag应用程序时非常常见的故障模式。
其中一些将得到,其中一些将得到,解决当我们进入有关,解决当我们进入有关,更先进的拖动,更先进的拖动,技术的课程时,这些技术可以在,技术的课程时,这些技术可以在。
解决这些故障模式方面做得更好,解决这些故障模式方面做得更好,第二课是一个总结,在下一,第二课是一个总结,在下一,课中,我们将介绍,课中,我们将介绍,基于句子窗口的,基于句子窗口的。
检索机制和先进的机架技术,检索机制和先进的机架技术,并且向您展示如何评估,并且向您展示如何评估,利用。
在本课中,我们将深入研究,在本课中,我们将深入研究。
然后基于,然后基于,句子周围的扩展上下文窗口进行合成,让我们,句子周围的扩展上下文窗口进行合成,让我们,看看如何针对某些,看看如何针对某些。
上下文进行设置标准的rag管道使用,上下文进行设置标准的rag管道使用,相同的文本主干进行嵌入,相同的文本主干进行嵌入,和合成问题是,和合成问题是,嵌入基本检索通常,嵌入基本检索通常。
适用于较小的块,而AL,适用于较小的块,而AL,L需要更多的上下文和更大的块,L需要更多的上下文和更大的块,来合成一个好的答案,来合成一个好的答案。
句子窗口检索的作用是将,句子窗口检索的作用是将,两者解耦,我们首先嵌入,两者解耦,我们首先嵌入,较小的块或句子并将,较小的块或句子并将,它们存储在向量数据库中我们还在。
相似性搜索来查找问题,然后用。
完整的周围上下文替换句子,完整的周围上下文替换句子,这使我们能够在,这使我们能够在,输入到Ln后扩展上下文,以便回答,输入到Ln后扩展上下文,以便回答,问题本笔记本将介绍。
构建句子窗口检索器所需的各种组件,构建句子窗口检索器所需的各种组件,通过wo索引,通过wo索引,最后将详细介绍各种组件,然后,最后将详细介绍各种组件,然后,将向您展示如何使用。
将向您展示如何使用,trueArrow进行参数实验和评估,trueArrow进行参数实验和评估,这与您,这与您,在之前的课程中使用的设置相同,因此请,在之前的课程中使用的设置相同,因此请。
对于这个快速入门,您需要一个,类似于之前课程的开放密钥,这个,类似于之前课程的开放密钥,这个,开放的AI密钥用于嵌入呃,开放的AI密钥用于嵌入呃。
部分,现在我们设置并检查我们的,部分,现在我们设置并检查我们的,文档以用于迭代和与,文档以用于迭代和与,第一课类似的实验,第一课类似的实验,我们鼓励您上传,我们鼓励您上传,自己的PDF文件。
自己的PDF文件,在我们加载《,在我们加载《。
电子书》之前,它与之前的文档相同,因此我们,电子书》之前,它与之前的文档相同,因此我们,看到它是一个文档列表,看到它是一个文档列表,有41,有41,页,对象模式是文档,页,对象模式是文档,对象。
这是第一页的一些示例文本。
接下来的部分我们将把它们合并,接下来的部分我们将把它们合并,到一个文档中,因为,到一个文档中,因为。
在,在,使用更高级的,使用更高级的。
现在让我们设置句子窗口,现在让我们设置句子窗口,批准方法,我们将详细介绍如何,批准方法,我们将详细介绍如何,进行更深入的设置,我们将从,进行更深入的设置,我们将从,窗口大小为3和顶部K。
窗口大小为3和顶部K,6开始,首先导入我们将调用,6开始,首先导入我们将调用。
句子窗口节点,句子窗口节点,解析器句子窗口节点解析器,解析器句子窗口节点解析器,是一个对象,它将把文档分割,是一个对象,它将把文档分割,成单独的句子,然后,成单独的句子,然后。
用该句子周围的上下文来扩充每个句子块,在这里我们,在这里我们,我们看到包含,我们看到包含,三个句子的文本被分成三个,三个句子的文本被分成三个,节点每个节点包含一个,节点每个节点包含一个,句子。
元数据包含,句子,元数据包含,该句子周围的更大窗口,该句子周围的更大窗口,我们将在此处显示第二,我们将在此处显示第二,个注释的元,个注释的元,数据,您会看到该元数据包含,数据,您会看到该元数据包含。
原始句子,但也包含,原始句子,但也包含,之前和之后发生的句子我们,之前和之后发生的句子我们,鼓励您也尝试自己的文本,鼓励您也尝试自己的文本,例如,让我们,例如,让我们。
在这个示例文本中尝试类似的操作,让我们看一下,第一个注释的周围元数据,因为窗口大小是,第一个注释的周围元数据,因为窗口大小是,3呃,我们有两个额外的Adent,3呃,我们有两个额外的Adent。
节点发生在前面,当然,节点发生在前面,当然,后面没有,因为它是第一个,后面没有,因为它是第一个。
节点,所以我们看到我们有原始,节点,所以我们看到我们有原始,句子或hello,还有Fubar和,句子或hello,还有Fubar和,catdog下一步实际上是构建。
catdog下一步实际上是构建,索引,我们要做的第一件事是设置一个,索引,我们要做的第一件事是设置一个,集合建立一个Ln在这种情况下,我们将使用开放,集合建立一个Ln在这种情况下。
我们将使用开放。
AIum,特别是gpt35Turbo,AIum,特别是gpt35Turbo,0。1下一步是设置一个服务,0。1下一步是设置一个服务,上下文对象,提醒一下,它是一个,上下文对象。
提醒一下,它是一个,包装器对象,其中包含,包装器对象,其中包含,索引所需的所有上下文,包括,索引所需的所有上下文,包括。
解析器请注意,解析器请注意,我们指定的嵌入模型是BGE小模型,我们指定的嵌入模型是BGE小模型,我们实际上,我们实际上,从拥抱面部下载并在本地运行它,这是一个,从拥抱面部下载并在本地运行它。
下面的注释中进行了编码,下一步是使用,下面的注释中进行了编码,下一步是使用,源文档设置向量索引,源文档设置向量索引,因为我们已将节点解析器定义为,因为我们已将节点解析器定义为,服务上下文的一部分,这。
服务上下文的一部分,这,将是什么它将把源,将是什么它将把源,文档转换成一系列,文档转换成一系列,由周围上下文增强的句子,由周围上下文增强的句子,并将其嵌入并将其加载到,并将其嵌入并将其加载到,向量。
向量,存储中,我们可以将索引保存到dis中,存储中,我们可以将索引保存到dis中,以便您以后可以加载它,而无需,以便您以后可以加载它,而无需。
重建,重建,它(如果您已经这样做了)已经构建了索引,它(如果您已经这样做了)已经构建了索引,并保存了它,并且您不想重建,并保存了它,并且您不想重建,它,这里有一个方便的阻止程序代码,它。
这里有一个方便的阻止程序代码,允许您从现有文件加载索引(,允许您从现有文件加载索引(,如果存在),否则,如果存在),否则,它将构建,它将构建,它索引现在已构建下一步,它索引现在已构建下一步。
是一个设置并运行查询,是一个设置并运行查询,首先我们要做的是定义我们,首先我们要做的是定义我们,所说的元数据替换后,所说的元数据替换后,处理器,它采用存储,处理器,它采用存储。
在元数据中的值并用该值替换节点文本,在元数据中的值并用该值替换节点文本,因此这是,因此这是,在检索后完成的noes,在将,在检索后完成的noes,在将,noes发送到,noes发送到。
通过,通过,句子窗口节点解析器创建的节点来了解它是如何工作的,我们可以,句子窗口节点解析器创建的节点来了解它是如何工作的,我们可以。
测试这个,测试这个,后处理器注意,我们对原始节点进行了备份,后处理器注意,我们对原始节点进行了备份,让我们看一下,让我们看一下,再次,再次,很棒,现在让我们,很棒,现在让我们,句子之上应用后处理器。
如果我们现在看一下,句子之上应用后处理器,如果我们现在看一下,第二个节点的文本,第二个节点的文本,我们会发现它已被替换为,我们会发现它已被替换为,完整的上下文,包括当前节点,完整的上下文,包括当前节点。
之前和之后发生的句子,之前和之后发生的句子,下一步是添加,下一步是添加,句子Transformer排名模型,这,句子Transformer排名模型,这,需要查询和检索节点,并。
noes重新评分并返回较小的顶端,因此,noes重新评分并返回较小的顶端,因此,过滤出较小的集合。过滤出较小的集合。
重新排名器的示例是BGE排名器基础,这是,重新排名器的示例是BGE排名器基础,这是,基于Bings中的BGE的排名器,该,基于Bings中的BGE的排名器,该,字符串代表来自。
字符串代表来自,拥抱面孔的模型名称,您可以找到有关该,拥抱面孔的模型名称,您可以找到有关该,模型的更多详细信息,模型的更多详细信息,让我们看看这个reer是如何工作的。
让我们看看这个reer是如何工作的,我们将输入一些玩具数据,然后看看,我们将输入一些玩具数据,然后看看,排名器如何将,排名器如何将,初始节点集实际排名到一组新的,初始节点集实际排名到一组新的。
noes让我们假设原始查询是,noes让我们假设原始查询是,我想要一只,我想要一只,狗并且初始分数节点集,狗并且初始分数节点集,是这是一只得分为0。6的猫,是这是一只得分为0。6的猫。
然后这是一只得分为,然后这是一只得分为,0。4的狗,直观上您会期望,0。4的狗,直观上您会期望,第二个节点实际上具有更高的,第二个节点实际上具有更高的,得分,因此它与查询更匹配,得分。
因此它与查询更匹配,进入这里,我们可以看到reer正确地,进入这里,我们可以看到reer正确地,出现并了解狗,并给,出现并了解狗,并给。
我们选择的高端山谷更大的相似度顶部蛋糕对于排序器,我们选择的高端山谷更大的相似度顶部蛋糕对于排序器,为了给排序器一个公平的机会,为了给排序器一个公平的机会,来显示正确的信息,我们将。
来显示正确的信息,我们将,topk设置为6,将topend,topk设置为6,将topend,设置为2,这意味着我们首先,设置为2,这意味着我们首先。
使用句子窗口检索来获取6个最相似的tr,使用句子窗口检索来获取6个最相似的tr,然后,然后,我们将。
现在我们已经设置了完整的查询入口,使用句子排序器过滤前两个最重要的块,现在我们已经设置了完整的查询入口,使用句子排序器过滤前两个最重要的块,让我们运行一个,让我们运行一个,基本,基本。
示例让我们对该,示例让我们对该,数据集提出一个问题在人工智能领域建立职业生涯的关键是什么,然后我们回到我们看到,然后我们回到我们看到,最后的回应是,最后的回应是。
在人工智能领域建立职业生涯的关键是,在人工智能领域建立职业生涯的关键是,学习,学习,在项目上工作的基础技术技能,并找到一个,在项目上工作的基础技术技能,并找到一个。
下降点,因为我们已经有了句子,下降点,因为我们已经有了句子,窗口查询引擎,让我们把,窗口查询引擎,让我们把,所有的东西放在一起,我们会投入很多将,所有的东西放在一起,我们会投入很多将。
代码放入此笔记本单元格中,但请注意,代码放入此笔记本单元格中,但请注意,这与,这与,utilzapi文件中的函数本质上相同,我们有用于,utilzapi文件中的函数本质上相同,我们有用于。
构建句子,构建句子,窗口索引的函数,我们之前在本笔记本中展示过,窗口索引的函数,我们之前在本笔记本中展示过,它包括能够,它包括能够,使用句子B节点解析器为了从,使用句子B节点解析器为了从。
文档中提取句子并,文档中提取句子并,用周围的上下文来增强它,用周围的上下文来增强它。
它包含设置,它包含设置,句子上下文或使用服务,句子上下文或使用服务,上下文对象,上下文对象,它还包括,它还包括,使用源文档,使用源文档,和包含,和包含,Aline嵌入模型的服务上下文设置向量索引。
并且不使用,Aline嵌入模型的服务上下文设置向量索引,并且不使用,第二部分,第二部分,实际上是获取没有查询的句子窗口,实际上是获取没有查询的句子窗口,我们展示的内容包括,使用元数据替换。
使用元数据替换,后处理器获取句子窗口检索器,以实际,后处理器获取句子窗口检索器,以实际,用周围的上下文替换节点,用周围的上下文替换节点。
然后最后使用重写模块来,然后最后使用重写模块来,过滤,过滤。
我们使用,我们使用,asqueryAndro,asqueryAndro,模块将所有这些结合起来,首先使用,模块将所有这些结合起来,首先使用,源,源,文档Ln以及保存,文档Ln以及保存。
目录调用构建句子窗口索引,然后调用第二个,目录调用构建句子窗口索引,然后调用第二个,函数来获取,函数来获取,现在输入的句子窗口查询您已准备好在,下一节中尝试句子窗口检索,AUD将向。
下一节中尝试句子窗口检索,AUD将向,您展示如何,您展示如何,使用句子窗口检索器实际运行评估,以便,使用句子窗口检索器实际运行评估,以便,您可以评估结果并,您可以评估结果并,实际发挥参数,并了解。
实际发挥参数,并了解,这如何影响您的性能,这如何影响您的性能,运行完这些,运行完这些,示例后,我们鼓励您添加,示例后,我们鼓励您添加,自己的问题,然后甚至定义,自己的问题,然后甚至定义。
您自己的评估基准,只是为了,您自己的评估基准,只是为了,解决这个问题并了解,解决这个问题并了解,一切是如何工作的,谢谢杰里,现在,一切是如何工作的,谢谢杰里,现在,您已经设置了句子窗口。
您已经设置了句子窗口,检索器让我们看看我们如何使用,检索器让我们看看我们如何使用,ragTriad对其进行评估,并,ragTriad对其进行评估,并。
通过实验跟踪将其性能与基本rag进行比较,通过实验跟踪将其性能与基本rag进行比较,现在让我们看看如何,现在让我们看看如何,评估和,评估和,迭代句子窗口大小,迭代句子窗口大小,参数,以在,参数。
以在,评估指标或句子质量之间做出正确的权衡,评估指标或句子质量之间做出正确的权衡,应用程序以及,应用程序以及,运行应用程序和,运行应用程序和,评估的成本,我们将逐渐增加,评估的成本,我们将逐渐增加。
句子窗口大小,首先使用,真实镜头评估这些连续的应用程序版本,并进行rag,真实镜头评估这些连续的应用程序版本,并进行rag,Triad跟踪实验,以选择最佳的,Triad跟踪实验,以选择最佳的。
句子窗口,句子窗口,大小,然后在我们进行此练习时,大小,然后在我们进行此练习时,我们需要注意,我们需要注意,令牌使用或成本之间的权衡,当我们,令牌使用或成本之间的权衡,当我们,增加窗口大小时,令牌使用。
明确依赖于检索到的上下文,明确依赖于检索到的上下文,片段进行解释,这种选择可能会,片段进行解释,这种选择可能会,导致较低的接地性分数,导致较低的接地性分数,因为回忆接地性意味着,因为回忆接地性意味着。
最终响应的组成部分应该可以,最终响应的组成部分应该可以,追溯到检索到的上下文,追溯到检索到的上下文,片段,因此我们,片段,因此我们,期望的是,随着您不断增加,期望的是,随着您不断增加。
训练阶段预先存在的知识库让我们现在尝试一下,训练阶段预先存在的知识库让我们现在尝试一下,句子窗口的,句子窗口的,大小,我将引导您完成一个笔记本,大小,我将引导您完成一个笔记本,加载一些,加载一些。
评估问题,然后逐渐增加,评估问题,然后逐渐增加,句子窗口的大小,并,句子窗口的大小,并,观察其对rag,观察其对rag。
Triad评估指标的影响。首先,我们加载一,Triad评估指标的影响。首先,我们加载一,组预先生成的评估,组预先生成的评估,问题,您可以在此处看到其中一些,问题,您可以在此处看到其中一些,列表中。
列表中,运行该,预加载的评估问题集中的每个问题的评估,预加载的评估问题集中的每个问题的评估,然后使用真正的记录器对象,然后使用真正的记录器对象,我们记录提示、响应、,我们记录提示、响应、。
应用程序的中间结果以及,应用程序的中间结果以及,真实数据库中的评估结果,真实数据库中的评估结果,调整句子,调整句子,窗口,窗口,大小参数并查看,大小参数并查看,它对不同的ragTriad。
它对不同的ragTriad,评估指标的影响我们将首先使用,此代码,此代码,片段重置真实数据库我们将句子窗口大小设置,片段重置真实数据库我们将句子窗口大小设置,为1您会注意到在本。
为1您会注意到在本,指令中其他所有内容都是,指令中其他所有内容都是,与之前相同,然后我们使用,与之前相同,然后我们使用,与该索引关联的获取句子窗口,与该索引关联的获取句子窗口。
引擎来设置句子窗口引擎,引擎来设置句子窗口引擎,接下来我们准备设置,接下来我们准备设置。
真正的记录器,将句子,真正的记录器,将句子,窗口,窗口。
响应中间结果和,结果对这些,结果对这些,反馈函数的评估将被记录到,反馈函数的评估将被记录到,真正的,真正的,数据库中,现在运行得很好,数据库中,现在运行得很好,让我们在仪表板中查看它。
让我们在仪表板中查看它,您将看到此,您将看到此,指令会显示一个本地托管的,指令会显示一个本地托管的,Streamlet应用程序,您可以单击,Streamlet应用程序,您可以单击。
链接以访问该流lit应用程序,因此,链接以访问该流lit应用程序,因此,应用程序排行榜向我们显示了我们,运行,运行,并使用真实镜头评估的所有21条记录的聚合指标。
并使用真实镜头评估的所有21条记录的聚合指标,此处的平均延迟为4。57,此处的平均延迟为4。57,秒,总成本约为2,秒,总成本约为2,美分,处理的令牌总数,美分,处理的令牌总数,约为,约为。
查看,应用程序处理,应用程序处理,并,并,评估的各个记录,如果我滚动到右侧,我可以,评估的各个记录,如果我滚动到右侧,我可以,看到一些示例,看到一些示例,应用程序,应用程序。
在这些指标上表现不佳,所以让我选择,在这些指标上表现不佳,所以让我选择,这一,这一,行,行。
然后我们,然后我们,可以更深入地,可以更深入地。
检查它是如何,检查它是如何。
做的,所以这里的问题是在,做的,所以这里的问题是在,项目选择和,项目选择和,执行的背景下解释,执行的背景下解释。
Fire中就绪和就绪之间的区别射击目标,Fire中就绪和就绪之间的区别射击目标,方法提供了示例,其中每种,方法提供了示例,其中每种,方法可能更有益,您,方法可能更有益,您。
可以在此处详细查看抹布的总体响应,可以在此处详细查看抹布的总体响应。
然后如果,然后如果。
向下滚动,我们可以看到接地,向下滚动,我们可以看到接地,上下文,上下文。
记住我们正在使用,记住我们正在使用,大小为1的句子窗口,这意味着我们,大小为1的句子窗口,这意味着我们,只在开头额外添加了一个句子,只在开头额外添加了一个句子,在结尾处额外添加了一个句子。
如果您查看,如果您查看,基础性,我们会看到,基础性,我们会看到,这两部分都检索到了,这两部分都检索到了,最终摘要中的句子,基础性,最终摘要中的句子,基础性,分数相当低,让我们选择,分数相当低。
让我们选择,基础性,基础性,分数较高的一个,它有一点更多的,分数较高的一个,它有一点更多的。
理由,如果我们看这个,理由,如果我们看这个,例子,我们会看到,例子,我们会看到,开头有几个句子,在检索到的上下文中有很好的支持证据,在检索到的上下文中有很好的支持证据,所以这里的分数很高。
所以这里的分数很高,它的分数为10范围为0到10,它的分数为10范围为0到10,但对于下面的这些句子,但对于下面的这些句子,没有支持,没有支持,证据,因此接地性,证据,因此接地性。
分数为零让我们举一个具体的,分数为零让我们举一个具体的,例子,也许这个例子据说它,例子,也许这个例子据说它,经常用于,经常用于,执行成本相对较低的情况,并且,快速迭代和适应的能力比预先。
快速迭代和适应的能力比预先,计划更重要,这确实感觉像是一段看似合理的,计划更重要,这确实感觉像是一段看似合理的,文本,可以作为对问题的,文本,可以作为对问题的,回答的一部分有用,回答的一部分有用。
但它不存在于,但它不存在于,检索到的上下文中,因此没有得到,检索到的上下文中,因此没有得到,支持根据检索到的上下文中的任何支持证据,支持根据检索到的上下文中的任何支持证据,这,这,可能是,可能是。
模型在训练,模型在训练,阶段学到的内容的一部分,其中要么来自,阶段学到的内容的一部分,其中要么来自,安德鲁的关于,安德鲁的关于,人工智能职业建议的同一文档,要么来自,人工智能职业建议的同一文档。
在这个特定实例中检索到的上下文不支持该句子,因此当,因此当,句子窗口太小而,句子窗口太小而。
其培训阶段预先存在的知识,来开始回答,来开始回答。
问题,而不是仅仅依赖于,问题,而不是仅仅依赖于,提供的上下文,现在我已经向您展示了,提供的上下文,现在我已经向您展示了,带有句子Windowsset的失败模式。
带有句子Windowsset的失败模式,对于,对于,一个,我想再执行几个,一个,我想再执行几个,步骤,看看当,步骤,看看当,我们为了快速浏览笔记本而更改句子窗口大小时,指标如何改进证明。
我将重新加载,问题的评估,但在这种情况下只需设置,问题的评估,但在这种情况下只需设置,它,它。
涉及模型遇到问题的一个问题,涉及模型遇到问题的一个问题,这个特定问题,这个特定问题,我们刚刚将句子,我们刚刚将句子,窗口大小,窗口大小,然后我想将,然后我想将,句子窗口大小设置,句子窗口大小设置。
为3中的句子来运行此Cod,为3中的句子来运行此Cod。
设置句子,设置句子,窗口大小设置为三的抹布,并为其设置,窗口大小设置为三的抹布,并为其设置,真正的录音机,除了将,除了将,句子窗口设置为,句子窗口设置为,大小,大小。
三的抹布之外,我们现在还设置了反馈功能的定义,接下来我们将使用,该eval对特定的,该eval对特定的,评估评估问题进行评估,我们已经,评估评估问题进行评估,我们已经。
通过一个句子窗口设置了一些详细信息,通过一个句子窗口设置了一些详细信息,我们观察到已。
成功运行的故障模式,现在让我们看看,成功运行的故障模式,现在让我们看看,句子窗口引擎设置,句子窗口引擎设置,为3的结果在真实镜头,为3的结果在真实镜头,仪表板中,您可以在这里看到结果,当。
57上升到0。9如果我选择应用程序并,现在从0。57上升到0。9如果我选择应用程序并。
更详细地查看此示例,更详细地查看此示例。
现在让我们看看我们在,现在让我们看看我们在,句子,句子。
窗口设置为1时查看的同一问题,现在我们处于3,窗口设置为1时查看的同一问题,现在我们处于3,如果,如果。
您查看检索到的片段,现在是完整的最终响应,您查看检索到的片段,现在是完整的最终响应,您会注意到,您会注意到,这个特定的检索上下文与,这个特定的检索上下文与。
我们,我们,之前检索的句子,之前检索的句子,窗口设置为大小一的上下文相似,但现在它具有,窗口设置为大小一的上下文相似,但现在它具有,扩展,因为,扩展,因为。
0。9,这高于,较小上下文之前获得的0。8分,较小上下文之前获得的0。8分,并且此示例表明,并且此示例表明,随着句子,随着句子,窗口,窗口,大小的扩展,即使是相当好的句子片段,一旦使用。
一旦使用,这些明显更好的上下文,这些明显更好的上下文,片段完成完成步骤,检索到的上下文就会变得更好,基础分数会上升,片段完成完成步骤,检索到的上下文就会变得更好,基础分数会上升,很多我们看到。
1,因此将句子窗口。
大小从1增加到3导致了。
ragTriad的评估指标的显着改善,ragTriad的评估指标的显着改善。
此处的指标,需要观察的几件事,是总代币数量增加了,是总代币数量增加了,如果您要增加记录数量,这可能会对成本产生影响,因此这是权衡之一,因此这是权衡之一,我之前提到过,当你增加,我之前提到过,当你增加。
句子窗口大小时,它会变得更加,句子窗口大小时,它会变得更加,昂贵,因为,昂贵,因为,在评估过程中llms正在处理更多的标记,在评估过程中llms正在处理更多的标记,另一件需要观察的事情是。
句子窗口,大小,这可能会在某个点之后发生,大小,这可能会在某个点之后发生,因为随着上下文大小的,因为随着上下文大小的,增加,增加,LLM可能会在,LLM可能会在,完成步骤中被太多。
完成步骤中被太多,信息淹没,并且在总结过程中,信息淹没,并且在总结过程中,它可以开始引入,它可以开始引入,自己预先存在的知识,自己预先存在的知识,而不仅仅是检索到的上下文中的信息,以便在这里总结一下。
以便在这里总结一下,事实证明,当我们逐渐,事实证明,当我们逐渐,将句子窗口大小从1,将句子窗口大小从1,增加到3到5时,三的大小是,增加到3到5时,三的大小是。
和基础性会增加,和基础性会增加,然后当您使用笔记本时,然后当您使用笔记本时,基础性步骤会减少或降级,基础性步骤会减少或降级,进一步增加到5的大小,我们鼓励您重新运行它,我们鼓励您重新运行它。
获得一些直觉并,围绕故障模式,围绕故障模式,发生的原因以及如何解决,发生的原因以及如何解决,这些问题建立一些直觉,在下一节中,我们将,这些问题建立一些直觉,在下一节中,我们将,研究另一种高级机架。
研究另一种高级机架,技术自动合并以解决其中一些,技术自动合并以解决其中一些。
另一种高级碎布技术自动,另一种高级碎布技术自动,天真的方法的一个问题是,天真的方法的一个问题是,您正在检索一堆碎片,您正在检索一堆碎片,上下文块以放入llm,上下文块以放入llm,上下文菜单中。
并且,上下文菜单中,并且,块越小,碎片就越严重在这里,块越小,碎片就越严重在这里,我们使用自动合并拳头将,我们使用自动合并拳头将,较小的块合并到较大的父,较小的块合并到较大的父,块中。
以帮助确保更连贯的,块中,以帮助确保更连贯的,上下文让我们看看如何设置它,上下文让我们看看如何设置它,在本节中我们将讨论自动,在本节中我们将讨论自动,合并检索初始与,合并检索初始与。
标准拖动管道是您正在,标准拖动管道是您正在,检索,检索,放入LM联系人窗口中的一堆零散的联系人数据块,放入LM联系人窗口中的一堆零散的联系人数据块,并且,并且,您的块SI越小。
碎片就越严重。例如,您,您的块SI越小,碎片就越严重。例如,您,可能会在大致相同的部分中返回两个或更多检索到的,可能会在大致相同的部分中返回两个或更多检索到的,联系人中继,联系人中继。
但实际上并不能,但实际上并不能,保证这些块的排序,保证这些块的排序,可能会潜在地妨碍,可能会潜在地妨碍,Alum,Alum。
在其上下文窗口内综合此检索上下文的能力,在其上下文窗口内综合此检索上下文的能力,因此自动合并检索,因此自动合并检索,首先执行以下操作:定义,首先执行以下操作:定义,链接到较大父干线的较小块的层次结构。
其中,链接到较大父干线的较小块的层次结构,其中,每个父,每个父,干线可以有一些编号,干线可以有一些编号,在检索期间,如果,在检索期间,如果,链接到,链接到,父块的较小块的集合超过某个百分比。
父块的较小块的集合超过某个百分比,阈值,那么我们将较小的块合并,阈值,那么我们将较小的块合并,到较大的父块中,因此我们,到较大的父块中,因此我们,检索较大的父块,检索较大的父块,以帮助确保更连贯的。
以帮助确保更连贯的。
上下文,现在让我们看看如何,上下文,现在让我们看看如何,设置此笔记本将介绍,设置此笔记本将介绍,构建具有,构建具有,llama索引的自动合并检索器所需的各种组件。
llama索引的自动合并检索器所需的各种组件,将详细介绍各种组件,将详细介绍各种组件,并且与,并且与,上一节类似,最后将向,上一节类似,最后将向,您展示如何使用,您展示如何使用。
Trier进行参数实验和评估,Trier进行参数实验和评估,与之前类似,我们将加载开放的,与之前类似,我们将加载开放的,API密钥,我们将使用,API密钥,我们将使用。
utils文件中的便利辅助函数加载它,utils文件中的便利辅助函数加载它,就像之前的课程一样,我们还将,就像之前的课程一样,我们还将,使用如何在AIPDF中建立职业生涯。
使用如何在AIPDF中建立职业生涯,就像之前一样还鼓励您,就像之前一样还鼓励您。
尝试自己的PDF文件,我们,尝试自己的PDF文件,我们,加载41个文档对象,并将,加载41个文档对象,并将,它们合并到一个大文档中,它们合并到一个大文档中,这使得它更适合使用。
这使得它更适合使用。
方法进行文本编辑,现在我们已准备好设置我们的,方法进行文本编辑,现在我们已准备好设置我们的,自动合并,自动合并,检索器将由几个,检索器将由几个,不同的组件组成,第一步,不同的组件组成,第一步。
是定义我们所说的分层,是定义我们所说的分层,节点,节点,解析器,为了使用自动Virg,解析器,为了使用自动Virg,检索器,我们需要以分层方式解析节点,检索器,我们需要以分层方式解析节点,这意味着。
这意味着,节点是以递减的,节点是以递减的,大小进行解析并包含与其父节点的关系,大小进行解析并包含与其父节点的关系。
在这里,我们通过,在这里,我们通过,一个小示例演示了节点解析器如何工作,一个小示例演示了节点解析器如何工作,我们创建了一个具有小块大小的玩具解析器,我们创建了一个具有小块大小的玩具解析器,来演示注意。
来演示注意,我们使用的块大小是248512和,我们使用的块大小是248512和,128您可以更改块大小为,128您可以更改块大小为,您想要的任何递减顺序,您想要的任何递减顺序。
我们现在做,我们现在做,四倍现在让我们从文档中获取节点集,四倍现在让我们从文档中获取节点集,这实际上,这实际上,返回所有节点,这返回所有叶,返回所有节点,这返回所有叶,节点中间节点以及。
节点中间节点以及,父节点,因此,如果我们只想检索叶节点,那么叶中间节点和父节点之间会有相当多的信息内容重叠,如果我们只想检索叶节点,那么叶中间节点和父节点之间会有相当多的信息内容重叠,我们可以。
我们可以,在llama索引中调用一个,在llama索引中调用一个,称为间隙叶节点的函数,我们可以看,称为间隙叶节点的函数,我们可以看。
在这个例子中,我们,在这个例子中,我们,在原始节点集上调用GatLeaf节点,我们,在原始节点集上调用GatLeaf节点,我们,看一下第31个节点来查看,看一下第31个节点来查看。
文本,我们看到文本块,文本,我们看到文本块,实际上相当小,这是一个,实际上相当小,这是一个,示例叶节点,因为叶,示例叶节点,因为叶,节点是128个标记的最小块大小。
节点是128个标记的最小块大小,这是您可以如何,这是您可以如何,加强数学背景,以,加强数学背景,以,找出需要了解的重要内容等等,找出需要了解的重要内容等等,现在我们已经展示了叶节点的样子。
现在我们已经展示了叶节点的样子,我们还可以探索其中的,我们还可以探索其中的,关系我们可以打印,关系我们可以打印,上述节点的父节点,并观察到它是一个,上述节点的父节点,并观察到它是一个,包含,包含。
叶节点税的更大块,但更,叶节点税的更大块,但更,具体地说,Paran节点,具体地说,Paran节点,包含512个令牌,而四个,包含512个令牌,而四个。
叶节点包含128个令牌,因此,叶节点包含128个令牌,因此,有四个叶节点,因为呃,每次块大小除以四,这是,每次块大小除以四,这是,第31个叶节点的父节点的示例,现在我们已经向您展示了。
现在我们已经向您展示了,节点层次结构的样子,我们现在可以,节点层次结构的样子,我们现在可以,构建,构建,我们将使用的索引openilln,我们将使用的索引openilln,Turbo。
我们还将定义一个,Turbo,我们还将定义一个,包含Ln,包含Ln,嵌入模型和,嵌入模型和,解析器层次结构的服务上下文对象,与之前的笔记本一样,解析器层次结构的服务上下文对象,与之前的笔记本一样。
我们将使用BG小nandic模型,我们将使用BG小nandic模型,下一步是构建或,下一步是构建或,索引索引的工作方式是,我们,索引索引的工作方式是,我们。
实际上在特定的叶节点上构造一个向量索引,实际上在特定的叶节点上构造一个向量索引,所有其他,所有其他,中间节点和父节点都存储,中间节点和父节点都存储,在停靠存储中,并在,在停靠存储中,并在。
检索期间动态检索,但我们,检索期间动态检索,但我们,在初始topk,在初始topk,嵌入查找期间实际获取的内容是特定的,嵌入查找期间实际获取的内容是特定的。
叶节点,这就是我们嵌入的,叶节点,这就是我们嵌入的,代码,您可以在代码中看到,我们定义一个,代码,您可以在代码中看到,我们定义一个,存储联系人对象,默认情况下,存储联系人对象,默认情况下,使用内存。
使用内存,文档存储初始化该对象,我们将其称为存储联系人ind。文档存储初始化该对象,我们将其称为存储联系人ind。做商店。添加文档以将所有节点添加,做商店。添加文档以将所有节点添加。
到此内存文档存储中,但是当,到此内存文档存储中,但是当,我们在此处创建称为,我们在此处创建称为,自动合并索引的向量存储索引时,我们仅,自动合并索引的向量存储索引时,我们仅,传入向量索引的叶节点。
传入向量索引的叶节点,这意味着,这意味着,具体的叶节点是,具体的叶节点是,使用嵌入模型嵌入的,并且也已,使用嵌入模型嵌入的,并且也已,索引,但我们还传入存储,索引,但我们还传入存储。
上下文以及服务上下文,上下文以及服务上下文,因此向量索引确实,因此向量索引确实,了解包含所有节点的底层文档存储,了解包含所有节点的底层文档存储。
最后,最后,如果您已经,如果您已经,构建了此索引并且您已经构建了此索引,那么我们将保留此索引想要,构建了此索引并且您已经构建了此索引,那么我们将保留此索引想要,从存储加载它,您可以复制并粘贴。
从存储加载它,您可以复制并粘贴,此代码块,此代码块。
如果索引不存在,它将重建索引,或者,如果索引不存在,它将重建索引,或者,从存储加载它,现在,从存储加载它,现在,我们已经定义了自动合并索引,最后一步是,我们已经定义了自动合并索引,最后一步是。
设置检索器并运行,设置检索器并运行,查询引擎自动合并检索器,查询引擎自动合并检索器,控制合并逻辑,如果为给定父级,控制合并逻辑,如果为给定父级,检索到大多数子节点,则将它们,检索到大多数子节点。
则将它们,交换,交换,为父级,而不是为了使此,为父级,而不是为了使此,合并正常工作,我们设置一个大顶部,合并正常工作,我们设置一个大顶部,k代表叶节点,记住,k代表叶节点,记住。
叶节点也有一个较小的块,叶节点也有一个较小的块,大小128,为了减少令牌,大小128,为了减少令牌,使用,我们在合并发生后应用排序器,使用,我们在合并发生后应用排序器,例如我们,例如我们。
可能检索前12个合并并获得,可能检索前12个合并并获得,前10个,然后重新排名到前六名,前10个,然后重新排名到前六名,排名器的顶端可能看起来,排名器的顶端可能看起来,更大。
但请记住,基本块,更大,但请记住,基本块。
大小只有128个标记,然后,大小只有128个标记,然后,上面的下一个父级是512个标记,我们,上面的下一个父级是512个标记,我们,导入一个名为“自动合并,导入一个名为“自动合并。
检索器”的类,然后定义一个句子,检索器”的类,然后定义一个句子,Transformer排名模块我们将,Transformer排名模块我们将,自动合并检索器和排名,自动合并检索器和排名。
模块合并到我们的检索器查询工程中,模块合并到我们的检索器查询工程中。
它处理检索和,它处理检索和,合成现在我们已经将整个,合成现在我们已经将整个,事情端到端地设置好了,让我们实际测试一下。
人工智能中网络作为一个示例问题我们得到,人工智能中网络作为一个示例问题我们得到,回复,我们看到它说网络,回复,我们看到它说网络,在人工智能中很重要,因为它允许,在人工智能中很重要,因为它允许。
个人建立强大的,个人建立强大的,专业网络,专业网络。
下一步是将它们放在一起,我们,下一步是将它们放在一起,我们,创建两个高级函数来构建自动,创建两个高级函数来构建自动,合并索引作为getautom,合并索引作为getautom。
merging查询引擎,这基本上,merging查询引擎,这基本上,捕获了我们刚刚,捕获了我们刚刚,在第一个函数构建,在第一个函数构建,自动合并索引中向您展示的所有步骤,我们将使用。
自动合并索引中向您展示的所有步骤,我们将使用,层次结构节点解析器来解析,层次结构节点解析器来解析。
子节点到父节点的层次结构,我们将,子节点到父节点的层次结构,我们将,定义服务上下文,我们,定义服务上下文,我们,将从叶节点创建一个向量存储索引,将从叶节点创建一个向量存储索引,同时链接到。
同时链接到,所有节点的文档存储,所有节点的文档存储,第二个函数get自动,第二个函数get自动,合并查询引擎利用我们的自动,合并查询引擎利用我们的自动,合并检索器,它能够,合并检索器,它能够。
动态地将叶节点合并到父,动态地将叶节点合并到父,节点中,并且还使用我们的vack模块,节点中,并且还使用我们的vack模块,然后将其与整体,然后将其与整体,检索器查询,检索器查询。
andine结合起来,以便我们,andine结合起来,以便我们,使用,使用,原始源文档的构建自动合并索引功能构建索引,LM设置,原始源文档的构建自动合并索引功能构建索引,LM设置。
为GPT3。5Turbo以及合并,为GPT3。5Turbo以及合并,索引作为保存,索引作为保存,目录,然后对于查询引擎,目录,然后对于查询引擎。
我们基于索引调用Gap自动合并查询引擎,我们基于索引调用Gap自动合并查询引擎,并将,并将,相似度最高K设置为等于6,作为,相似度最高K设置为等于6,作为,下一步。
onom将向您展示如何,下一步,onom将向您展示如何,评估自动合并检索器,并,评估自动合并检索器,并,使用迭代参数,使用迭代参数,triar我们鼓励您,triar我们鼓励您,也尝试自己的问题。
并迭代,也尝试自己的问题,并迭代,自动合并,自动合并,检索的参数,例如,当,检索的参数,例如,当,您更改块大小或,您更改块大小或,排名器的前K或顶端时会发生什么,排名器的前K或顶端时会发生什么。
并告诉我们结果,并告诉我们结果。
是什么,太棒了,Jerry现在您已经,是什么,太棒了,Jerry现在您已经,设置了自动合并检索器,设置了自动合并检索器,让我们看看如何使用,让我们看看如何使用,ragTriad对其进行评估,并。
ragTriad对其进行评估,并,通过实验跟踪将其性能与基本rag进行比较,通过实验跟踪将其性能与基本rag进行比较,让我们设置这个自动合并,让我们设置这个自动合并,新,新。
索引值得注意的是,它是,索引值得注意的是,它是,两层,最低层块的叶,两层,最低层块的叶,节点的块大小为,节点的块大小为,512,层次结构中的下一层的,512,层次结构中的下一层的。
块大小为2048,这,块大小为2048,这,意味着每个父节点将有四个,意味着每个父节点将有四个,叶节点,彼此有512个令牌,叶节点,彼此有512个令牌,设置的部分,设置的部分。
与Jerry之前向您展示的完全相同,与Jerry之前向您展示的完全相同,您可能想要,您可能想要,尝试两层自动,尝试两层自动,合并结构的一个原因是它更,合并结构的一个原因是它更,简单,创建,简单。
创建,索引以及检索,索引以及检索,步骤所需的工作量更少需要的工作较少,因为,步骤所需的工作量更少需要的工作较少,因为,如果它性能相当好,所有第三层检查都会消失,那么理想情况下,我们希望使用。
那么理想情况下,我们希望使用,更简单的,更简单的,结构,现在我们已经使用,结构,现在我们已经使用,这两层自动合并,这两层自动合并,[音乐],[音乐],结构创建了索引,让我们设置自动合并,结构创建了索引。
让我们设置自动合并,对于此,对于此,设置的引擎,我将前k保持为,设置的引擎,我将前k保持为,与之前相同的值,即,与之前相同的值,即,12,并且重新排名步骤也将具有,12。
并且重新排名步骤也将具有,相同的n等于6,这将使我们在此应用程序设置之间进行,相同的n等于6,这将使我们在此应用程序设置之间进行,更直接的直接,更直接的直接,比较,比较。
以及Jerry之前设置的三层,以及Jerry之前设置的三层,自动合并层次结构应用程序,现在让我们,现在让我们,使用此自动合并引擎设置真正的记录器,使用此自动合并引擎设置真正的记录器。
我们将为其提供,我们将为其提供。
应用程序,应用程序,从生成的问题中加载一些问题以进行评估。从生成的问题中加载一些问题以进行评估。现在我们可以为,val问题中的每个问题定义这些评估问题的运行。
val问题中的每个问题定义这些评估问题的运行,我们将进行设置,我们将进行设置,以便使用RS调用时真正的记录器对象,以便使用RS调用时真正的记录器对象,将记录,将记录,提示,提示,响应和。
响应和。
利用查询,利用查询,引擎的评估结果现在我们的评估已经,引擎的评估结果现在我们的评估已经。
其他两个指标更好,这是我们以,这是我们以,512作为叶子的两级层次结构节点块大小和,512作为叶子的两级层次结构节点块大小和,父节点为248个令牌,因此,父节点为248个令牌,因此。
每个父,每个父,节点有四个叶注释现在我们可以运行真正的,节点有四个叶注释现在我们可以运行真正的,仪表板并查看下一层。
详细信息的记录级别的评估结果让我们,详细信息的记录级别的评估结果让我们。
基础性的分数,让我们选择一个,基础性的分数,让我们选择一个,上下文,上下文。
它,您会在下面看到更详细的视图,它,您会在下面看到更详细的视图,问题是讨论,问题是讨论,资源预算的重要性,资源预算的重要性。
和人工智能项目的成功执行,和人工智能项目的成功执行,右侧是,右侧是。
他们的,他们的,评估分数特别低,介于0和2之间,评估分数特别低,介于0和2之间,如果您选择其中任何一个并单击,如果您选择其中任何一个并单击,它,您可以看到答案,它,您可以看到答案。
分数很好的记录(例如这里的记录),分数很好的记录(例如这里的记录),并,并。
探索,探索,应用程序,应用程序。
在各种问题上的表现如何,以及,在各种问题上的表现如何,以及。
它的字符串在哪里,它的故障模式在哪里,以,它的字符串在哪里,它的故障模式在哪里,以,围绕,围绕。
什么是有效的和什么是建立一些直觉,什么是有效的和什么是建立一些直觉。
现在让我们将,现在让我们将,之前的,之前的,应用程序与Jerry之前介绍的自动合并设置进行比较,现在我们将在层次结构中拥有三层,从,叶节点级别512向上一层有128个令牌开始。
叶节点级别512向上一层有128个令牌开始,在最高层有248个令牌,在最高层有248个令牌,因此在每一层中父级有,因此在每一层中父级有,四个,四个,子级,现在让我们,子级。
记录器,所有,记录器,所有。
最后我们可以运行,最后我们可以运行。
评估了,既然我们已经设置了app1,评估了,既然我们已经设置了app1,我们可以采取快速查看,我们可以采取快速查看,排行榜,您可以看到相对于,排行榜,您可以看到相对于,F0,应用程序一中处理。
F0,应用程序一中处理,相同数量记录的令牌数量约为,相同数量记录的令牌数量约为,一半,总成本也约为,一半,总成本也约为,一半,这是因为将其视为层次,一半,这是因为将其视为层次,结构中的三层。
结构中的三层,块大小是128个标记,而不是,块大小是128个标记,而不是,512,这是,512,这是,ab零的最小叶节点标记大小,因此导致,ab零的最小叶节点标记大小,因此导致,成本,成本。
通过这个新的应用程序设置,合并可能会发生得更好,我们还可以,通过这个新的应用程序设置,合并可能会发生得更好,我们还可以,深入研究并更详细地查看应用程序一,深入研究并更详细地查看应用程序一。
就像我们可以查看,就像我们可以查看,各个记录之前一样,让我们选择与,各个记录之前一样,让我们选择与,我们之前查看的相同的记录,我们之前查看的相同的记录,ab零,ab零。
在这里选择一个示例响应,你会发现,事实上它正在非常具体地谈论,资源预算,所以在这方面有改进,现在让我总结一下,现在让我总结一下,第四课中的一些关键要点,我们带,第四课中的一些关键要点,我们带。
您了解了一种使用自动检索进行评估和,您了解了一种使用自动检索进行评估和,迭代的方法高级,迭代的方法高级,抹布,抹布,技术,特别是,技术,特别是,我们向您展示了如何,我们向您展示了如何。
使用不同的层次结构进行迭代,使用不同的层次结构进行迭代,级别数、子,级别数、子,节点数和块,节点数和块,大小,大小,对于这些不同的应用程序版本,您,对于这些不同的应用程序版本,您。
可以使用ragTriad来评估它们,可以使用ragTriad来评估它们,并跟踪实验来,并跟踪实验来,为您的用例选择最佳结构,需要,为您的用例选择最佳结构,需要,注意的一件事是。
最适合某些文档类型的超参数的直觉,最适合某些文档类型的超参数的直觉,例如取决于文档的性质,例如取决于文档的性质,例如雇佣合同,例如雇佣合同,与在发票中,您可能会发现,与在发票中,您可能会发现。
不同的块大小和,不同的块大小和,层次结构最有效,层次结构最有效,最后另一件事需要注意的是,最后另一件事需要注意的是,自动合并是对,自动合并是对,句子窗口,句子窗口,检索的补充,考虑这一点的一种方法。
检索的补充,考虑这一点的一种方法,是,假设您有,是,假设您有,一个父节点的四个子节点自动合并您,一个父节点的四个子节点自动合并您,可能会发现子项一和,可能会发现子项一和,子项四与,子项四与。
可能不会导致这种合并,因为它们不在,因为它们不在,文本的连续部分将我们,文本的连续部分将我们,带到第四课的结尾,带到第四课的结尾,我们观察到,通过先进的,我们观察到,通过先进的,机架技术,例如句子窗口。
机架技术,例如句子窗口,和自动合并检索,和自动合并检索,加上评估实验,加上评估实验,跟踪和迭代的能力,您可以,跟踪和迭代的能力,您可以,显着改进您的抹布,显着改进您的抹布。
评估,评估,以确保您的llm,以确保您的llm,申请是诚实无害且,申请是诚实无害且,有用的,这张幻灯片列出了一些,开箱即用的真实镜头,我们鼓励您去,开箱即用的真实镜头,我们鼓励您去,尝试真实镜头。
探索非,尝试真实镜头,探索非。
笔记本电脑,并将您的学习提升到一个。
恭喜完成本课程,恭喜完成本课程,希望您已经掌握了一些,希望您已经掌握了一些,关于如何构建评估和迭代,关于如何构建评估和迭代,rag应用程序的技能,以使其更适合,rag应用程序的技能,以使其更适合。
生产,无论,生产,无论,您来自数据科学机器,您来自数据科学机器,学习背景还是,学习背景还是,您需要的传统软件背景学习,您需要的传统软件背景学习,其中一些核心开发,其中一些核心开发,原理。
以便您可以成为一名摇滚明星,原理,以便您可以成为一名摇滚明星,人工智能工程师,能够构建强大的llm,人工智能工程师,能够构建强大的llm,软件系统,减少llm,软件系统,减少llm,幻觉将成为。
幻觉将成为,每个开发人员的首要任务,随着该,每个开发人员的首要任务,随着该,领域的发展,我们很高兴看到,领域的发展,我们很高兴看到,Bas模型得到更好和更大规模的。
Bas模型得到更好和更大规模的,评估变得更便宜,更,评估变得更便宜,更,容易为每个人设置和,容易为每个人设置和,运行,作为下一步我建议,运行,作为下一步我建议,更深入地了解您的数据。
更深入地了解您的数据,管道检索策略和llm,管道检索策略和llm,提示以帮助提高rag性能,提示以帮助提高rag性能,我们展示的这两种技术只是这只是,我们展示的这两种技术只是这只是。
冰山一角,您应该,冰山一角,您应该,研究从块大小到,研究从块大小到,检索技术(例如混合搜索),检索技术(例如混合搜索),到基于alung的推理(例如Chainof。
到基于alung的推理(例如Chainof,Thought)的所有内容。ragTriad是一个很好的,Thought)的所有内容。ragTriad是一个很好的,起点,可以开始评估。
起点,可以开始评估,基于rag的llm应用程序,作为下一步,我,基于rag的llm应用程序,作为下一步,我,鼓励您为了更深入地挖掘,鼓励您为了更深入地挖掘。
评估LLMS及其支持的应用程序的领域,评估LLMS及其支持的应用程序的领域,这包括,这包括,评估模型置信度、校准、,评估模型置信度、校准、,不确定性、可解释性、,不确定性、可解释性、。
良性和对抗环境中的隐私公平性和毒性等主题,良性和对抗环境中的隐私公平性和毒性等主题,我们。
欢迎来到生成式AI,自Chad发布以来,GbtAI,特别是生成式AI,吸引了很多人注意,公司和政府,这是一种非常颠覆性的技术,已经在改变,人们学习和工作的方式,许多开发人员认为。
生成式AI将使许多人受益,并提高生产力,同时对全球经济增长做出重大贡献,但也会有负面影响,所以可能是工作老板或更糟,有些人担心在这门课程中你将了解生成式AI是什么,它能做什么和不能做什么。
以及如何在自己的工作或业务中使用它,因为AI的种类很新,所以仍然有很多错误信息,因此,在这门课程中,我希望传达一个准确的非技术理解,它到底是什么,并与您合作,思考如何最好地利用这项技术。
这门课程不假设任何技术或AI背景,旨在对商业中的任何人都有用,科学、工程,人文、艺术或其他领域,因此,让我们深入探讨AI的性别,2022年,OpenAI发布了ChatGPT,这种势头持续不减,据估计。
每年可增加2。6至4。4万亿美元的经济,高盛估计,未来十年可提高全球GDP7%,OpenAI的一项研究,和联合国,估计每天执行的工作或任务中,有10%可能受到影响,美国超过80%的工人。
同一项研究还估计,有20%的工人,哪些工作受生成AI影响超50%,此类研究带来巨大生产力提升希望,也担忧自动化导致失业。
什么是生成AI,指AI或人工智能系统,能产生高质量内容,特别是文本、图像和音频,最知名的生成AI或GenAI系统是OpenAIChatGPT,可遵循指令执行任务,如为社交媒体帖子写3个标题。
关于我们为机器人设计的太阳镜,并生成各种创意输出,许多用户熟悉生成此类文本的网站或直接面向消费者的应用程序,其他示例包括谷歌提供的bard,以及微软提供的bing聊天,但现在有许多公司提供用户界面。
让您输入一些文本,称为提示,我们生成响应。
除了这些消费应用,生成式AI还有另一应用,我认为这可能长期影响更大,AI性别作为开发工具的使用。
AI已融入我们的生活,我们许多人每天使用它数十次甚至更多,而不会想到它,每次你在谷歌或必应上进行网络搜索,那是AI,每次你使用信用卡,可能有一个AI检查,是否真的是你使用信用卡。
或每次你访问亚马逊或Netflix等网站,并推荐产品或电影给你,那是AI,但许多AI系统一直复杂且昂贵,AI性别使许多AI应用更容易构建,这意味着AI产品供应的数量和种类正在蓬勃发展,因为与之前相比。
构建某些AI应用的成本正在降低,因此在这门课程中,我们将多次触及的主题之一将是,AI性别如何使您的业务更便宜地,构建非常有价值的AI应用,并学习识别和探索是否可能。
对于给定的业务有用,我将AI性别描述为生成文本、图像和音频,在这三种类型的内容中,迄今为止最大的影响是文本生成,但它可以根据指令生成图像,不同类型的提示。
它可以生成漂亮的图像,如这个,甚至逼真的图像,像这样的生成AI也可以生成音频,例如,这是我声音的克隆,嗨,我是一个AI生成的安德鲁声音克隆,安德鲁从未说过这些话,不是吗?
你还可以将音频与图像甚至视频生成结合起来,创建一个像我这样的视频克隆,嗨。
我是安德鲁的视频克隆,很高兴见到你,所以生成AI有很多东西在进行中,这是一个令人兴奋和颠覆性的技术,我相信您将在工作中发现它有用,在这门课程中,在第一周,我们将深入了解生成AI技术的工作原理。
特别是它能做什么和不能做什么,您还将看到各种常见用例,我希望这将激发您的创造力,关于您可能如何使用它来创造您的生活或工作中的价值,在第二周,我们将讨论生成AI项目,特别是,如何识别有用的生成AI应用。
以及构建良好的最佳实践,深入探讨技术选项范围,构建多种宝贵项目,最后一周,我们将超越单个项目,看生成式AI如何影响企业,以及整个社会,我们将探讨最佳实践,团队或公司如何利用AI的瑰宝。
可用AI种类生成从未存在的人的美图。
或未来场景图或酷机器人图。
这项技术如何工作,当前图像生成主要通过扩散模型,未来模型已从互联网等处的大量图像中学习,扩散模型的核心是监督学习,这是它的工作原理,假设,算法在网找类似苹果图片,学习如何生成图像,第一步逐渐加噪音。
从漂亮苹果图变噪,更噪,最终纯噪音图,像素随机选择,完全不像苹果,扩散模型用此图学习,监督学习输入噪图,输出稍不嘈杂图像,具体将创建数据集,若给定第二张输入图像,我们想要。
监督学习算法做是学习输出更清晰苹果,这是另一个数据点,给定第三张更嘈杂图像,我们希望算法学习输出稍不嘈杂版本,最后给定纯噪声图像,我们希望学习输出稍不嘈杂图片,这暗示有苹果存在,在训练了数百万张图片后。
类似病毒的过程,当你想要生成新图片时,这就是运行方法。
从纯噪声图像开始,先拍张每像素都随机选取的照片,然后将此图片输入之前训练的监督学习算法,输入纯噪声时,它会学习去除一点噪声,你可能得到这样一幅图,暗示中间某种水果,但根据第二幅图。
我们还不太确定它是什么,我们再次将其输入模型,然后它去除了一点噪音,现在看起来我们能看见一个西瓜的噪点图,然后如果你再应用一次,我们最终得到这张第四幅图,看起来像一张很漂亮的西瓜图片。
我用前一张幻灯片的4步添加噪音和本幻灯片的4步去除噪音来演示这个过程,使用10个片段,4步添加噪音,4步去除噪音,实践中约百步更典型,此算法可随机生成图片,但需控制生成图像,通过指定提示告知生成内容。
描述算法修改以添加文本,或添加提示以训练数据生成,给定如苹果的图片,及描述或提示生成此苹果,我有文本描述,说这是红苹果,然后我们会像之前一样,为这张图片添加噪音,直到得到这张第四张图片,这是纯噪音。
但我们将改变构建学习算法的方法,即,不是输入轻微噪点图片并期望生成清晰图片,相反,将输入a到监督学习算法b中的噪点图片,以及可能生成此图片的文本说明或提示,即红苹果,给定此输入。
我们现在希望算法输出这个干净的苹果图片,同样,我们使用其他噪点图像为算法生成额外数据点,每次给定一个噪点图像和红色苹果的文本提示,我们希望算法学会生成一个不太噪点的红色苹果图片。
因此,从大量数据集中学习后,当你想将这个算法应用于生成时,比如说,一个绿色的香蕉,你做的和之前一样,从纯噪点图像开始,因此,每个像素都是完全随机选择的,如果你想生成一个绿色的香蕉。
你输入到监督学习算法的图片是纯噪点,连同绿色香蕉的提示,既然知道你要绿香蕉,希望算法输出类似图片,看不清香蕉,但中间可能有绿色水果暗示,这是图像生成的第一步,下一步是取右图,这是输出b。
现在作为输入a再次输入,提示绿香蕉生成稍清晰图片,现在清晰看出是绿香蕉,但一个相当嘈杂的,我们再做一次,最终去除大部分噪音,直到我们得到那张漂亮的绿色香蕉图片。
这就是扩散模型如何生成图像,在这个真正神奇的过程中,生成美丽图片的核心,仍然是监督学习,感谢您坚持观看这段可选视频,期待下周见到你,在那里我们将深入探讨使用生成性。
聊天等系统生成文本,聊天等系统生成文本,似乎很神奇,似乎很神奇,确实代表AI的一大进步,确实代表AI的一大进步,但文本生成实际如何工作?但文本生成实际如何工作?将探讨生成AI技术的基础。
将探讨生成AI技术的基础,希望帮助你理解如何使用,希望帮助你理解如何使用,以及何时不应依赖,以及何时不应依赖,让我们看看,让我们看看,先从生成AI在AI领域的定位看起,先从生成AI在AI领域的定位看起。
有很多炒作和兴奋,有很多炒作和兴奋,还有关于AI的炒作,还有关于AI的炒作,我认为将AI视为一系列工具很有用,我认为将AI视为一系列工具很有用。
AI中最重要的一个工具是监督学习,AI中最重要的一个工具是监督学习,它非常擅长标记事物,它非常擅长标记事物,别担心,别担心,如果你不明白这意味着什么,如果你不明白这意味着什么,我们将在下一页上详细讨论。
我们将在下一页上详细讨论,最近才开始真正奏效的第二项是生成AI,最近才开始真正奏效的第二项是生成AI,如果你研究AI,如果你研究AI,只有最近,只有最近,你可能注意到还有其他工具。
如果你暂时不担心这些以外的其他工具,如果你暂时不担心这些以外的其他工具。
在描述生成式AI如何工作之前,在描述生成式AI如何工作之前,简述监督学习,简述监督学习,生成AI基于监督学习,生成AI基于监督学习,监督学习使计算机输入,监督学习使计算机输入,生成相应输出,我叫它b。
生成相应输出,我叫它b,我叫它b,我叫它b,看几个邮件示例,看几个邮件示例,监督学习可判断是否垃圾邮件,监督学习可判断是否垃圾邮件,输入a是邮件,输出b是0或1,输入a是邮件,输出b是0或1。
0表示非垃圾邮件,1表示垃圾邮件,0表示非垃圾邮件,1表示垃圾邮件,这就是当前垃圾邮件过滤器的工作原理,这就是当前垃圾邮件过滤器的工作原理,第二个例子,第二个例子,最赚钱的应用,最赚钱的应用。
在自动驾驶汽车和驾驶员辅助系统中,在自动驾驶汽车和驾驶员辅助系统中,监督学习用于输入,监督学习用于输入,汽车前方的图片和雷达信息,汽车前方的图片和雷达信息,并标记其他车辆的位置,并标记其他车辆的位置。
给出医疗X光,尝试标记诊断,给出医疗X光,尝试标记诊断,我也做过大量制造缺陷检测工作,我也做过大量制造缺陷检测工作,你可以有一个系统,你可以有一个系统,拍摄手机的照片,拍摄手机的照片。
从装配线上滚下来检查是否有划痕,从装配线上滚下来检查是否有划痕,或缺陷,或缺陷,或在语音识别中,或在语音识别中,输入a是一段音频,输入a是一段音频,我们会用文字稿标记它,我们会用文字稿标记它。
并为每个标记为正面或负面情绪,并为每个标记为正面或负面情绪,这对业务声誉监控有用,这对业务声誉监控有用。
原来2010到2020这十年,原来2010到2020这十年,我想简短地谈谈这一点,我想简短地谈谈这一点,因为这为现代生成AI奠定了基础,因为这为现代生成AI奠定了基础,但从2010年左右开始我们发现。
但从2010年左右开始我们发现,对于许多应用,对于许多应用,我们有很多数据,我们有很多数据,即使我们给它更多的数据,即使我们给它更多的数据,小AI模型的性能并没有提高多少。
小AI模型的性能并没有提高多少,这意味着,例如,这意味着,例如,若构建语音识别系统,若构建语音识别系统,即使AI听数万或数十万小时数据,即使AI听数万或数十万小时数据,数据量庞大,数据量庞大。
准确率未显著提高,准确率未显著提高,相比仅听少量音频数据的系统,相比仅听少量音频数据的系统,越来越多研究者通过此时期意识到,越来越多研究者通过此时期意识到,若训练大型AI模型,若训练大型AI模型。
意即用高速、强大、内存充足的计算机训练AI模型,意即用高速、强大、内存充足的计算机训练AI模型,则此性能随输入,则此性能随输入,数据量增加,数据量增加,数据将越来越好,数据将越来越好,实际上,实际上。
几年前我领导谷歌大脑团队时,几年前我领导谷歌大脑团队时,早期我对谷歌大脑团队的主要任务是,早期我对谷歌大脑团队的主要任务是,我说,我说,建超大型AI模型,喂大量数据,建超大型AI模型,喂大量数据。
幸运的是,这方法奏效,推动谷歌AI进展,幸运的是,这方法奏效,推动谷歌AI进展,大规模监督学习今天仍重要,大规模监督学习今天仍重要,超大模型用于标记,使我们今天有生成AI,超大模型用于标记。
使我们今天有生成AI。
看生成AI如何用大语言模型生成文本,看生成AI如何用大语言模型生成文本,大型语言模型(简称LLM)的一种生成文本方式,大型语言模型(简称LLM)的一种生成文本方式,LLM可以生成文本。
LLM可以生成文本,给定一个输入,给定一个输入,如我爱吃,如我爱吃,这称为提示,这称为提示,然后LLM可能会用贝果配奶油芝士完成这句话,然后LLM可能会用贝果配奶油芝士完成这句话,如果你再次运行。
如果你再次运行,它可能会说妈妈做的肉饼,它可能会说妈妈做的肉饼,如果你第三次运行,如果你第三次运行,可能你会说和朋友出去,可能你会说和朋友出去,那么大型语言模型LLM是如何生成这个输出的呢。
那么大型语言模型LLM是如何生成这个输出的呢。
事实证明,LLM是通过监督学习构建的,事实证明,LLM是通过监督学习构建的,这是一种输入A和输出B标签的技术,这是一种输入A和输出B标签的技术,它使用监督学习反复预测下一个单词是什么。
它使用监督学习反复预测下一个单词是什么,例如,例如,如果一个AI系统在互联网上读过一句话,如果一个AI系统在互联网上读过一句话,比如我最喜欢的食物是贝果配奶油芝士,比如我最喜欢的食物是贝果配奶油芝士。
那么这句话将被转换成很多数据点供它学习,那么这句话将被转换成很多数据点供它学习,以尝试学习预测下一个单词,以尝试学习预测下一个单词,特别是基于这句话,特别是基于这句话,我们现在有一个数据点说。
我们现在有一个数据点说,给定短语'我最喜欢的食物是',给定短语'我最喜欢的食物是',你认为下一个单词是什么,你认为下一个单词是什么,在这种情况下,正确答案是贝果,在这种情况下,正确答案是贝果。
同样给定'我最喜欢的食物是贝果',同样给定'我最喜欢的食物是贝果',你认为下一个单词是什么,你认为下一个单词是什么,这个和等等,这个和等等,所以这句话被转换成多个输入,所以这句话被转换成多个输入。
A和输出B供它尝试学习,LLM从哪学习,A和输出B供它尝试学习,LLM从哪学习,给定一些单词预测下一个出现的单词,给定一些单词预测下一个出现的单词,当你训练一个非常大型的人工智能系统时。
当你训练一个非常大型的人工智能系统时,对于LLM来说,大量数据意味着数百亿个单词,对于LLM来说,大量数据意味着数百亿个单词,在某些情况下超过一万亿个单词,在某些情况下超过一万亿个单词。
然后你就会得到一个大型语言模型,然后你就会得到一个大型语言模型,像Chagpt-t,给定一个提示,非常擅长生成一些附加单词,像Chagpt-t,给定一个提示,非常擅长生成一些附加单词。
作为对这个提示的回应,作为对这个提示的回应,目前,目前,我省略了一些技术细节,特别是,我省略了一些技术细节,特别是,下周我们将讨论一个过程,使LLM不仅预测下一个单词,下周我们将讨论一个过程。
使LLM不仅预测下一个单词,而且实际上学会遵循指令,而且实际上学会遵循指令,并且确保输出的安全性,并且确保输出的安全性,但大型语言模型的核心,但大型语言模型的核心。
是这种从大量数据中学习预测下一个单词的技术,是这种从大量数据中学习预测下一个单词的技术。
这就是大型语言模型的工作原理,这就是大型语言模型的工作原理,它们被训练反复预测下一个单词,它们被训练反复预测下一个单词,结果许多人,结果许多人,可能包括你,已经在日常工作中发现这些模型很有用。
可能包括你,已经在日常工作中发现这些模型很有用,帮助写作,帮助写作,查找基本信息,查找基本信息,或作为一个思考伙伴来帮助思考问题,或作为一个思考伙伴来帮助思考问题。
许多网页界面可访问大型语言模型,Chagbt是最知名的,谷歌的机器人,微软必应,还有许多其他工作良好的,让我们看看人们如何使用这些LM应用,无论你是否经常使用它们,我希望这会给你一些新的想法。
以及它们可能对你有用的方式,LMS提供了一种新的信息查找方式,例如,如果你问它,南非的首都是什么,它可能会给出这样的回答,现在,如我们稍后所见,M有时会编造事实,我们称之为幻觉,因此。
M代表泻湖大师,这是法律中使用的术语,实际上,LM在互联网上的使用非常普遍,但如果你随后说在AI的背景下,然后希望它会说在AI的背景下,LM指的是大型语言模型,因此。
有时这种来回交流可以帮助你给出正确的上下文,以获取你正在寻找的信息,LM还可以作为思考伙伴帮助你思考问题。
例如。
我经常使用LM来帮助我完善写作,如果你告诉,重写以提高清晰度,世界各地的学生意识到学习已经发生等,领先元素实际上很擅长重写文本,或者这是一个有趣的例子,如果你告诉它写一个涉及卡车的300字故事。
可能是因为你有一个喜欢卡车的孩子,就像我一样,我儿子喜欢卡车,但为了鼓励他们刷牙,然后领先的ELM实际上可以创建非常有趣和有趣的故事,我认为这远不如伟大的小说家所写的那样好。
但作为一个快速有趣的东西,我觉得现在不错,有时你会寻找信息,你可能会想,应该用网络搜索还是用LM?如果你在运动,不幸扭伤了脚踝。
你也可以问LM,扭伤脚踝怎么办,它会生成一些答案,考虑到LM编造事物的倾向,有时听起来很权威和自信,而实际上是在编造,我可能想再次检查,它关于医疗保健或医学的建议,再遵循建议,这里还有一个例子。
如果你想烤菠萝派,正在寻找食谱,结果网上有很多菠萝派的食谱,选择一个由可信网站或厨师创建的。
可能会得到很好的结果,或者你可以问LM编一个,在这种情况下它会编出一些东西,坦率地说可能还行,但也有很高的几率是一个奇怪的食谱,所以如果你想烤菠萝派,我可能去找网页。
因为有很多网页会给出很好的答案,关于什么是好的菠萝派食谱,但如果你在寻找更玄妙的东西,比如你的朋友挑战你制作咖啡并使用菠萝派,我找不到任何关于咖啡,注入菠萝派的网页,我认为目前没有单一的网页。
能给出这个问题的良好答案,这是一个例子,LM可以作为一个思考伙伴。
思考如何制作咖啡注入菠萝派,所以这些都是你可能发现,网络用户界面对LM有用的任务,我们将探讨更多例子,讨论LM的优缺点,并在这周晚些时候通过一些最佳实践,但正如你从这段视频中看到的。
GenerofAI能够做很多事情,在下一个视频中,我们将系统讨论生成AI,并开始组织它们能做的事,包括写作,阅读和聊天任务。
生成AI有何用途,问题难答的原因之一是AI是通用技术,不像许多技术,如汽车,用于交通或微波炉,用于加热食物,AI并非仅用于,一件事,它用于许多事,这几乎更难讨论,但让我们看看通用技术真正意味着什么。
类似于电,AI用于许多任务,若问电有何用途,或互联网有何用途,这些都是通用技术,几乎难以想出电有何用途,因为它如此普及,用于我们周围如此多不同的事,实际上,如你之前所见,监督学习用于许多任务。
生成AI生成文本,因此可能用于写作,我常使用生成AI工具作为头脑风暴伙伴,若要命名产品,可问它生成一些名字,它会给出一些创意建议,LM也能很好地回答问题,若给予它们有关你公司的特定信息。
它们能帮助团队成员找到所需信息,在这种情况下关于办公室停车可用性,除了写作,生成AI还擅长什么,我将称之为阅读摘要,你将给它一段相对较长的信息,并让它生成简短输出,例如,如果你经营在线购物电子商务公司。
这不是投诉,但如果有人发邮件,我穿着羊驼T恤参加朋友婚礼,他们生我气抢了风头,嗯,那可能是投诉,但通用AI可帮助将邮件路由至正确部门,我称之为阅读任务,因为正在查看相对较长的文本,这是客户邮件。
然后生成相对较短的输出,只是是或否,这是投诉吗?虽然监督学习也可用于此特定任务,我们稍后将看到,生成AI正在允许这些类型的阅读任务,以及本周晚些时候看到的其他示例,以更快速、更便宜的方式构建,最后。
生成AI也用于许多聊天机器人类型的任务,聊天DPI和酒吧和聊天是通用聊天机器人,生成AI技术,大型语言模型也正在使许多专业用途的聊天机器人得以构建,例如,这是一个聊天机器人可能的样子,用于在线订单。
用户可以说像芝士汉堡送货,聊天机器人确认并为客户下单,在讨论这些任务时,我发现有时区分两种不同类型的贝叶斯应用很有用,一个是这样的头脑风暴,你自然会在Chachi或Bot或聊天中输入这样的提示。
或互联网上的其他免费或付费大型语言模型,并得到结果,因此,我将把这种应用称为,Web界面贝叶斯应用,相比之下,在识别电子邮件是否为客户投诉的例子中,这更符合公司电子邮件路由工作流程,实际上。
没有人会剪切并粘贴客户电子邮件,一次一个地进入Web界面,以获取答案,哪些实际上是投诉电子邮件,因此,这是一个大型语言模型,当它构建到更大的软件自动化中时,在这种情况下帮助公司自动化电子邮件路由。
因此,我将称这种应用为,基于大型语言模型的软件应用,第二个写作示例回答人事问题,这也将使软件应用更合理,因为需要了解公司停车政策,而互联网上的通用大语言模型可能没有,稍后课程将更详细讨论技术构建。
大多数专业聊天机器人也将基于软件,在本课程剩余部分,我将用这两个符号区分网页和软件应用,对许多人来说,从网页案例开始可能更容易,因为可以访问Chagi或Bars等网站,或Bing输入提示并获取结果。
我认为基于Web界面的应用和基于软件的应用程序都重要,对个人和公司都将非常有用。
我发现写作框架,阅读和聊天,作为思考大型语言模型能执行的不同任务的实用方式,在接下来的三个视频中,我们将深入探讨许多不同写作,阅读和聊天任务,我希望你发现其中一些可能对你的工作有用。
上期视频讨论了写作,阅读和聊天是三大任务,大型语言模型被训练来预测下一个单词,它们擅长写作并不奇怪,许多写作任务可通过网页界面完成,希望你喜欢这个视频,但我们将深入探讨写作任务,立即开始。
对写作任务有用,广泛地,我们将从提示开始,使用相对短的提示来写作,或生成更长的文本,让我们看看一些写作应用,我经常使用大型语言模型的网页界面作为头脑风暴伙伴。
如果你要求头脑风暴五个花生酱曲奇饼的名字,它实际上会想出一些很有创意的名字,尼尼瓦纳纳比尔斯。
我会吃那个,或者如果你要求它为增加曲奇饼销售量头脑风暴想法。
然后它会想出几个想法,你可以看看是否有任何可能有用。
你还可以再次使用大型语言模型,可能是网页界面版本来为你写一些副本,让我们从一个例子开始,如果你要求它写一份新闻稿,宣布新首席运营官(COO)的雇用,你公司的新的首席运营官,公司名称欢迎新COO全名等。
这是一个很通用的新闻稿,在写提示时,你会发现如果你能给出大型语言模型更多上下文或更多背景信息,那么它将为你写更具体和更好的副本,如果大型语言模型此时看到的只是写一份新闻稿,它不知道关于你的公司。
关于新COO的名字或他们的资格,所以它最终写了一些非常通用的内容,如果你最终像这样提示大型模型,这不是问题,你可能会意识到你最终得到了一份非常通用的新闻稿,并决定更新提示。
以提供更多信息,所以如果我们提示它并说,使用以下信息写新闻稿,这是COO的PIO,这是我们公司的名称和一些公司细节,然后它将写一份更详细和有见地的新闻稿。
专门针对加入这家公司的COO,我发现当提示LM时,我经常不会得到提示,我经常会调整提示,一次做对,就像我们刚才看到的,我们发布新闻稿的地方,宣布新员工入职,没有提供任何上下文,这完全没问题。
如果结果不是你想要的,只需修改提示并重试,本周晚些时候我会在视频中详细说明,当我们讨论编写向量属性的提示时,让我们再看一个例子。
我有时使用LMS进行翻译的另一项写作任务,实际上,您可以通过Web访问的一些大型语言模型,UI在竞争中甚至更好,比现有的专用机器翻译引擎,特别是对于互联网上有大量文本的语言,因此。
大型语言模型有很多数据可以学习,如何生成特定语言中的文本,它在语言表现不佳,也称为低资源语言,互联网上该语言文本较少,但如果你经营一家酒店,并想将欢迎信息翻译成正式的手稿,欢迎客人。
那么大型语言模型可能能够为您输出这样的文本,不幸的是,我不会说印地语,我希望我会,但事实证明这个翻译仅如此,前台一词,翻译成前台的桌子,而不是你知道的接待处,这是我们所说的,当我们说酒店的前台。
所以如果你和一个印地语说话者一起工作,当我准备幻灯片时,然后他们可能会给你一些提示说,哦,这是一种不太正式印地语,但如果你告诉它翻译成正式的口语印地语,然后它更新文本使前台翻译成,印地语中接待处的单词。
这是一个更好的翻译,最近在AI社区看到一件有趣的事,我们中许多从事翻译工作的人,经常需要将文本翻译成我们自己不会说的语言,我们如何知道大型语言模型是否在做合理的事情,实际上。
即使您团队中只有一名印地语说话者,团队其他成员若不懂印地语,他们如何了解情况,我所见,AI社区多团队将文本译为海盗英语测试,因此,若提示大型语言模型将此译为海盗英语,得到,啊哈,愿你享受海景房时光。
听起来像相当不错的一部分英语。
那么,伟大模型如何用于写作。
在上个视频中,在上个视频中,我们研究了写作任务,其中您将指定最后一个语言模型的提示,我们研究了写作任务,其中您将指定最后一个语言模型的提示,生成较长的输出,生成较长的输出,事实证明。
LMS对许多阅读任务也有用,事实证明,LMS对许多阅读任务也有用,指的是你输入提示的任务,指的是你输入提示的任务,然后生成通常长度相当或更短的输出,然后生成通常长度相当或更短的输出。
让我们看看一些阅读任务,让我们看看一些阅读任务,从我每天都在用的东西开始,从我每天都在用的东西开始,多次校对是证明,多次校对是证明,如果我正在写一段文字,如果我正在写一段文字,我会仔细阅读。
我会仔细阅读,自己检查3-4遍拼写和语法,自己检查3-4遍拼写和语法,尽管我认为自己检查得很仔细,尽管我认为自己检查得很仔细,大型语言模型仍会发现我遗漏的错误,大型语言模型仍会发现我遗漏的错误。
这是一个你可以尝试的预读提示,这是一个你可以尝试的预读提示,如果你告诉它文本的用途,如果你告诉它文本的用途,这是为儿童毛绒玩具网站准备的文本,这是为儿童毛绒玩具网站准备的文本。
有时我会让它检查拼写和语法错误,有时我会让它检查拼写和语法错误,以及不流畅的句子,以及不流畅的句子,然后让它改正并重写,然后让它改正并重写,这是一段有错误的文本,这是一段有错误的文本。
大型语言模型修正拼写,大型语言模型修正拼写,并修正这里的语法,并修正这里的语法,当我自己写文本时,当我自己写文本时,我希望相当自信,我希望相当自信,无拼写和语法错误,无拼写和语法错误。
有时还有别扭的句子,有时还有别扭的句子,实际上我用这个来证明,实际上我用这个来证明。
让它快速生成一个摘要给我,让它快速生成一个摘要给我,他写的论文讨论AI类人化带来的好处,他写的论文讨论AI类人化带来的好处,让AI增强人类而非自动化,还有很多工作要做,让AI增强人类而非自动化。
也在企业中流行,也在企业中流行,让我举例说明,让我举例说明,假设你是客服中心经理,假设你是客服中心经理,有许多客服人员如左图所示,有许多客服人员如左图所示,戴着耳机与客户通话,戴着耳机与客户通话。
如右图所示的人,如右图所示的人,若获准录音通话,若获准录音通话,可运行通话语音识别,可运行通话语音识别,获取对话文本记录,获取对话文本记录,若客服人员多对话,若客服人员多对话,将积累大量文本记录。
将积累大量文本记录,若要审查呼叫中心情况,若要审查呼叫中心情况,可能文本太多难以阅读,可能文本太多难以阅读。
如客户与代理对话记录,如客户与代理对话记录,可了解通话实际内容,可了解通话实际内容,大型语言模型的用途之一,大型语言模型的用途之一,总结此对话,生成类似mk四的简短摘要,总结此对话。
生成类似mk四的简短摘要。
一,一,二,二,七kx(损坏等),七kx(损坏等),如果你收集所有这些不同的文本记录,如果你收集所有这些不同的文本记录,并有一个软件应用程序生成摘要,并有一个软件应用程序生成摘要,那么,那么。
使用大型语言模型,复制粘贴这些对话并无意义,复制粘贴这些对话并无意义,对于客服交互,逐个输入大型语言模型提供商的网站,对于客服交互,逐个输入大型语言模型提供商的网站。
大型语言模型也用于客户邮件分析,大型语言模型也用于客户邮件分析,在早期视频中,在早期视频中,你看到一个客户邮件示例,你看到一个客户邮件示例,并决定是否为投诉,并决定是否为投诉,在这种情况下。
在这种情况下,否,以及将此邮件路由至哪个部门,否,以及将此邮件路由至哪个部门,这是另一个使用大型语言模型的软件应用,这是另一个使用大型语言模型的软件应用,让我们深入探讨如何构建此应用。
让我们深入探讨如何构建此应用,专注于决定将此邮件路由到哪个部分,专注于决定将此邮件路由到哪个部分。
你可以编写一个提示,告诉LM阅读邮件,你可以编写一个提示,告诉LM阅读邮件,并决定将其路由到哪个部门,并决定将其路由到哪个部门,因此,您可以指定任务并提供邮件,因此,您可以指定任务并提供邮件。
但事实证明,使用这样的提示,但事实证明,使用这样的提示,您可能会发现算法将其路由到投诉部门,您可能会发现算法将其路由到投诉部门,在这种情况下,在这种情况下,这可能或可能不是您组织中存在的部门。
这可能或可能不是您组织中存在的部门,这就是LM被给予示例的地方,这就是LM被给予示例的地方,上下文不足,无法知晓,上下文不足,无法知晓,公司中应选择的实际部门名称,公司中应选择的实际部门名称。
相比之下,相比之下,若更新问题如下,若更新问题如下,我们说,我们说,阅读邮件,阅读邮件,选择最合适的部门,选择最合适的部门,浏览它,浏览它,仅从以下列表中选择部门,仅从以下列表中选择部门,在这种情况下。
在这种情况下,根据您想选择的选项集,根据您想选择的选项集,正确路由到服装部门,正确路由到服装部门,在构建应用程序的过程中,在构建应用程序的过程中,再次使用大型语言模型,再次使用大型语言模型。
第一次编写问题并不完全正确并不罕见,第一次编写问题并不完全正确并不罕见,当你发现它,当你发现它,路由到不存在的投诉部门,路由到不存在的投诉部门。
然后只需更新提示即可解决问题,然后只需更新提示即可解决问题,我想触及的最后一个应用是声誉监控,我想触及的最后一个应用是声誉监控,您可以使用LM构建仪表板来跟踪客户情绪。
然后此仪表板可以提醒您,然后此仪表板可以提醒您,可能有些事情我们应该注意,可能有些事情我们应该注意。
看看是否有我们需要在餐厅解决的问题,看看是否有我们需要在餐厅解决的问题,在本视频中,我们查看了一些阅读应用程序,在本视频中,我们查看了一些阅读应用程序,包括校对,包括校对,摘要,摘要,电子邮件路由。
或给出该文本中内容的几个快速指示,这可能是个阅读任务的好选择,为你找下一张专辑,让我们继续看下一个视频,看看聊天功能。
前两视频看读写应用,本视频看聊天应用,除通用聊天机器人,许多公司考虑建专聊天应用,若公司多人与客户互动,或同类对话,可考虑是否用专聊天机器人,帮助这类对话,先看看,已看客服聊天机器人例。
可能会订芝士汉堡,一个专业聊天机器人的例子将是专注于帮助你规划旅行的,如何在巴黎度假便宜,机器人可以构建为具有关于旅行的专业知识,今天,许多公司正在探索广泛的建议机器人,例如。
机器人能给你职业指导建议或烹饪餐点的建议吗。
因此,许多擅长回答一件事的专门机器人正在由不同的公司开发,今天,一些这些机器人能够进行对话并提供建议,其中一些机器人只能进行对话并提供建议,这些酒吧可与公司其他软件系统交互并采取行动。
如订购芝士汉堡送餐,另一个可能采取行动的例子是客户服务聊天机器人,许多IT部门收到大量密码重置请求,如果机器人能处理,可能会减轻IT部门的工作量,需要发送短信验证身份并实际重置密码的机器人。
这是一个需要被赋予实际行动能力的机器人,例如发送短信给下周某人,这样的机器人需要能够发送短信,我们将讨论如何构建这样的聊天机器人。
在光谱的一端将是只有人类的客户服务中心,因此,您将有人类服务代理来回发送消息,例如,欢迎来到更好的汉堡,让我为您播放一个,在光谱的另一端将是只有聊天机器人,软件直接回应客户。
人类键盘打字或聊天机器人两端,仅有几处常见设计点,一为机器人支持人类,机器人生成建议消息,人类客服阅读消息,若合适则批准,或有机会编辑消息再回复客户,此设计常称人为介入,因人类在循环中。
这是消息发送回客户前的过程一部分,这是减轻聊天机器人风险的一种方式,可能说错话,因为人类可以检查,在下一视频中实际发送回客户之前,当我们讨论LMS能做什么和不能做什么时。
我们将回顾LMS有时会犯的一些错误,这种设计有助于防止LMS的错误,在自动化光谱的更远处将是,如果你有一个机器人来为人类筛选消息,或许机器回答简单消息,但升级人类处理未准备好处理的事。
人类管理更多并行对话变得容易。
但取决于机器人说错话的风险以及流量,因此,人类参与循环是否可行,这是我看到公司使用的设计模式。
试图安全部署机器人的尝试总结,我们看到了LMS如何用于写作,阅读和聊天,这三大类并不意味着LMS可以做的全部,但它们只是你可能想要使用它们的几个广泛类别,LMS可以做很多。
但它们不能做所有事情在下一个视频中,让我们看看LMS可以做什么和不能做什么,更好地理解限制。
AI的种子技术很惊人,AI的种子技术很惊人,但本视频不能涵盖所有,但本视频不能涵盖所有,我们将仔细看看LMS能做什么和不能做什么,我们将仔细看看LMS能做什么和不能做什么。
我们将从一个有用的心理模型开始,我们将从一个有用的心理模型开始,关于它能做什么,关于它能做什么,然后让我们一起看看LMS的一些具体限制,然后让我们一起看看LMS的一些具体限制,理解这些限制可以降低。
理解这些限制可以降低,你可能会被绊倒的风险,你可能会被绊倒的风险,试图使用它们做它们并不擅长的事情,试图使用它们做它们并不擅长的事情,那么让我们深入探讨,那么让我们深入探讨。
如果你在尝试弄清楚LMS提示能做什么,如果你在尝试弄清楚LMS提示能做什么,我发现有一个问题提供了一个有用的心理框架,我发现有一个问题提供了一个有用的心理框架,那就是我问自己,那就是我问自己。
仅遵循指令和提示,一名大学毕业生能否完成你想要的任务,仅遵循指令和提示,一名大学毕业生能否完成你想要的任务,例如,例如,一名大学毕业生能否遵循指示阅读电子邮件以确定。
一名大学毕业生能否遵循指示阅读电子邮件以确定,电子邮件是否是投诉,电子邮件是否是投诉,嗯,嗯,我认为一名大学毕业生可能能做到这一点,我认为一名大学毕业生可能能做到这一点,LMS提示也能做得很好。
同样,LMS提示也能做到,同样,LMS提示也能做到,这里还有一个例子,这里还有一个例子,一名大学毕业生能否在不了解公司或公司的情况下撰写新闻稿,一名大学毕业生能否在不了解公司或公司的情况下撰写新闻稿。
嗯,嗯,这名大学毕业生刚刚大学毕业,这名大学毕业生刚刚大学毕业,他们刚刚认识你,对你或你的业务一无所知,他们刚刚认识你,对你或你的业务一无所知,所以他们能做到的最好就是,所以他们能做到的最好就是。
可能写一篇非常通用且不太令人满意的新闻稿,像这样,可能写一篇非常通用且不太令人满意的新闻稿,像这样,但另一方面,但另一方面。
LMS在做许多一名大学毕业生可能能做到的事情时,LMS在做许多一名大学毕业生可能能做到的事情时,把这个大学毕业生想象成拥有很多背景知识,把这个大学毕业生想象成拥有很多背景知识,他们知道,他们知道。
很多来自互联网的通用知识,很多来自互联网的通用知识,但他们必须在没有访问网络搜索引擎的情况下完成这项任务,但他们必须在没有访问网络搜索引擎的情况下完成这项任务。
并且他们对你或你的业务一无所知(为了清晰起见),并且他们对你或你的业务一无所知(为了清晰起见),这个心理模型思想实验,这个心理模型思想实验。
大学毕业生必须在没有针对你公司或业务的特定培训的情况下完成任务,大学毕业生必须在没有针对你公司或业务的特定培训的情况下完成任务,并且每次你提示你的LMS时,LMS实际上并没有记住之前的对话。
并且每次你提示你的LMS时,LMS实际上并没有记住之前的对话,所以每次你得到一个任务时,就好像你得到了一个不同的大学毕业生,所以每次你得到一个任务时,就好像你得到了一个不同的大学毕业生。
关于业务细节或风格,关于业务细节或风格,让他们写这条经验法则,询问大学毕业生能做什么,让他们写这条经验法则,询问大学毕业生能做什么,是不完美的经验法则,是不完美的经验法则,有新生能做的事。
超越这个大学毕业生概念,可能能够扩展你能用生成式AI做的事情,超越这个大学毕业生概念,现在,现在,让我们看看LMS的更多具体限制,让我们看看LMS的更多具体限制。
一个基于2022年1月之前互联网数据抓取的模型,将不会有关于最近事件的信息,将不会有关于最近事件的信息,因此,给定这样的模型,因此,给定这样的模型,如果你问它,如果你问它。
2022年票房最高的电影是什么,2022年票房最高的电影是什么,它会说不知道,它会说不知道,尽管现在已过2022,尽管现在已过2022,我们知道那是红宝石化身,我们知道那是红宝石化身。
OIS的第二个限制,OIS的第二个限制,它们有时会编造东西,它们有时会编造东西,我们称这些为幻觉,我们称这些为幻觉,我发现如果要求LM给出一些引言,我发现如果要求LM给出一些引言,历史名人名言。
历史名人名言,常组成引言,常组成引言,例如,例如,若你问,若你问,莎士比亚关于碧昂斯,莎士比亚关于碧昂斯,写了三等式,写了三等式,莎士比亚生卒于碧昂斯前,莎士比亚生卒于碧昂斯前,莎士比亚未提碧昂斯。
莎士比亚未提碧昂斯,但会自信回你引言,但会自信回你引言,如她歌声,如她歌声,如阳光般闪耀,如阳光般闪耀,向女王致敬,向女王致敬,她最值得爱,她最值得爱。
这些都是幻觉,这些都是幻觉,莎士比亚名言,莎士比亚名言,或若要求列出法庭案件,或若要求列出法庭案件,加州审理AI案件,加州审理AI案件,可能会给出权威的回答,可能会给出权威的回答,在这种情况下。
第一个案件是Waymo诉Uber案,在这种情况下,第一个案件是Waymo诉Uber案,但我未能找到Ingersoll诉Chevron案,但我未能找到Ingersoll诉Chevron案。
第二种情况是幻觉,第二种情况是幻觉,有时AI会幻想或编造,有时AI会幻想或编造,听起来权威的内容,听起来权威的内容,这可能误导人们认为,这可能误导人们认为,虚构的东西可能是真实的。
虚构的东西可能是真实的,一位律师不幸使用ChatGPT,一位律师不幸使用ChatGPT,生成法律案件文本,生成法律案件文本,并将其提交给法院,并将其提交给法院,不知道他提交给法院的是。
不知道他提交给法院的是,非法内容,包含大量虚构案件,非法内容,包含大量虚构案件,依赖AI的律师说他未理解聊天机器人,依赖AI的律师说他未理解聊天机器人,可能误导他,可能误导他。
这位律师因提交虚假法庭文件被处罚,这位律师因提交虚假法庭文件被处罚,理解其限制很重要,理解其限制很重要,若用于重要文档,若用于重要文档。
LMS也有技术限制,LMS也有技术限制,输入长度有限,即提示长度,输入长度有限,即提示长度,因此,可生成文本的输出长度也受限,因此,可生成文本的输出长度也受限,LMS可将提示设为仅数千字。
LMS可将提示设为仅数千字,因此,可提供的总上下文有限,因此,可提供的总上下文有限,若要总结论文,若要总结论文,若论文长于输入限制,若论文长于输入限制,模型可能拒绝处理,模型可能拒绝处理。
可分次给其论文部分,可分次给其论文部分,分次总结论文部分,分次总结论文部分,或可找输入限制长的模型,或可找输入限制长的模型,有些支持数万单词,有些支持数万单词,技术上,模型有上下文长度限制,技术上。
模型有上下文长度限制,上下文长度是总输入输出限制,上下文长度是总输入输出限制,使用模型时,使用模型时,我很少让它产生这么多输出以至于遇到限制,我很少让它产生这么多输出以至于遇到限制,确实关于输出长度。
确实关于输出长度,但我确实遇到输入长度限制,但我确实遇到输入长度限制,有时如果我有很多,有时如果我有很多。
成千上万的上下文单词,成千上万的上下文单词,我想给它一个生成AI的主要限制,我想给它一个生成AI的主要限制,它们目前不擅长处理结构化数据和我的结构化数据,它们目前不擅长处理结构化数据和我的结构化数据。
我的意思是表格数据,我的意思是表格数据,就像你可能存储在Excel或谷歌表格中的所有数据,就像你可能存储在Excel或谷歌表格中的所有数据,例如,例如,这是一张房价表,包括房屋面积和房价数据,以及房价。
如果你把这些数字输入到noem中,然后问它,我有一千平方英尺的房子,你认为什么价格合适,Lms并不擅长这个,相反,如果你称房屋面积为输入a,房价为输入b,输出b,监督学习更好,估计大小价格。
与结构化数据相比,生成式AI更适合处理非结构化数据,结构化数据指表格数据,如您会在电子表格中存储的数据,而非结构化数据指文本、图像等。
最后,大型语言模型可能产生偏见输出,有时输出有害言论,例如,大型语言模型基于互联网文本训练,不幸的是,互联网文本可能反映社会偏见,若要nlm完成句子,鲟鱼走向停车场并取出,可能会输出他的车钥匙。
或说护士走向停车场并取出,可能说她的手机,在此例中,lm假设外科医生是男性,护士是女性,我们清楚外科医生和护士,可以是任何性别,若在应用中,这种偏见可能造成伤害,我会小心提示和应用语言模型,确保不助长。
这种不良偏见,最后,某些元素,偶尔会输出有害的言论,例如,某些语言模型,使用主要LM提供商的Web界面,实际上变得越来越难,让他们输出这类有害言论。
首先详细且具体,其次引导模型思考答案,最后实验并迭代,从详细且具体开始,以新鲜大学毕业生为例,我会思考如何确保LM有足够上下文,或足够背景信息完成任务。
例如,若你问它,写封邮件请求分配到法律文档项目,嗯,仅凭这样的提示,它不知道如何写有说服力的案例,为你争取分配到那个项目的理由,但若你提供额外上下文,如我将申请法律文档项目的工作,检查法律文档。
解释为何我的背景使我成为该项目的强候选人,候选人的倡导者,这种提示不仅提供足够上下文,还清楚地告诉你想要做什么,这更可能得到你想要的结果。
可能得到这样的结果,模型遵循你的指示,第一个带每根胡须等,然后专业轻声猫线加有趣表情,若已有获取答案的过程,明确给予指示。
我会澄清,纠正语法拼写错误,若仍不想要结果,进一步澄清说正确弹簧错误,以专业简历语气书写,提示过程非从正确提示开始,而是从某处开始,看结果是否满意,知道如何调整提示接近答案。
我把提示过程想成这样,从你想让模型做的事开始,在提示中表达,基于提示,模型会回应,可能不是你想要的,若如此很好完成,若不满意,初始回应帮你塑造想法修改提示,迭代,可能几次才得到想要结果。
不小心有一个稍微错误措辞的提示而破坏互联网,所以继续尝试你想要的两大注意事项首先,如果你拥有高度机密的信息,我会确保我理解大型语言模型提供商如何使用或不使用,或保持该信息机密,在。
将高度机密信息复制粘贴到大型语言模型的Web用户界面之前,正如我们在上一个视频中看到的,与律师陷入麻烦提交由现在编造的,事实组成的法庭文件之前,你可能值得再次检查并决定自己。
是否可以信任并采取行动TM的输出,但有了这两个注意事项,当提示时,我经常只是跳进去尝试一些东西,看看它是否有效,但然后使用初始结果来决定如何细化提示以获得更好的结果。
这就是我们说提示是一个高度迭代过程的原因,有时你需要尝试一些东西才能得到你想要的结果。
所以这就是关于提示的所有提示,我希望你访问一些大型语言模型提供商的Web用户界面,并尝试一下这些想法你自己,在这门课程中,我们提供了一些流行LM提供商的链接,我希望你去玩它们并享受它们。
这让我们结束了本周的主要视频集,有一个可选的后续视频,在那里我将稍微谈谈图像生成或扩散模型,看看那个,如果你想,我期待下周见到你,我们将更多地谈论如何使用大型语言模型构建项目。
欢迎来到微调,由SharonJoe教的大型语言模型,非常高兴能在这里,当我与不同群体交流时,我经常听到人们问,我怎么能在自己的数据或任务上使用这些大型语言模型。
你可能已经知道如何提示一个大型语言模型。
这门课程将介绍另一个重要工具,专门微调它们,如何进行,例如,一个开源的lm并在自己的数据上进行进一步训练,在编写提示时,可以相当好地让lm遵循指令,来完成任务。
如提取关键词或将文本分类为积极或消极情感。
如果你微调,你可以让lm更加一致地做你想要的事情,我发现提示一个NLM可以使其以某种风格说话,如更有帮助或更礼貌,或简洁而非冗长,到一定程度,这也可能很具有挑战性。
微调最终也是好调整lm语调的方法,人们现在认识到聊天机器人GPT和other流行llms的惊人能力,可以回答关于广泛主题的问题,但个人和公司希望拥有与他们自己私有和专有数据相同的接口。
一种方法是训练一个llm与你的数据,当然,训练基础lm需要大量的数据,可能数百亿甚至更多than万亿个单词的数据,和巨大的GPU计算资源。
但通过微调,你可以对一个现有的lm进一步训练你的数据。
所以在这门课程中,你将学习微调是什么,它可能在你的应用程序中有哪些帮助,微调如何融入训练,它与提示工程或检索有何不同,增强生成单独,以及如何将这些技术与微调结合使用,你将深入研究一种特定的微调变体。
使得GPT变得聊天友好,被称为指令微调,它教llm遵循指令,最后,你将走过步骤来微调你自己的llm,准备数据,训练模型,并在代码中评估它,这门课程是为熟悉Python的人来说设计的。
但要理解所有代码,它将有助于进一步了解深度学习,如训练过程的知识,例如,"神经网络就像"。
"并且你说什么?","一个火车测试集","大量的努力已经投入到这门课程中",我们想要感谢整个lamini团队和ninawei,特别是在设计上,"除了深度学习之外","人工智能"。
"汤姆尼森和杰夫·洛迪大约在一个小时后"。
"通过这门短期课程",你通过微调可以获得对如何构建自己lm更深入的理解,以及使用自己数据的现有lm。