ChatGPT-与-OpenAI-的现代生成式-AI(二)

ChatGPT 与 OpenAI 的现代生成式 AI(二)

原文:Modern Generative AI with ChatGPT and OpenAI Models

译者:飞龙

协议:CC BY-NC-SA 4.0

八、用 ChatGPT 重新定义研究

在本章中,我们专注于希望利用 ChatGPT 的研究人员。本章将介绍 ChatGPT 可以解决的一些主要用例,以便您从具体示例中了解 ChatGPT 在研究中的应用。

通过本章结束时,您将熟悉多种使用 ChatGPT 作为研究助手的方式,包括以下内容:

  • 研究人员对 ChatGPT 的需求

  • 为您的研究头脑风暴文献

  • 为您的实验设计和框架提供支持

  • 生成并格式化参考文献以纳入您的研究

  • 关于您的研究向不同受众传达演讲或幻灯片展示

本章还将提供示例,并使您能够自行尝试提示。

研究人员对 ChatGPT 的需求

ChatGPT 可以成为各领域研究人员的极其宝贵的资源。作为一个在大量数据上训练的复杂语言模型,ChatGPT 可以快速准确地处理大量信息,并生成可能通过传统研究方法难以或耗时发现的见解。

此外,ChatGPT 还可以为研究人员提供对其领域的独特视角,通过分析可能不会立即为人类研究人员所注意到的模式和趋势。例如,想象一位研究气候变化并希望了解公众对这一问题的看法的研究人员。他们可以要求 ChatGPT 分析与气候变化相关的社交媒体数据,并识别在线人们表达的最常见主题和情绪。然后,ChatGPT 可以向研究人员提供详尽的报告,详细说明与该主题相关的最常见单词、短语和情绪,以及任何有用的新兴趋势或模式。

通过与 ChatGPT 合作,研究人员可以获得尖端技术和见解,并保持在其领域的前沿。

现在让我们深入探讨四种使用情况,ChatGPT 可以提高研究生产力。

为您的研究头脑风暴文献

文献综述是对特定主题或问题的现有已发表研究进行批判性和系统性审查的关键过程。它涉及搜索、审查和综合相关已发表研究和其他来源,如书籍、会议记录和灰色文献。文献综述的目标是识别特定领域中的差距、不一致性和进一步研究的机会。

文献综述过程通常包括以下步骤:

  1. 定义研究问题:进行文献综述的第一步是定义感兴趣主题的研究问题。因此,假设我们正在研究社交媒体对心理健康的影响。现在我们有兴趣思考一些可能的研究问题,以便聚焦我们的研究,并且我们可以利用 ChatGPT 来做到这一点:

图 8.1 – 基于给定主题的研究问题示例

图 8.1 – 基于给定主题的研究问题示例

这些都是可以进一步调查的有趣问题。由于我对最后一个问题特别感兴趣,我将把它作为我们分析下一步的参考。

  1. 文献搜索:现在我们有了研究问题,下一步是使用各种数据库、搜索引擎和其他来源搜索相关文献。研究人员可以使用特定关键词和搜索词来帮助识别相关研究。

图 8.2 – 在 ChatGPT 支持下进行文献搜索

图 8.2 – 在 ChatGPT 支持下进行文献搜索

从 ChatGPT 的建议开始,我们可以开始深入研究这些参考文献。

  1. 筛选文献:一旦确定了相关文献,下一步是筛选研究以确定它们是否符合综述的纳入标准。这通常涉及审查摘要,必要时还包括研究的全文。

比如,假设我们想深入研究促进青少年和年轻成年人健康使用社交媒体:干预框架研究论文。让我们请 ChatGPT 为我们筛选一下:

图 8.3 – 特定论文的文献筛选

图 8.3 – 特定论文的文献筛选

ChatGPT 能够为我提供这篇论文的概述,并考虑到其研究问题和讨论的主要话题,我认为它对我的研究将非常有用。

注意

ChatGPT 能够生成这篇论文的筛选,因为显然它是其知识库的一部分。如果您有兴趣在 2021 年之后撰写的论文上执行相同的筛选(ChatGPT 培训的截止日期),您需要向 ChatGPT 提供摘要或段落内容。

  1. 提取数据:确定了相关研究后,研究人员需要从每个研究中提取数据,如研究设计、样本大小、数据收集方法和主要发现。

例如,假设我们想从 Hinduja 和 Patchin(2018)的论文数字自残:普及率、动机和结果中收集以下信息:

  • 论文中收集的数据来源和研究对象

  • 研究人员采用的数据收集方法

  • 数据样本大小

  • 分析的主要局限性和缺点

  • 研究人员采用的实验设计

就是这样:

图 8.4 – 从给定论文中提取相关数据和框架

图 8.4 – 从给定论文中提取相关数据和框架

  1. 综合文献:文献综述过程中的最后一步是综合研究结果并得出关于该领域当前知识状态的结论。这可能涉及识别共同主题,突出文献中的差距或不一致之处,并确定未来研究的机会。

让我们想象一下,除了 ChatGPT 提出的论文外,我们还收集了其他标题和论文,我们想要综合。更具体地说,我想了解它们是否指向相同的结论,哪些是共同趋势,哪种方法可能比其他方法更可靠。对于这种情况,我们将考虑三篇研究论文:

这是结果的呈现方式:

图 8.5 – 三篇研究论文的文献分析和基准比较

图 8.5 – 三篇研究论文的文献分析和基准比较

同样,在这种情况下,ChatGPT 能够对所提供的三篇论文进行相关摘要和分析,包括方法之间的基准比较和可靠性考虑。

总的来说,ChatGPT 能够在文献综述领域执行许多活动,从研究问题头脑风暴到文献综合。一如既往,需要专业领域专家SME)来审查结果;然而,在这种协助下,许多活动可以更有效地完成。

ChatGPT 还可以支持研究人员想要进行的实验设计。我们将在以下部分讨论这一点。

为您的实验设计和框架提供支持

实验设计是计划和执行科学实验或研究以回答研究问题的过程。它涉及对研究设计、要测量的变量、样本大小以及收集和分析数据的程序做出决策。

ChatGPT 可以通过为您提供研究框架,如随机对照试验、拟实验设计或相关研究,以及在实施该设计过程中支持您,帮助进行研究的实验设计。

让我们考虑下面的情景。我们想调查新教育项目对学生数学学习成果的影响。这个新项目包含基于项目的学习(PBL),意味着学生被要求以协作的方式解决现实世界的问题,利用数学概念和技能来解决问题并创造解决方案。

为此目的,我们将我们的研究问题定义如下:

新的 PBL 项目在改善学生表现方面与传统教学方法相比如何?

这就是 ChatGPT 可以帮助的方式:

  • 确定研究设计:ChatGPT 可以协助确定研究问题的适当研究设计,如随机对照试验、拟实验设计或相关研究。

图 8.6 – ChatGPT 为您的实验建议适当的研究设计

图 8.6 – ChatGPT 建议适合你的实验的适当研究设计

ChatGPT 建议进行随机对照试验(RCT),并清楚地解释了背后的原因。对我来说,继续这种方法是合理的;下一步将是确定我们实验中需要考虑的结果指标和变量。

  • 确定结果指标:ChatGPT 可以帮助您确定一些潜在的结果指标,以确定测试的结果。让我们为我们的研究请求一些建议:

图 8.7 – 给定研究的学习成果

图 8.7 – 给定研究的学习成果

对我来说,选择考试成绩作为结果指标是合理的。

  • 确定变量:ChatGPT 可以帮助研究人员确定研究中的自变量和因变量:

图 8.8 – ChatGPT 为给定研究生成变量

图 8.8 – ChatGPT 为给定研究生成变量

注意,ChatGPT 还能够生成特定于我们考虑的研究设计(RCT)的变量类型,称为控制变量

控制变量,也被称为协变量,是在研究中保持恒定或进行控制的变量,以便隔离独立变量和因变量之间的关系。这些变量不是研究的主要焦点,但被包括在内是为了最小化混杂变量对结果的影响。通过控制这些变量,研究人员可以减少获得假阳性或假阴性结果的风险,并增加研究的内部有效性。

有了前述变量,我们已经准备好设置我们的实验了。现在我们需要选择参与者,而 ChatGPT 可以帮助我们。

  • 抽样策略:ChatGPT 可以为研究提供潜在的抽样策略:

图 8.9 – ChatGPT 提出的 RCT 抽样策略建议

图 8.9 – ChatGPT 提出的 RCT 抽样策略建议

请注意,在实际情况下,总是一个好习惯要求 AI 工具生成更多选项并解释背后的原因,这样您可以做出理性的决定。对于这个例子,让我们继续使用 ChatGPT 建议给出的内容,其中还包括关于感兴趣人群和样本大小的建议。

  • 数据分析:ChatGPT 可以协助研究人员确定适当的统计测试,以分析从研究中收集的数据,如方差分析、 t 检验或回归分析。

图 8.10 – ChatGPT 为给定研究建议统计测试

图 8.10 – ChatGPT 为给定研究建议统计测试

ChatGPT 提出的所有建议都是连贯的,并在关于如何进行统计测试的论文中得到了确认。它还能够确定我们可能在谈论一个连续变量(即分数),因此我们知道前面的所有信息都是基于这个假设。如果我们想要离散分数,我们可以通过添加这些信息来调整提示,然后 ChatGPT 将提出不同的方法。

ChatGPT 具体说明假设并解释其推理的事实是基于其输入做出安全决策的关键。

总之,当设计实验时,ChatGPT 可以成为研究人员的宝贵工具。通过利用其自然语言处理NLP)能力和广泛的知识库,ChatGPT 可以帮助研究人员选择适当的研究设计,确定抽样技术,识别变量和学习成果,甚至建议用于分析数据的统计测试。

在接下来的部分中,我们将继续探讨 ChatGPT 如何支持研究人员,重点放在参考文献生成上。

生成和格式化参考文献

ChatGPT 可以通过提供自动引用和参考工具来支持研究人员进行参考文献生成。这些工具可以为各种来源生成准确的引用和参考,包括书籍、文章、网站等。ChatGPT 熟悉各种引用风格,如 APA、MLA、Chicago 和 Harvard,使研究人员能够选择适合他们工作的风格。此外,ChatGPT 还可以根据研究人员的输入建议相关来源,帮助简化研究过程,并确保所有必要的来源都包含在参考文献中。通过利用这些工具,研究人员可以节省时间,并确保他们的参考文献准确而全面。

让我们考虑以下例子。假设我们完成了一篇名为技术对工作场所生产力的影响:一项实证研究的研究论文。在研究和写作过程中,我们收集了以下需要包含在参考文献中的论文、网站、视频和其他来源(依次为三个研究论文、一个 YouTube 视频和一个网站)的参考文献:

显然,我们不能在我们的研究论文中有上述列表;我们需要适当的格式。为了做到这一点,我们可以向 ChatGPT 提供原始参考文献列表,并要求它按照特定格式重新生成,例如 APA 格式,这是美国心理学协会APA)官方使用的参考格式风格,在教育、心理学和社会科学中常用。

让我们看看 ChatGPT 是如何处理的:

图 8.11 – ChatGPT 按照 APA 格式生成的参考文献列表

图 8.11 – ChatGPT 按照 APA 格式生成的参考文献列表

请注意,如果 ChatGPT 不知道详细信息,则我已指定不要添加详细信息。事实上,我注意到有时候 ChatGPT 会添加出版日期的月份和日期,造成一些错误。

ChatGPT 可以提供的其他有趣的帮助是建议我们可能想引用的潜在参考文献。我们已经在本章第一段看到了 ChatGPT 在写作过程之前能够策划相关文献;然而,一旦论文完成,我们可能会忘记引用相关文献,甚至不知道自己引用了别人的工作。

ChatGPT 可以成为头脑风暴可能错过的引用的伟大助手。让我们再考虑一下我们的论文技术对工作场所生产力的影响:一项经验性研究,其摘要如下:

这项经验性研究探讨了技术对工作场所生产力的影响。该研究旨在确定技术对工作场所生产力的影响程度,并确定对生产力产生最大影响的具体技术。我们对各行业员工进行了调查,并使用回归分析对结果进行了分析。发现表明技术对工作场所生产力有显著的积极影响,对生产力影响最大的技术是促进沟通、协作和任务管理的技术。研究结论是,组织应继续投资于支持这些功能的技术,以最大程度地提高工作场所的生产力

让我们让 ChatGPT 列出可能与这种研究相关的所有可能的参考文献:

图 8.12 – 与提供的摘要相关的参考文献列表

图 8.12 – 与提供的摘要相关的参考文献列表

您也可以重复此过程,检查论文的其他部分,确保没有漏掉任何相关的引用需要包括在您的参考文献中。

一旦您的研究准备好了,您可能需要用提议方式来进行展示。在接下来的部分中,我们将看到 ChatGPT 如何支持这个任务。

生成研究的演示

研究的最后一步通常是向各种受众展示。这可能涉及准备幻灯片演示、提案或网络研讨会,研究人员需要向不同类型的受众表达观点。

比如说,我们的研究技术对工作场所生产力的影响:一项经验性研究是为了硕士论文讨论。在这种情况下,我们可以要求 ChatGPT 产生一个持续 15 分钟的提案结构,并遵守科学方法。让我们看看产生了怎样的结果(作为背景,我参考的是上一段的摘要):

图 8.13 – ChatGPT 生成的论文讨论

图 8.13 – ChatGPT 生成的论文讨论

那太令人印象深刻了!回到我大学时代,有这样的工具来帮助我设计讨论会真的很有用。

从这个结构开始,我们也可以要求 ChatGPT 生成一个幻灯片演示,作为我们论文讨论的视觉呈现。

第一章中,我们已经看到了一个由人工智能驱动的工具 Tome AI 的一个示例,用于生成端到端的幻灯片演示,使用文本生成和图像生成。在这一段中,我们将专注于文本生成部分,但请记住,还有 AI 工具可以帮助您创建幻灯片演示。

让我们继续进行这个请求:

图 8.14 – 基于讨论提纲的幻灯片结构

图 8.14 – 基于讨论提纲的幻灯片结构

最后,让我们想象一下,我们的论文讨论非常出色,以至于可能被选中获得研究基金以继续探讨这个主题。现在,我们需要一个电梯演讲来说服资助委员会。让我们从 ChatGPT 那里寻求一些支持:

图 8.15 – 给定论文的电梯演讲

图 8.15 – 给定论文的电梯演讲

我们总是可以调整结果,使其更符合我们所追求的东西;但是,已经有可用的结构和框架可以节省很多时间,并让我们更专注于想要阐述的技术内容。

总的来说,ChatGPT 能够支持研究的端到端旅程,从文献收集和审阅到最终研究的最终提纲的生成,我们已经展示了它是研究人员的出色 AI 助手。

此外,请注意,在研究领域,最近已经开发了一些与 ChatGPT 不同但同样由 GPT 模型驱动的工具。其中一个例子是 humanata.ai,这是一个由人工智能驱动的工具,允许您上传您的文档并对其进行多种操作,包括摘要、即时问答和基于上传文件生成新论文。

这表明 GPT 驱动的工具(包括 ChatGPT)正在为研究领域的几项创新铺平道路。

摘要

在本章中,我们探讨了 ChatGPT 作为研究人员宝贵工具的使用。通过文献综述、实验设计、参考文献生成和格式化以及演示生成,ChatGPT 可以协助研究人员加快那些附加值低或为零的活动,以便他们可以专注于相关活动。

请注意,我们仅关注 ChatGPT 可以支持研究人员的一小部分活动。研究领域中还有许多其他活动可以从 ChatGPT 的支持中受益,其中包括数据收集、研究参与者招募、研究网络、公众参与等等。

将此工具纳入工作流程的研究人员可以从其多功能性和节省时间的功能中受益,最终实现更具影响力的研究成果。

但是,重要的是要牢记 ChatGPT 只是一个工具,应该与专业知识和判断力结合使用。与任何研究项目一样,需要对研究问题和研究设计进行深思熟虑,以确保结果的有效性和可靠性。

通过这一章,我们也结束了本书的第二部分,重点关注您可以利用 ChatGPT 的各种场景和领域。然而,我们主要关注个人或小团队的使用,从个人生产力到研究辅助。从第三部分开始,我们将提升讨论到大型组织如何利用与 ChatGPT 背后相同的生成式 AI 进行企业规模项目,使用在 Microsoft Azure 云上提供的 OpenAI 模型 API。

参考文献

第三部分:企业的 OpenAI

本部分向您介绍了 OpenAI 模型在企业应用领域的世界。

它以介绍 OpenAI 与微软的合作伙伴关系以及随后推出的 Azure OpenAI 服务上市为开端,这是一个云托管服务,提供具有云规模架构典型的可扩展性、灵活性和安全性的 OpenAI 模型。

然后,它转向一个实用部分,在这里您将了解企业用例的概述。每个用例都提供了业务场景的描述以及使用 Python 和 Azure OpenAI 模型 API 的端到端实现。涵盖的场景包括 HR 助手、合同分析、呼叫中心分析和语义搜索。

最后,这部分总结了本书涵盖的所有内容,包括最近几周发生的最新公告和发布(例如,引入了 GPT-4 等多模式大型模型)。它还提供了一个关于生成式 AI 技术在短短几个月内呈指数增长以及未来预期的一些反思和最终想法的部分。

这部分包括以下章节:

  • 第九章企业的 OpenAI 和 ChatGPT – 介绍 Azure OpenAI

  • 第十章企业的热门用例

  • 第十一章结语和最终想法

九、为企业介绍 Azure OpenAI 的 OpenAI 和 ChatGPT

在本章中,我们将重点关注 OpenAI 模型在企业级的应用,并介绍 OpenAI 和 Microsoft 的合作伙伴关系以及Azure OpenAIAOAI)服务。我们将介绍 Microsoft 在人工智能AI)领域的里程碑和发展,并突出 Azure 云在 OpenAI 领域的发展历程,以及为何这对于大型组织来说是一个改变游戏规则的因素。最后,我们将考虑负责任的人工智能,并介绍如何确保您的 AI 系统符合道德标准。

在本章中,我们将讨论以下主题:

  • Microsoft 和 OpenAI 合作的历史以及 AOAI 服务的介绍

  • 在 OpenAI 模型的公共云中的角色

  • 负责任的人工智能

在本章结束时,您将了解 AOAI 服务的主要特点,以及它与我们迄今讨论的 OpenAI 模型的区别。您还将了解 Microsoft 和 OpenAI 之间的合作历史,以及为什么需要在企业规模的基础架构上部署 OpenAI 模型。最后,您将了解 Microsoft 持续而长期的负责任人工智能承诺,以及它如何使 AOAI 服务受益。

技术要求

以下是本章的技术要求:

  • Azure 订阅,您可以在此处免费创建:azure.microsoft.com/free/cognitive-services

  • 在期望的 Azure 订阅中授予对 Azure OpenAI 的访问权限。撰写本文时,该服务的访问权限仅通过申请获得。您可以通过填写表单,申请访问 Azure OpenAI,链接为aka.ms/oai/access

为企业级 AI 介绍 OpenAI 和 Microsoft – 引入 Azure OpenAI

Microsoft 长期投资于 AI 研发,专注于构建 AI 驱动的工具和服务,可供企业和个人解决复杂问题并提高生产力。

它还在实现人类在 AI 领域实现平等的一系列重要里程碑,如语音识别(2017)、机器翻译(2018)、对话问答(2019)、图像字幕(2020)和自然语言理解(2021)。

定义

在 AI 领域,人类平等指的是 AI 系统能够以与人类相等或难以区分的水平执行任务的时刻。这个概念经常用来衡量 AI 系统的性能,尤其是在自然语言理解、语音识别和图像识别等领域。在 AI 领域实现人类的平等被认为是一个重要的里程碑,因为它证明了 AI 有效地匹配了在特定领域的人类能力。

在接下来的几节中,我们将探讨微软在人工智能领域的研究历史和背景,以充分了解其与 OpenAI 的合作之旅,并最终开发 AOAI 服务。

微软人工智能背景

人工智能领域的早期研究可以追溯到 1990 年代末,当时微软建立了其机器学习ML)和应用统计研究小组。从那时开始,微软开始研究和尝试智能代理和虚拟助手。在这种情况下,原型是 Clippy,一个为 Microsoft Office 的个人数字助理:

图 9.1 – Clippy,2000 年推出的默认办公助手

图 9.1 – Clippy,2000 年推出的默认办公助手

Clippy 是更复杂工具的先驱,例如 Cortana。Cortana 于 2014 年推出,是一个使用自然语言处理NLP)和机器学习来为用户提供个性化协助的数字助手。

随后,2016 年,作为对微软牛津项目的扩展,微软在 Azure 云中推出了微软认知服务,这是一组 API,为开发人员提供人工智能能力,而无需他们需要机器学习和数据科学专业知识:

图 9.2 – 微软 Azure 人工智能服务

图 9.2 – 微软 Azure 人工智能服务

有了认知服务,人工智能最终可以被广泛用户消费,从大型企业到个人开发者。出于这个原因,我们见证了我们现在称之为人工智能民主化:人工智能不再是那些拥有深厚技术知识和强大昂贵硬件进行模型训练的特权。认知服务出于以下原因已经发展:

  • 以便任何人,从数据科学家到业务用户,都可以利用认知服务进行无代码方法的利用

  • 提供一组已经经过训练的预构建模型 – 也就是说,它们已经可以使用,不需要 GPU 驱动的硬件来运行

从微软最近几年收购的人工智能公司中可以看出微软对人工智能的投资,包括 2016 年的 SwiftKey(一个预测键盘应用:blogs.microsoft.com/blog/2016/02/03/microsoft-acquires-swiftkey-in-support-of-re-inventing-productivity-ambition/),2017 年的 Maluuba(一个深度学习初创公司:https://blogs.microsoft.com/blog/2017/01/13/microsoft-acquires-deep-learning-startup-maluuba-ai-pioneer-yoshua-bengio-advisory-role/),和 2018 年的 Bonsai(一个构建人工智能模型的平台:blogs.microsoft.com/blog/2018/06/20/microsoft-to-acquire-bonsai-in-move-to-build-brains-for-autonomous-systems/)。

在微软投资和合作的公司中,还包括 OpenAI。

两家科技公司之间的合作始于 2016 年,当时 OpenAI 同意利用微软的 Azure 云基础设施来运行其人工智能实验。后来,在 2019 年,微软宣布与 OpenAI 达成了一项价值 10 亿美元的合作伙伴关系(news.microsoft.com/2019/07/22/openai-forms-exclusive-computing-partnership-with-microsoft-to-build-new-azure-ai-supercomputing-technologies/),旨在开发可造福人类的人工智能模型和技术。这项合作基于以下三个主要支柱:

  • 微软和 OpenAI 将共同建立新的 Azure 超级计算基础设施来训练人工智能模型

  • OpenAI 将使其模型和技术可以从 Azure 云中使用

  • 微软将成为 OpenAI 在市场上推广新人工智能解决方案的首选合作伙伴

从那时起,两家公司继续投资和研究,最终在 2023 年 1 月,一套 OpenAI 模型通过 AOAI 服务在 Azure 上提供。

随着 AOAI 服务的普及,达到了一个新的里程碑,微软 AI 产品组合得到了扩展,增加了 OpenAI 强大的大型语言模型。

Azure OpenAI 服务

AOAI 服务是微软的产品,提供对 OpenAI 强大语言模型(如 GPT-3.5、Codex 和 DALL-E)的 REST API 访问。您可以像使用 OpenAI 模型一样使用这些模型,例如内容生成、摘要、语义搜索、自然语言和代码翻译等任务。

在 Microsoft Azure AI 产品组合的背景下,AOAI 服务位于以下认知服务产品之间:

图 9.3 – AOAI 服务的普及(GA)

图 9.3 – AOAI 服务的普及(GA)

与任何其他认知服务产品一样,AOAI 提供已经训练好并准备消费的模型。

要创建您的 AOAI 资源,请按照以下说明操作:

  1. 转到 Azure 门户网站 ms.portal.azure.com

  2. 点击创建一个资源

  3. 输入azure openai,然后点击创建

  4. 填写所需信息,然后点击审核 + 创建

如下截图所示:

图 9.4 – 创建 AOAI 资源的步骤

图 9.4 – 创建 AOAI 资源的步骤

这个过程可能需要几分钟。一旦准备就绪,您可以直接转到其用户友好的界面,AOAI Playground,测试您的模型,然后部署它们:

图 9.5 – AOAI 用户界面和 Playground

图 9.5 – AOAI 用户界面和 Playground

请注意,AOAI Playground 看起来几乎与我们在第二章中看到的 OpenAI Playground 版本相同。这里的区别在于,要使用 AOAI 模型,您必须启动一个部署,这是一个无服务器计算实例,您可以将其附加到模型上。您可以在 Playground 中或在 Azure 门户的资源后端页面上执行此操作:

图 9.6 – 通过 Playground(A)或 Azure 门户(B)创建新的 AOAI 部署

图 9.6 – 通过 Playground(A)或 Azure 门户(B)创建新的 AOAI 部署

例如,我创建了一个名为 text-davinci-003 的部署,带有一个关联的 text-davinci-003 模型:

图 9.7 – AOAI 的活跃部署

图 9.7 – AOAI 的活跃部署

在 OpenAI Playground 中,我们可以通过用户界面直接测试这些模型,或者将它们的 API 嵌入到我们的应用程序中。在下一节中,我们将探讨如何与 Playground 互动并尝试不同模型的配置。在第十章中,我们将学习如何将 AOAI 的 Models API 集成到企业应用程序中。

探索 Playground

AOAI Playground 是熟悉基础模型并开始规划哪个模型版本最适合您的项目的最简单方法。用户界面呈现不同的选项卡和工作区,如下面的截图所示:

图 9.8 – AOAI Playground 概览

图 9.8 – AOAI Playground 概览

让我们逐个探索:

  • Playground | ChatChat 工作区专为与对话模型(如 ChatGPT 背后的 GPT-3.5-turbo 模型)一起使用而设计:

图 9.9 – AOAI Chat 工作区

图 9.9 – AOAI Chat 工作区

它提供了与 ChatGPT 本身类似的体验,可以通过附加参数配置您的模型(正如我们在第二章中在 OpenAI Playground 中看到的)。此外,还有一个使 Chat 工作区非常有趣的附加功能,称为 系统消息

图 9.10 – 系统消息示例

图 9.10 – 系统消息示例

系统消息 是我们给模型的一组指令,告诉它如何行为和与我们互动。至于提示,系统消息 是模型配置的一个关键组成部分,因为它极大地影响模型的性能。

例如,让我们指示我们的模型表现为 JSON 格式化助手:

图 9.11 – 模型充当 JSON 格式化助手的示例

图 9.11 – 模型充当 JSON 格式化助手的示例

正如您从前面的截图中看到的那样,该模型能够通过一些简单的数据(如姓名和年龄)建议一个 JSON 文件,而无需指定任何标签。

  • 游乐场 | 完成:与之前的工作区不同,完成工作区提供了一种类似白皮书的地方,您可以与您的模型进行交互。虽然 GPT-3.5-turbo 设计用于对话任务(这意味着它可以通过类似聊天机器人的界面来消耗),但 GPT-3 系列包含更多通用模型,可用于广泛的语言任务,如内容生成、摘要等。

例如,我们可以要求我们的模型通过给定主题描述和一次性示例来生成一个测验,如下所示:

图 9.12 – 生成测验的 GPT 模型示例

图 9.12 – 生成测验的 GPT 模型示例

最后,根据聊天工作区,通过完成,您可以配置参数,如最大标记数或温度(有关这些参数及其含义的全面列表,请参考第二章)。

  • 管理 | 部署:在部署选项卡中,您可以创建和管理与 AOAI 模型关联的新部署。它们如下所示:

图 9.13 – AOAI 部署列表

图 9.13 – AOAI 部署列表

每个部署只能托管一个模型。您可以随时编辑或删除您的部署。正如我们之前提到的,模型部署是使用 AOAI 服务中的完成聊天工作区的启用步骤。

  • 管理 | 模型:在这个选项卡中,您可以快速评估 AOAI 服务中可用的模型,其中包括可以部署的模型(即尚未部署的模型)。例如,让我们考虑以下截图:

图 9.14 – AOAI 模型列表

图 9.14 – AOAI 模型列表

在这里,我们有text-similarity-curie-001。它没有关联的部署,因此可以部署(因为text-similarity-ada-002已经有一个部署,所以不再可用)。

在这个选项卡中,您还可以按照一种称为微调的过程创建自定义模型。我们在第二章中探讨了这一点:

图 9.15 – 模型微调示例

图 9.15 – 模型微调示例

从这个引导小部件开始,您可以上传您的训练和验证数据,以生成一个定制模型,从一个基础模型(即text-davinci-002)开始,该模型将托管在一个专用部署上。

注意

第二章中,我们看到训练数据集应该符合以下类型的特定格式(称为 JSONL):

{"prompt": "<提示文本>", "completion": "<理想生成文本>"}

{"prompt": "<提示文本>", "completion": "<理想生成文本>"}

{"prompt": "<提示文本>", "completion": "<理想生成文本>"}

...

为了简化这种格式,OpenAI 开发了一个工具,可以将您的数据格式化为准备进行微调的特定格式。它还可以提供建议,以便修改数据,使工具可以用于微调。此外,它接受各种数据格式作为输入,包括 CSV、TXT 和 JSON。

要使用此工具,您可以通过运行以下命令初始化 OpenAI 的命令行界面CLI):

pip install --****upgrade openai

初始化后,您可以运行该工具,如下所示:

openai tools fine_tunes.prepare_data -``f <LOCAL_FILE>

  • 管理 | 文件管理:最后,在文件管理选项卡中,您可以直接从用户界面管理和上传您的训练和测试数据,如下所示:

图 9.16 – 在 AOAI 服务中上传文件的示例

图 9.16 – 在 AOAI 服务中上传文件的示例

您可以选择通过选择本地文件Azure blob 或其他共享网络位置来上传文件。

上传文件后,您将能够在创建定制模型时通过模型选项卡选择它们。

最后,正如在前一节中提到的,每个模型都配备了一个 REST API,可以在您的应用程序中使用。

在下一章中,我们将看到许多使用 AOAI 模型 API 的端到端实现。然而,在我们深入研究之前,我们需要了解 AOAI 与标准 OpenAI 模型的区别,以及为什么 Azure 云成为游戏的一部分。

为什么要引入公共云?

在本章的开头,我们看到微软和 OpenAI 近年来合作,以及微软的云 Azure 如何成为 OpenAI 模型训练的“健身房”。然而,它也成为了 OpenAI 模型可以被消费的云基础设施。

但是使用 OpenAI 和 Azure OpenAI 模型有什么区别?区别在于基础架构:使用 Azure OpenAI,您正在利用您自己的基础架构,同时生活在您自己的安全订阅中。这带来了一系列优势:

  • 可扩展性和灵活性:您可以从 Azure 的可扩展性中受益,并适应 AOAI 模型的弹性使用。从小型试点到企业级生产项目,AOAI 允许您利用所需的容量,并在必要时进行扩展或缩减。

  • 安全性和合规性:您可以使用基于角色的身份验证和私人网络连接,使部署更加安全和可信。您还可以在完全控制您的数据的同时训练您的 AI 模型。

  • 区域可用性:您可以在满足生产需求的 Azure 全球基础设施上运行您的 AI 工作负载。

  • 内置的负责任 AI:您可以使用内容过滤来确保您的 AI 模型生成适当和符合道德的输出。

有了 Azure 中可用的 OpenAI 模型,我们可以将游戏提升到企业和生产级别,满足大型组织通常的所有安全和容量要求。

先前提到的好处之一值得特别关注:负责任的人工智能。人工智能技术的快速发展也需要从道德工具的角度加以解决。这是微软自 2016 年以来一直在研究的内容,我们将在下一节中探讨。

理解负责任的人工智能

我们提到内置的负责任人工智能是 AOAI 的关键特性之一。然而,要完全理解它,我们首先需要了解微软对负责任人工智能的承诺和旅程。

微软迈向负责任人工智能的旅程

微软很快意识到,随着人工智能技术不断发展并更多地融入我们的生活,有必要确保这些系统负责任、道德,并以符合所有人利益的方式开发和使用。

这一旅程的开端可以追溯到 2016 年,当时微软的首席执行官萨蒂亚·纳德拉撰写了一篇文章,探讨人类和人工智能如何共同解决社会最大的挑战,并介绍了负责任人工智能的第一个概念,其中包括透明度、公平性,以及它是为了隐私和协助人类而设计的。

此后不久,在 2017 年,微软通过第一个人工智能伦理委员会Aether(简称AI、伦理和工程研究中的影响)正式确立了这些概念,形成了微软高级领导团队的咨询小组。

AETHER 花时间倾听客户和内部专家的意见,然后与法律事务合作,在 2018 年 1 月出版了名为《未来计算:人工智能及其在社会中的作用》的书。在这本书中,微软确定了六项原则,旨在指导公司开发人工智能系统,并帮助全行业和整个社会了解负责任的人工智能实践。

微软对负责任的人工智能的六大原则如下:

  • 公平性:微软旨在创建无偏见、公平对待所有个人和群体的人工智能系统,不歧视或偏见

  • 可靠性和安全性:微软致力于创建强大、可靠和安全的人工智能系统,不会危及安全或造成意外伤害

  • 隐私和安全:微软重视个人和其数据的隐私和安全,并通过透明度和对人工智能技术的负责任使用来保护它们

  • 包容性:微软认为人工智能应该被设计为赋予和包容来自不同背景的个人,并促进所有人的平等机会

  • 透明度:微软相信人工智能系统的决策和行动应该透明和可追溯,并致力于为其结果提供清晰的解释

  • 问责制:微软承担其 AI 系统对社会和环境的影响的责任,并致力于促进在 AI 开发和使用中的道德和负责任实践。

微软通过委员会的帮助遵循这些原则,为其领导层、工程团队以及公司内的每个团队提供指导。

微软还制定了一个负责任人工智能标准,为负责任地构建 AI 系统提供了框架。

在该书出版后,微软继续在负责任人工智能的以下领域进行投资和研究:

以下图表展示了负责任人工智能的整个过程:

图 9.17 – 微软的负责任人工智能之旅

图 9.17 – 微软的负责任人工智能之旅

微软对负责任人工智能的承诺体现在其产品设计方式以及提供的最佳实践和指南中。

当然,这也适用于 AOAI 服务。正如我们将在下一节中看到的,AOAI 服务在不同层面内置了负责任的人工智能。

Azure OpenAI 和负责任人工智能

关于 AOAI 服务,我们可以从以下两个层面谈论负责任的人工智能:

  • JSON 响应中的finish_reason参数将是content_filter,表示部分生成内容已被过滤。

  • 行为准则和最佳实践:对于其其他 AI 服务,微软为 AOAI 提供透明度说明。该应用旨在促进对 AI 技术工作方式、其局限性和能力以及考虑整个系统(包括人和环境)重要性的理解。开发人员和系统所有者可以使用这些说明来创建适合其预期目的的 AI 系统,并在 AOAI 的特定情况下,帮助识别可能触发内置内容过滤器的情景。

内置功能和透明度说明都是微软努力将道德人工智能实践应用于现实场景的体现,遵循着他们的 AI 原则。

总之,作为微软负责任的 AI 象征着该公司对道德人工智能开发和部署的坚定承诺,AOAI 也从中受益。

总结

在本章中,我们看到了 OpenAI 与微软之间的合作如何为面向企业级组织带来了强大和创新的人工智能解决方案:AOAI。该服务结合了 OpenAI 的尖端技术和微软的广泛云基础设施,为企业提供了一个可扩展和可定制的平台,用于构建和部署先进的人工智能应用程序。

我们还详细讨论了微软对负责任的人工智能实践和伦理的强烈关注,以及 AOAI 服务如何反映了对负责任人工智能的承诺,比如内置于平台的内容过滤器等功能。

随着人工智能继续改变行业并塑造我们的未来,OpenAI 与微软之间的合作标志着企业级人工智能解决方案发展的重要里程碑。AOAI 使企业能够利用人工智能的力量推动增长和创新,同时确保道德和负责任的实践。

在下一章中,我们将深入探讨企业正在开发的 AOAI Models API 的具体用例。我们还将看到一个潜在用例的端到端实现,该用例使用 Python 和 Streamlit,以便您可以第一手体验 AOAI 的模型如何为您的应用程序注入人工智能。

参考资料

十、企业的热门用例

我们从概述当今市场上企业正在开发的 Azure OpenAI 最流行的用例开始本章。由于 Azure OpenAI 能够为复杂问题提供先进解决方案,因此它已被广泛应用于金融、医疗保健、零售和制造等各种行业。因此,我们必须了解 Azure OpenAI 模型对这些行业可能产生的影响程度,并保持竞争力。

为此,本章概述了 Azure OpenAI 在这些行业中的各种应用,包括改善客户体验、增强智能搜索和构建面向客户的聊天机器人。每个用例都将使用 Python、LangChain 或 Streamlit 作为前端进行端到端实现。

在本章中,我们将学习以下主题:

  • Azure OpenAI 在企业中的应用方式

  • 分析和生成合同

  • 理解呼叫中心分析

  • 探索语义搜索

通过本章结束时,您将更深入地了解 Azure OpenAI 为企业开辟道路的用例。在这个数字发展时代,生成式人工智能技术正在呈指数增长,企业也以同样快的速度采用这些技术。了解这些技术及其应用为我们提供了理解市场并为未来做出调整的工具。

最后,您还可以使用 Python、LangChain、Streamlit 和您的 AOAI 实例开始自己的项目,以便跟随所涵盖的示例以及新的用例。

技术要求

本章的技术先决条件如下:

  • Azure 订阅,您可以在此处免费创建:azure.microsoft.com/free/cognitive-services

  • 访问 Azure OpenAI 的 Azure 订阅。目前,只有通过申请才能获得访问此服务的权限。您可以通过填写 aka.ms/oai/access 上的表格申请访问 Azure OpenAI。

  • Python 3.7.1 或更高版本。

  • 以下 Python 库:Openailangchain,requestsjsonospandasnumpystreamlittiktokenmatplotlib

  • 部署了模型的 Azure OpenAI 服务资源。在我的情况下,我部署了一个名为 test1 的实例,并关联了 text-davinci-002

本章中显示的所有代码以及用于预处理和 utils 的脚本都可以在该书的 GitHub 仓库中找到:

github.com/PacktPublishing/Modern-Generative-AI-with-ChatGPT-and-OpenAI-Models/tree/main/Chapter%2010%20-%20Enterprise%20use%20cases

所有的代码将使用 Python 编写。为了使用 Azure OpenAI 的大型语言模型,我将使用 LangChain,这是一个轻量级框架,使大型语言模型(LLMs)更易于在应用程序中使用。对于前端,我将使用 Streamlit,这是一个开源的 Python 库,可轻松构建和部署数据科学和机器学习项目的网络应用。它提供了一个简单直观的界面,用于创建交互式的数据驱动应用程序。

对于每种情况,从 Azure OpenAI 导出代码和 API 时,我还会设置一些值为预设参数,如temperaturemax_tokens等等。关于这些参数及其含义的全面列表,请参考第二章,在OpenAI 模型概述 家族 部分。

如何在企业中使用 Azure OpenAI

Azure OpenAI 正在迅速在大型企业中越来越受欢迎,作为推动创新和提高效率的强大工具。如今,许多公司正在利用这项技术的能力来简化他们的业务并获得竞争优势。

以下是按行业领域分组的一些例子:

  • 医疗保健:AOAI 的语言模型可用于分析电子健康记录EHRs)和医学文献,以帮助医生做出更明智的患者护理决策。

  • 金融:AOAI 的模型可用于分析市场趋势并确定潜在的投资机会。它们还可用于欺诈检测,信用评分和客户服务自动化。

  • 零售:AOAI 的模型可用于个性化客户体验和提供有针对性的产品推荐。它们还可用于库存优化,需求预测和供应链管理。

  • 媒体:OpenAI 的模型可用于在多种语言中生成新闻文章,摘要和标题。它们还可用于内容审查,情感分析以及辨别假新闻。

还有许多其他例子。一个很好的例子是葡萄牙司法部在微软葡萄牙的支持下为其公民实施的服务:一个由gpt-3.5-turbo支持的聊天机器人,它是 ChatGPT 背后的模型,能够回答有关法律诉讼的问题。

这个聊天机器人被称为司法访问实用指南GPJ),其目的是使普通人更容易了解法律程序中典型的复杂行话。

这是不同行业,包括政府,如何利用 Azure OpenAI 模型更有竞争力,以及为他们的客户或者人口提供更好的服务的一个很好的例子。

在接下来的段落中,我们将深入探讨具体的用例,以及使用 Python 逐步实现。

合同分析器和生成器

AOAI 的模型可以成为合同分析的有价值工具,帮助法律部门和合同管理员节省时间,避免潜在的法律问题。

律师和合同管理员可以借助他们的深度语言理解能力更深入地理解法律文件,减少争端和诉讼的风险,并确保合同准确反映了所有相关方的意图。

AOAI 在合同中的应用的一些例子如下:

  • 识别关键条款:AOAI 的模型可以分析合同并识别关键条款,例如与终止、赔偿和保密有关的条款。这可以节省时间并确保在分析过程中考虑到所有重要的条款。

  • 分析语言: AOAI 的模型可以帮助识别复杂的语言和法律术语,使律师更容易理解合同的意图和含义。这可以帮助避免后续的误解和争端。

  • 标记潜在问题: AOAI 的模型可以帮助标记合同中的潜在问题,例如模糊的语言或冲突的条款。这可以帮助律师和合同管理员在它们变成重大问题之前解决这些问题。

  • 提供合同模板: AOAI 的模型可以提供常见合同模板,例如保密协议或服务协议。这可以节省时间并确保合同一致且全面。

  • 协助合同审查:AOAI 的模型可以通过突出显示需要关注或澄清的区域来协助审查流程。这可以帮助确保所有相关方保持一致,并且合同准确反映了所有相关方的意图。

我们将在 Python 中看到每个元素的一个示例,并且在本章结束时会有一个带有 Streamlit 的端到端实现。

识别关键条款

合同是任何商业或法律协议的组成部分,但可能很复杂且耗时。为了简化流程并确保考虑到所有重要条款,AOAI 的模型可以通过识别合同中的关键条款来辅助。这些关键条款可能包括与终止、赔偿、保密以及协议的其他关键方面相关的规定。

例如,假设一家公司正在审查与供应商提供服务的合同。合同包含多页的法律语言,使得识别对业务可能产生重大影响的重要条款成为挑战。通过使用 AOAI 模型,公司可以分析合同并识别与终止、赔偿和保密有关的关键条款。这将使公司能够专注于重要条款,并了解与其相关的潜在风险和收益。

这样,AOAI 的模型通过识别关键条款可以节省时间,减少疏忽的风险,并帮助企业在审查合同时做出明智的决定。

以下是一个服务提供合同的示例:

图 10.1 – 服务提供合同示例

图 10.1 – 服务提供合同示例

假设我们想提取这份合同的终止条款。如技术要求部分所述,我部署了一个名为test1text-davinci-002的简单实例。我还创建了一个名为contract的变量,其中存储了前述示例合同。然后,我定义了一个提示,询问我的模型有关终止条款的问题,如下所示:

response = openai.Completion.create(
  engine="test1",
  prompt= contract + " what is the termination clause?",
  temperature=0,
  max_tokens=1968,
  top_p=0.5,
  frequency_penalty=0,
  presence_penalty=0,
  best_of=1,
  stop=None)
print(response["choices"][0]["text"].strip())

这是输出结果:

图 10.2 – 终止条款提取示例

图 10.2 – 终止条款提取示例

我还可以设置一个对话,可以向我的模型提出关于条款的多个问题:

prompt = "<|im_start|>system\n" + contract + "\n<|im_end|>\n"
#print('AI Assistant: ' + prompt + '\n')
while True:
    query = input("you:")
    if query == 'q':
        break
    user_input = "<|im_start|>user\n" + query + "\n<|im_end|>\n<|im_start|>assistant\n"
    prompt+=user_input
    output = openai.Completion.create(
          engine="test1",
          prompt=prompt,
          temperature=0,
          max_tokens=2000,
          top_p=0.95,
          frequency_penalty=0,
          presence_penalty=0,
          stop=["<|im_end|>"])
    print('\n')
    print('AI Assistant: ' + output["choices"][0]["text"].strip() + '\n')
    response = output["choices"][0]["text"].strip() + "\n<|im_end|>\n"
    prompt+=response

这是它的响应:

图 10.3 – 与 AOAI 模型的对话

图 10.3 – 与 AOAI 模型的对话

这是一个简单的示例,涉及一个简短的合同。现在想象一下有很多页需要检查。AOAI 的模型肯定可以提供有价值的帮助,提取这些条款,并指导用户指向页面的部分,其中规定了条款,以便主题专家SME)可以验证响应。

分析语言

在某些情况下,合同可能包含律师难以理解的高度技术或专业化语言。AOAI 的模型可以帮助识别这些术语,并清晰解释其含义,帮助律师更好地理解合同的意图和整体含义。通过确保所有各方清楚理解协议的条款和条件,可以避免潜在的误解和争议,为所有相关方节省时间和资源。

例如,想象一下在碳捕集与储存CCS)背景下的合同。合同包含许多与 CCS 相关的技术术语,如泄漏MVA 技术后燃烧捕集

没有 CCS 背景的律师审查合同时可能难以完全理解这些术语的含义和影响。通过使用 AOAI 的模型分析合同,律师可以快速识别这些技术术语,并清晰解释其含义。这将帮助律师更好地理解合同的意图,并确保所有各方达成一致。因此,后续误解和争议的可能性将大大降低。

让我们考虑以下示例合同的摘录:

图 10.4 – 示例合同

图 10.4 – 示例合同

正如您从前述的样本合同中所看到的,有许多术语,如果您不熟悉 CCS,更广义地说,不熟悉能源和环境工程,您可能会发现难以理解,也不容易理解它们所写的上下文。

幸运的是,AOAI 的模型不仅能够解释单个术语(与现有搜索引擎相比并没有什么新意),而且 – 更重要的是 – 能够解释这些术语在使用的上下文中

为了证明这一点,让我们在与我们的 AOAI 模型进行交互式聊天中设置一些查询(在这种情况下,样本合同也已存储在contract变量中):

prompt = "<|im_start|>system\n" + contract + "\n<|im_end|>\n"
#print('AI Assistant: ' + prompt + '\n')
while True:
    query = input("you:")
    if query == 'q':
        break
    user_input = "<|im_start|>user\n" + query + "\n<|im_end|>\n<|im_start|>assistant\n"
    prompt+=user_input
    output = openai.Completion.create(
          engine="test1",
          prompt=prompt,
          temperature=0,
          max_tokens=2000,
          top_p=0.95,
          frequency_penalty=0,
          presence_penalty=0,
          stop=["<|im_end|>"])
    print('\n')
    print('AI Assistant: ' + output["choices"][0]["text"].strip() + '\n')
    response = output["choices"][0]["text"].strip() + "\n<|im_end|>\n"
    prompt+=response

这是回应:

图 10.5 – 与 AOAI 模型关于合同的对话

图 10.5 – 与 AOAI 模型关于合同的对话

正如您所看到的,该模型不仅能够详细解释技术概念(EPA),还能解释其使用的上下文。

多亏了 AOAI 的模型,技术上的、领域特定的行话和法律术语之间的鸿沟可以被缩小,甚至消除,这样律师或合同经理就可以专注于语义内容。

标记潜在问题

AOAI 在合同分析中可以发挥作用,通过利用其先进的自然语言处理NLP)能力来识别可能导致歧义、不确定性或法律风险的条款和语言。例如,AOAI 的语言模型可以标记合同中可能导致争议或诉讼的模糊语言或冲突条款。它们还可以识别可能对一方或另一方不利的条款,例如限制责任、限制竞争或要求独家交易的条款。

让我们考虑以下例子。我们在 ABC 公司的法律办公室工作,为一批新员工制定雇佣协议。我们最近改变了招聘条款,因此这将是第一次制定这份协议。

我们最终完成了以下草案:

图 10.6 – 样本雇佣协议合同草案

我们希望确保没有歧义。为此,让我们请教我们的 AOAI 模型为我们标记它们。此外,在这种情况下,我部署了一个名为test1的简单text-davinci-002实例。我还创建了一个名为contract的变量,其中存储了前述的样本合同:

response = openai.Completion.create(
  engine="test1",
  prompt= contract + "Analyze this contract and tell me whether there might be some ambiguity or conflicting terms.",
  temperature=0,
  max_tokens=1968,
  top_p=0.5,
  frequency_penalty=0,
  presence_penalty=0,
  best_of=1,
  stop=None)
print(response["choices"][0]["text"].strip())

这是输出:

图 10.7 – 合同中歧义识别的示例

图 10.7 – 合同中歧义识别的示例

这是一个非常有用的见解,但我们可以走得更远。我们确实可以建立一个类似聊天机器人的环境,这样我就可以继续进行合同分析,并要求模型生成同一合同的修改版本,确保避免前述的歧义。

为此,我们需要确保在我们的 Python 代码中加入内存,因此我将使用一个带有break条件的while循环:

prompt = "<|im_start|>system\n" + contract + "\n<|im_end|>\n"
#print('AI Assistant: ' + prompt + '\n')
while True:
    query = input("you:")
    if query == 'q':
        break
    user_input = "<|im_start|>user\n" + query + "\n<|im_end|>\n<|im_start|>assistant\n"
    prompt+=user_input
    output = openai.Completion.create(
          engine="test1",
          prompt=prompt,
          temperature=0,
          max_tokens=2000,
          top_p=0.95,
          frequency_penalty=0,
          presence_penalty=0,
          stop=["<|im_end|>"])
    print('\n')
    print('AI Assistant: ' + output["choices"][0]["text"].strip() + '\n')
    response = output["choices"][0]["text"].strip() + "\n<|im_end|>\n"
    prompt+=response

注意

分类法是指我的起始和停止序列。这些使得回应在期望的点开始和结束,比如在句子或清单的末尾。在这种情况下,我确保助手在user_input后开始生成,并在每个回应的末尾添加一个停止序列。

运行上述代码时,我们将得到类似以下的输出:

图 10.8 - 用于检查和生成新合同的样本聊天

图 10.8 - 用于检查和生成新合同的样本聊天

正如您所见,我的 AI 助手为我生成了一份新合同,并确保删除了模棱两可和矛盾的条款。请注意,我还要求模型解释现在合同没有模棱两可的原因,以确保我能够正确识别这些部分并验证它们:

you: explain why there are no ambiguities or conflicting terms now in this new contract
AI Assistant: There are no ambiguities or conflicting terms now because the "Duties" section is more specific about what John Doe's responsibilities will be, and the "Compensation" section makes it clear that John Doe will receive the annual bonus that he is expecting.

此外,AOAI 的模型可以识别可能不具有法律约束力的条款,例如那些违反反垄断法或公共政策的条款。

让我们考虑以下 ABC 和 XYZ 两家竞争公司之间的产品销售协议:

图 10.9 - 两家竞争对手公司之间的样本协议

图 10.9 - 两家竞争对手公司之间的样本协议

现在,第 3 款包括可能会被解释为试图限制竞争的问题语言。公司需要仔细审查他们的合同,并确保他们没有参与可能违反反垄断法或其他法规的行为。

让我们看看我们的 AOAI 模型是否能够检测到:

response = openai.Completion.create(
  engine="test1",
  prompt= contract + "Analyze this contract and tell me whether there are clauses that might violate the antitrust laws. Make sure to highlight those clauses.",
  temperature=0,
  max_tokens=1968,
  top_p=0.5,
  frequency_penalty=0,
  presence_penalty=0,
  best_of=1,
  stop=None)
print(response["choices"][0]["text"].strip())

这是输出内容:

图 10.10 - 合同中潜在冲突条款的示例

图 10.10 - 合同中潜在冲突条款的示例

在这种情况下,该模型能够检测潜在的与反垄断法冲突的条款。

通过利用 AOAI 模型分析合同语言的能力,公司可以确保符合法律标准,减轻法律和声誉风险,并促进市场公平竞争。

提供合同模板

在前面的段落中,我们看到了一个用于调整存在潜在问题的草案的合同生成器的示例。使用相同的模型,我们也可以进一步,并通过只提供一些参数,例如合同的终止日期或期限,从头生成合同草案。

为此,假设我们要生成一个服务交付协议的草案。我们需要提供的一些参数如下:

  • 服务提供商

  • 客户

  • 服务描述

  • 起始日期

  • 时长

  • 付款条件

  • 终止通知

  • 州或国家

为了要求我们的模型从头生成一份草案合同,我们需要构建一个参数提示如下:

service_provider = "Supplier ABC"
client = "Company XYZ"
services_description = "installation, configuration, and maintenance of Company's IT infrastructure"
start_date = "1/9/2023"
duration = "Three (3) years"
payment_terms = f"Within 30 days after receipt of an invoice from {service_provider}"
termination_notice = "30 days"
state = "Italy"
response = openai.Completion.create(
  engine="test1",
  prompt= f"Generate a Service Delivery Agreement with the following elements: Service Provider: {service_provider}, Client: {client}, Description of Services: {services_description}, Start Date: {start_date}, Duration: {duration}, Payment terms: {payment_terms}, Termination notice: {termination_notice}, State or Countries: {state}",
  temperature=0,
  max_tokens=1968,
  top_p=0.5,
  frequency_penalty=0,
  presence_penalty=0,
  best_of=1,
  stop=None)
print(response["choices"][0]["text"].strip())

这是输出内容:

图 10.11 – 由 Azure OpenAI 模型生成的合同模板示例

图 10.11 – 由 Azure OpenAI 模型生成的合同模板示例

正如你所看到的,只需输入几个内容,模型就能够创建一个漂亮的合同草案,包括签名和类似的形式。 这可以节省时间和金钱来制作初步草稿,然后可以用进一步的细节和参数来丰富它们,目的是作为类似协议的模板。

总之,AOAI 在协助法律专业人员分析合同方面有着巨大潜力,特别是在识别潜在问题和模棱两可性方面。 但是,必须注意到,机器学习模型永远不能取代法律分析的人为因素。 一个技艺娴熟的律师应该始终参与合同的审查和解释,以及最终的决策过程。 通过适当利用技术和人类专业知识,法律行业可以从合同分析的效率和准确性提高中受益。

使用 Streamlit 的前端

本节的想法是实施一个公司门户,律师和合同管理员可以访问他们需要分析的所有合同,并快速收集一些见解,例如识别关键条款,分析语言并标记潜在问题。

他们还可以要求门户从头开始生成一些合同模板,以用作生产就绪合同的草稿。

为此,我们将使用 Streamlit。 要连接到我的 AOAI 实例,我需要我的密钥和终结点,我已将它们存储在.``toml文件中。

与其他部分一样,你可以在 GitHub 仓库中找到整个应用程序文件:github.com/PacktPublishing/Modern-Generative-AI-with-ChatGPT-and-OpenAI-Models/tree/main/Chapter%2010%20-%20Enterprise%20use%20cases

给定对话的着陆页面(在本例中为我们的样本合同)如下所示:

图 10.12 – 合同分析器应用的着陆页面

图 10.12 – 合同分析器应用的着陆页面

现在我们可以进行以下分析:

  • 从下拉菜单中,我们可以选择要从合同中提取的关键条款的类型,并获得实时结果:

图 10.13 – 从示例合同中提取机密条款

图 10.13 – 从示例合同中提取机密条款

  • 我们还可以和 AOAI 的模型进行对话,询问技术术语的解释:

图 10.14 – 语言分析

图 10.14 – 语言分析

  • 我们还可以询问潜在问题:

图 10.15 – AOAI 模型检测到的模棱两可示例

图 10.15 – AOAI 模型检测到的歧义示例

  • 最后,我们还可以要求生成合同模板:

图 10.16 – 合同模板生成示例

图 10.16 – 合同模板生成示例

这只是一个具有有限功能的示例应用,但由于 AOAI 模型的语言能力,它已经提供了一些强大的见解和分析。

在下一节中,我们将更深入地探讨 AOAI 模型在呼叫中心分析中的另一个应用。

理解呼叫中心分析

Azure OpenAI 可以成为呼叫中心分析的宝贵工具。通过分析客户和代理之间的通话记录,GPT 模型可以识别模式和见解,这可以帮助呼叫中心改善其运营。

以下是 AOAI 模型的一些示例能做的事情:

  • 辨别常见问题并建议潜在的回复,可以帮助代理更快速、更有效地回答电话

  • 分析客户互动中的情感,从而让呼叫中心经理们识别客户满意度不足的地方并做出必要的改进

  • 提供通话量趋势、等待时间和通话持续时间的见解,让呼叫中心优化人员配备水平和资源分配

  • 从对话中提取相关信息以自动在 CRM 中创建工单

  • 为客户面向的聊天机器人提供相关的知识库,可以在切换到实际操作员之前解决更多的问题/索赔

借助其强大的 NLP 功能,AOAI 可以帮助呼叫中心提高其效率和效果,从而提高客户满意度和业务成果。

对于我们的示例情景,让我们假设我们是一家汽车保险公司。每天,我们收到大量的来自发生车祸并需要支持确定如何处理他们的保险的客户的电话。每次通话结束后,我们的操作员需要在我们的 CRM 上打开一个工单。

我们的目标是通过实施以下功能来简化整个流程:

  • 从通话记录中提取相关参数以自动创建一个工单

  • 获取对话的主要话题以将其分类到适当的类别

  • 获取客户的情绪

  • 生成应对特别棘手对话的指南

以下是这个的可视化表示:

图 10.17 – 呼叫中心分析的示例结构

图 10.17 – 呼叫中心分析的示例结构

为此,我将从我们公司的一个虚构对话的示例记录开始:

图 10.18 – 提出请求的虚假对话示例

图 10.18 – 提出请求的虚假对话示例

然后,在这种情况下,我只需要一个部署我的 AOAI 实例,附带一个text-davinci-002实例。

在接下来的章节中,我们将学习如何从转录中提取相关参数,将其主要主题分类到各种类别中,分析客户的情感,并生成一个引导教程,以便于运营人员的回应。

参数提取

第一步是从转录中提取相关参数。如果我要自动创建一个包含适当信息的 CRM 票证,这一步就十分关键。例如,假设为了创建一个票证,我需要以下元素:

  • 名字和姓氏

  • 打电话的原因

  • 保单编号

  • 解决方案

以下代码展示了我们如何用 Python 实现(我初始化了一个名为transcript的变量,其值等于之前的谈话):

response = openai.Completion.create(
  engine="test1",
  prompt= transcript + "Extract the following information from the above text:\n Name and Surname\nReason for calling\n Policy Number\n Resolution \n\n",
  temperature=1,
  max_tokens=1968,
  top_p=0.5,
  frequency_penalty=0,
  presence_penalty=0,
  best_of=1,
  stop=None)
print(response["choices"][0]["text"].strip())

这是相关输出:

Name and Surname: Mario Rossi
Reason for calling: Accidental damage to car
Policy Number: 123456
Resolution: The operator is processing the customer's claim and sending an email with next steps.

最后,让我们将这些信息转换成 JSON 文件,以便触发我们的票证创建。为此,我只需在提示中添加一行输出格式应为 JSON,正如你在这里的输出中看到的那样:

[
  {
    "name": "Mario Rossi",
    "reason_for_calling": "To file a claim for an accidental damage",
    "policy_number": "123456",
    "resolution": "The operator is processing the claim and will send an email with the next steps to follow."
  }
]

情感分析

我们可能想要了解的另一个元素是通话的情感。情感分析对呼叫中心分析非常重要,因为它帮助理解客户互动的情感色调。在前述的转录中,情感分析可以用来识别客户表达的沮丧和愤怒程度。这些信息对呼叫中心的经理来说是宝贵的,能够理解客户的整体满意度,并识别其服务中的改进领域。

例如,如果情感分析显示很多客户对电话等待时间感到沮丧,呼叫中心经理可以利用这些信息来改善其职员水平或投资于新技术以缩短等待时间。同样,如果情感分析显示客户通常对呼叫中心提供的服务感到满意,经理可以利用这些信息来识别卓越之处并建立在这些优势上。

我们唯一需要做的就是询问我们的 AOAI 实例谈话的情感是什么。

正如你所看到的,由于在谈话结束时,客户对客服服务感到满意,因此响应是积极的。然而,读了转录后,我们知道最初客户非常沮丧,因此我们可以对提示设计进行一些改进以获得更准确的结果:

response = openai.Completion.create(
  engine="test1",
  prompt= transcript + "What is the initial and final sentiment of the conversation?",
  temperature=1,
  max_tokens=1968,
  top_p=0.5,
  frequency_penalty=0,
  presence_penalty=0,
  best_of=1,
  stop=None)
print(response["choices"][0]["text"].strip())

这是输出:

图 10.19 - 客户索赔情感分析示例

图 10.19 - 客户索赔情感分析示例

我们也可以进一步问它解释识别到的初始负面情感的原因:

response = openai.Completion.create(
  engine="test1",
  prompt= transcript + "why is the customer's sentiment initially negative?",
  temperature=1,
  max_tokens=1968,
  top_p=0.5,
  frequency_penalty=0,
  presence_penalty=0,
  best_of=1,
  stop=None)
print(response["choices"][0]["text"].strip())

这是输出:

图 10.20 - AOAI 模型情感分析示例

图 10.20 - AOAI 模型情感分析示例

这是重要信息,因为我们了解到我们的客户服务有改进的空间。我们可以将这种不满 - 在第一次通话时长时间无用的等待 - 与从其他对话记录中检索到的类似元素进行匹配,了解其是否是系统性的,如果是,如何改进。

为了我们的分析目的,我们进一步提取信息添加到我们的 JSON 文件中,以便我们还可以触发其他类型的操作(除了创建工单之外)。修改提示后,结果如下:

![图 10.21 – 从客户请求中提取的 JSON 示例](img/Figure_10.21_B19904.jpg)

图 10.21 – 从客户请求中提取的 JSON 示例

客户请求的分类

在分析客户的请求时,首先将它们分类到适当的类别中非常有用,以便相关办事处可以更快地处理每个请求。在这里,您可以找到请求分类的三种常见类别:

  • 报告问题:这种类别包括客户在报告其保单或账户存在问题或状况,但问题无法在通话中解决的对话记录。对话可能涉及代理记录问题并创建报告,以便适当部门调查和解决问题。示例可能包括报告账单错误或请求无法立即处理的保单更改。

  • 索赔处理:这种类别包括客户对报告的问题和/或呼叫中心的服务表示不满或不满意。对话可能涉及客户分享他们的负面经验,而代理努力解决他们的顾虑,比如道歉长时间等待或提供解决方案。

  • 一般询问:这种类别包括客户有关其保单或呼叫中心提供的其他服务的问题或查询的对话记录。对话可能涉及代理提供信息并回答客户的问题,而无需解决任何特定问题或投诉。

让我们请我们的 AOAI 实例为我们分类这段对话记录:

response = openai.Completion.create(
  engine="test1",
  prompt= transcript + "classify the above text in one of the following: reporting issue, claim handling and general inquiry.",
  temperature=1,
  max_tokens=1968,
  top_p=0.5,
  frequency_penalty=0,
  presence_penalty=0,
  best_of=1,
  stop=None)
print(response["choices"][0]["text"].strip())

这是输出:

![图 10.22 – 客户请求分类示例](img/Figure_10.22_B19904.jpg)

图 10.22 – 客户请求分类示例

再次,我们可以通过更新上一个请求的提示,将这些信息添加到我们的 JSON 文件中。结果如下:

![图 10.23 – JSON 文件生成示例](img/Figure_10.23_B19904.jpg)

图 10.23 – JSON 文件生成示例

很好,现在我们有大量的元数据作为我们对话记录的元数据。我们现在要做的是使用检索到的元素构建参数提示并生成进一步的操作,以尽快解决这项任务。我们将使用 Streamlit 来构建一个简单的前端来完成这项任务。

使用 Streamlit 实现前端

本节的想法是实现一个公司门户,操作员可以访问他们对话的所有剧本,并快速执行一些操作,如生成票证或向客户生成电子邮件回复。他们还可以向门户询问如何改进客户服务的建议(这些信息也可能在更高管理层中可用,以丰富公司改进的见解)。

要做到这一点,我们将使用 Streamlit。此外,在这种情况下,我正在创建一个.toml文件,其中包含我的 API,以便我可以在我的 Streamlit 应用程序中安全地调用我的机密。

如其他部分所述,您可以在本书的 GitHub 存储库中找到整个应用程序文件。

给定对话的着陆页(在本例中,我们的示例剧本)如下所示:

图 10.24 – 示例剧本着陆页

图 10.24 – 示例剧本着陆页

让我们看看我们的 AOAI 模型能为我们做哪些操作:

  1. 我们作为操作员可以做的第一件事是根据从 JSON 文件中收集的信息创建一个票证:

图 10.25 – 用于生成票证的前端

图 10.25 – 用于生成票证的前端

  1. 我们可以自动生成一封电子邮件给 Mario Rossi 先生,通知他解决流程的启动。为此,我定义了一个函数,要求我的 AOAI 实例使用参数提示生成电子邮件:

    def generate_email(transcript):
    
        response = openai.Completion.create(
    
          engine="test1",
    
          prompt= transcript + f"Generate a response email to the transcript above, notifying the customer that the ticket has been created and apologizing if it was complaining. The name of the customer is {data['name']} and the policy number is {data['policy_number']}.",
    
          temperature=1,
    
          max_tokens=1968,
    
          top_p=0.5,
    
          frequency_penalty=0,
    
          presence_penalty=0,
    
          best_of=1,
    
          stop=None)
    
        return response["choices"][0]["text"].strip()
    

在这里,data是从剧本中提取的 JSON 商业智能 (BI),如前几节所示。

前端将如下所示:

图 10.26 – AOAI 生成的示例电子邮件

图 10.26 – AOAI 生成的示例电子邮件

  1. 最后,我们可以要求改进解决方案流程和客户满意度的建议。此外,在这种情况下,我使用了一个参数提示:

    def improvement(data):
    
        response = openai.Completion.create(
    
          engine="test1",
    
          prompt= f"Elaborate a list of remediations to get to the following improvement: {data['contact_center_improvement']}",
    
          temperature=1,
    
          max_tokens=1968,
    
          top_p=0.5,
    
          frequency_penalty=0,
    
          presence_penalty=0,
    
          best_of=1,
    
          stop=None)
    
        return response["choices"][0]["text"].strip()
    

在这里,data仍然是从剧本中提取的 JSON 文件,如前几节所示。

前端将如下所示:

图 10.27 – AOAI 生成的呼叫中心改进建议

图 10.27 – AOAI 生成的呼叫中心改进建议

这只是一个具有有限功能的示例应用程序,但它已经提供了一些强大的自动化和见解,可以提升呼叫中心的生产力和客户满意度。

这是我们想象中的汽车保险公司应该在生产环境中添加的一些进一步元素:

  • 他们的 CRM 软件中用于自动生成票证的自动触发器。

  • 基于呼叫中心剧本训练的面向客户的聊天机器人,以便只有在过去未解决的情况下才会与操作员通话。

  • 商业智能 (BI) 仪表板,汇集相关剧本见解。例如,关于以下内容的一些统计信息:

    • 抱怨最常见的原因

    • 通话时段的情感分布

    • 类别随时间的频率

有了这一点我们已经了解了如何进行情感分析的提取。我们看到了我们如何与顾客的请求进行交流以及使用 Streamlit 作为前端的概念。所有这些都帮助我们更好地与利益相关者合作并提高运营效率。

探索语义搜索

语义搜索是一项领先的搜索技术,彻底改变了人们在网上查找信息的方式。在企业界,它已成为需要快速而准确地搜索大量数据的企业的重要工具。语义搜索引擎使用自然语言处理(NLP)技术来理解搜索查询和被搜索内容的含义。这项技术通过使用机器学习算法来理解搜索查询的上下文,比传统的基于关键字的搜索引擎能够得到更准确和相关的结果。

语义搜索的一个关键组成部分是嵌入的使用,这是将单词或短语表示为数值向量的过程。这些向量是由一个神经网络生成的,该神经网络分析给定文本语料库中每个单词或短语的上下文。通过将单词转换为向量,可以更容易地衡量单词和短语之间的语义相似性,这对准确的搜索结果至关重要。

例如,在医疗文件和论文领域,嵌入可以用于通过更轻松地识别相关概念和主题来增强语义搜索算法。举例来说,如果一位研究人员正在搜索有关癌症治疗的信息,使用嵌入的语义搜索引擎可以识别出类似化疗、放射疗法和免疫疗法等相关术语。通过理解这些术语之间的语义关系,搜索引擎可以返回更准确和相关的结果。

嵌入还可用于识别与搜索查询中未能立即显现的相关主题和概念。例如,如果一位研究人员正在搜索有关乳腺癌的信息,使用嵌入的语义搜索引擎可以识别出与乳腺癌相关的主题,如乳腺癌预防、乳腺癌筛查和荷尔蒙疗法。对于与乳腺癌相关的主题和概念的更广泛理解可以帮助研究人员找到他们通过传统关键字搜索可能无法发现的相关论文和文档。

举例来说,我们假设以下情景。我们是一家私人诊所,每天都在努力在大量的可用文档中查找信息。为了做出诊断,医生们需要查阅许多论文,这非常耗时。

我们正在寻找一个可以在研究过程中帮助我们的人工智能研究助手。为此,我们将使用一个名为embedding并有关联的text-embedding-ada-002模型的 Azure OpenAI 部署。

思路如下:

  1. 使用嵌入模型获取可用文本的嵌入。

  2. 使用嵌入模型获取用户查询的嵌入。

  3. 计算嵌入查询和嵌入知识库之间的距离。

  4. 返回最相似的文本片段并将它们用作 GPT 模型的上下文。

  5. 使用 GPT 模型生成响应。

这在这里表示:

图 10.28 – 语义搜索项目的参考架构

图 10.28 – 语义搜索项目的参考架构

为了模拟知识库,我们将使用一篇关于坐骨神经痛替代治疗的论文(您可以在doi.org/10.1136/bmj-2022-070730找到)。

对于嵌入和问答管理,我们将使用 LangChain 模块。

使用 LangChain 模块进行文档嵌入

我们项目的第一步是初始化一个嵌入模型,以便我们可以对自定义文档进行向量化。为此,我们可以使用 LangChain OpenAIEmbeddings 模块,该模块直接包装了来自 Azure OpenAI 的嵌入模型:

from langchain.embeddings import OpenAIEmbeddings from langchain.chat_models import AzureOpenAI
from langchain.embeddings import OpenAIEmbeddings
from langchain.vectorstores.faiss import FAISS
from pypdf import PdfReader
from langchain.document_loaders import PyPDFLoader
  embeddings = OpenAIEmbeddings(document_model_name="text-embedding-ada-002") embeddings.embed_query('this is a test')

这是它的输出:

图 10.29 – 文本嵌入示例

图 10.29 – 文本嵌入示例

正如您所见,结果是一个数值向量,使用text-embedding-ada-002嵌入模型计算得出。

现在,我们需要对整个文档进行向量化。此外,我们还需要存储空间来存放文档。LangChain 提供了几种向量存储方式,我们将使用 FAISS 向量存储。

因此,让我们初始化我们的 FAISS 索引器:

loader = PyPDFLoader("path_to_file") pages = loader.load_and_split() faiss_index = FAISS.from_documents(pages, embeddings)

太棒了,现在我们可以使用AzureOpenAI类初始化我们的模型。为此,我们只需要传递部署的名称:

llm = AzureOpenAI(deployment_name="text-davinci-003")

最后,我们需要计算用户提示和嵌入知识库之间的相似性。为此,让我们初始化以下函数:

def get_answer(index, query):     """Returns answer to a query using langchain QA chain"""      docs = index.similarity_search(query)      chain = load_qa_chain(llm)     answer = chain.run(input_documents=docs, question=query)      return answer

通过上述函数,我们正在计算用户提示和嵌入文档之间的语义亲和性。通过这样做,只有与用户提示具有高相似性的文本块将被用作我们 Azure OpenAI 模型的上下文,以便我们可以克服最大标记数的限制。

为 Streamlit 创建前端

我们已经创建了我们语义搜索引擎背后的逻辑;现在是时候创建一个前端,以便用户可以通过 UI 与其交互。为此,我将使用 Streamlit。

同样,在这种情况下,我正在创建一个.toml文件与我的 API,以便我可以在我的 Streamlit 应用程序中安全地调用我的秘密。

为此,让我们创建一个包含与前一节中相同代码的.py文件,同时添加一些前端元素(您可以在 GitHub 存储库中找到整个.py文件)。

更具体地说,我已经添加了以下指令来创建一个简单的搜索栏:

query = st.text_area("Ask a question about the document")
if query:
    docs = faiss_index.similarity_search(query, k=1)
    button = st.button("Submit")
    if button:
        st.write(get_answer(faiss_index, query))

然后,我将文件保存为medical_smart_search_app.py,并通过 Anaconda Prompt 使用streamlit run smart_search.py命令运行它。

结果如下所示:

图 10.30 – 带有 Streamlit 和 AOAI 后端的示例前端

图 10.30 – 带有 Streamlit 和 AOAI 后端的示例前端

您可以决定将一些其他元素添加到您的搜索引擎中,例如以下内容:

  • 指示 AOAI 模型在上下文中没有答案时不予回应。要做到这一点,您可以在提示中指定。

  • 除了响应之外,还提供上下文的原始文本和链接(如果有的话),指向它所在页面的链接。

  • 保留 AOAI 的响应和下一个用户提示的附加上下文,以便它也通过少量学习保留记忆。

我们看了一个医疗文档的示例;然而,有许多领域可以使用语义搜索引擎,从法律实体到拥有大量技术文档的制造商。

总的来说,在组织内部拥有智能搜索系统不仅减少了搜索时间,还提供了许多可能包含部分响应的文档的摘要响应。

在类似情况下(尤其是医疗或法律领域),需要一个人来验证结果。尽管如此,拥有这样的人工智能助手可以提高生产力,减少搜索成本和时间,提高搜索质量,并实现对罕见文档的查找。

总结

Azure OpenAI 模型提升了企业级大型语言模型的能力,并有潜力在广泛的行业中彻底改变企业运营。

通过利用最先进的自然语言处理技术,企业可以自动化琐碎任务,优化复杂流程,并从数据中获取有价值的见解。

在本章中,我们通过 Python 的逐步教程以及 Streamlit 的前端,查看了合同分析和生成、呼叫中心分析以及用于自定义知识库的语义搜索等领域的具体用例。

当然,成功整合 Azure OpenAI 模型需要战略性方法,包括确定相关的用例、选择适当的工具和平台,并投资于员工培训和发展。随着人工智能领域的不断发展,企业必须与最新的趋势和创新保持同步,以保持竞争力并实现 Azure OpenAI 的全部好处。

本章提到的内容只是大型语言模型的用例中的一小部分:这将是本书的下一章,也是最后一章的主题,在那里我们将总结迄今为止所见的一切,并揭示人工智能发展的未来将为市场带来什么。

参考文献

十一、结语和最终思考

你已经走到了这一步 - 恭喜!希望你觉得这本书有趣,并且它对你的目标有所帮助。

在撰写本书时,发生了许多变化和新发展,这些变化绝对值得一提。事实上,我们确实看到了生成 AI 模型复杂性和准确性不断增加的摩尔定律发展。

因此,在这最后一章中,我们将简要回顾我们在整本书中学到的内容,同时揭示最近的发展和未来可以期待的内容。

更具体地说,我们将涵盖以下主题:

  • 我们迄今为止学到的概述

  • LLMs 如何进入行业

  • 生成 AI 领域的最新发展和关注点

  • 未来可以期待什么

在本章结束时,您将对生成 AI 领域的最新发展有一个更广泛的了解,了解它如何影响行业,以及在新发展和社会关注方面可以期待什么。

迄今为止我们学到的内容回顾

我们从介绍生成 AI 概念及其各种应用开始了这本书。我们看到生成 AI 不仅涉及文本,还涉及图像、视频和音乐。

然后,在第二章中,我们转而看了一下将生成 AI 带入最大流行的公司:OpenAI。成立于 2015 年,OpenAI 主要专注于一种特定类型的生成模型,生成预训练TransformersGPT)。然后,在 2022 年 11 月,OpenAI 发布了 ChatGPT,这是一个由 GPT 模型驱动的免费网络应用程序,用于对话助手。它获得了巨大的流行,仅在五天内就达到了 100 万用户!

ChatGPT 已经改变了游戏规则。它对日常生产力以及各个行业领域的影响是巨大的。在深入讨论 ChatGPT 如何影响这些领域之前,在第三章中,我们学习了如何设置并开始使用 ChatGPT 账户。我们还在第四章中看到了如何正确设计使用生成模型(如 ChatGPT)时最重要的元素:提示。提示是用户的输入,不过是自然语言中的指令。设计提示是从您的生成模型中获得最大价值的关键步骤,以至于提示工程已经成为一个新的研究领域。

一旦我们熟悉了 ChatGPT 和提示设计,我们就转向第五章,在那里我们终于得到了 ChatGPT 如何提升您的日常生产力并成为您的日常助手的具体示例。从生成电子邮件到提高写作技巧,我们看到了许多活动如何得益于 ChatGPT 的生成力量。

但我们并未止步于此。通过第 6第 7第 8章,我们看到了 ChatGPT 如何不仅可以提升日常生产力,还可以用于特定领域的活动 - 对于开发人员,从代码生成和优化到解释机器学习模型;对于营销人员,从新产品开发到改善搜索引擎优化SEO);对于研究人员,从实验设计到基于研究的演示生成。

第九章开始,我们将对话转向了企业级别,讨论了 OpenAI 模型如何通过 Azure 直接可消费化,以便企业可以保持可靠性和安全性。

最后,在第十章中,我们看到了 Azure OpenAI 模型在企业应用案例中的具体示例。每个示例都附带了一个业务场景以及一个使用 Python 进行端到端实现的示例,使用 Streamlit 作为前端。

这段旅程旨在让您更清楚地了解当我们提到流行词汇如 ChatGPT、OpenAI 和 LLMs 时我们在谈论什么。

然而,在接下来的部分中,我们将看到近几个月来令人难以置信的快速人工智能发展,带来了全新的技术,超越了我们迄今所学到的内容。

这只是一个开始

在整本书中,我们看到了生成式人工智能,更具体地说是 GPT 模型,正在彻底改变公民和大型企业的工作方式。

然而,我们已经踏上了一段旅程,ChatGPT 和 GPT 模型只是通向前所未有的技术进步时代的第一步。正如我们在整本书中所看到的,这些模型已经展示了在语言理解和生成方面的卓越能力。然而,生成式人工智能的真正潜力尚未完全实现。

第一批多模态大型语言模型MLLMs)的发布以及微软引入Copilot系统已经揭示了我们可能期待的一瞥。

多模态大型语言模型的出现

到目前为止,我们主要关注的是大型语言模型LLMs),因为它们是 GPT-x 系列和 ChatGPT 背后的架构。这些模型是在大量文本数据(如书籍、文章和网站)上进行训练的,并使用神经网络来学习人类语言的模式和结构。

正如我们在第二章中所看到的,如果我们想要将更多生成式人工智能能力与 LLMs 相结合,比如图像理解和生成,我们需要额外模型的支持,比如 DALL-E。这一点在 MLLMs 的引入之前都是成立的。

MLLM 是将自然语言处理与计算机视觉相结合的人工智能系统,用于理解和生成文本和视觉内容。这些模型经过大量数据的训练,如图像和文本,并且能够对包含文本和视觉输入的查询生成类似人类的响应。

近几个月来,多模态学习模型领域取得了巨大进展,并且在接下来的章节中,我们将着重关注两个主要模型:Kosmos-1 和 GPT-4。

Kosmos-1

在他们的论文《语言并非你所需的全部:将感知与语言模型对齐》中,微软的研究员 Shaohan Huang 等介绍了Kosmos-1,一种能够响应语言和视觉线索的 MLLM。这使其能够执行诸如图像字幕和视觉问题回答等任务。

虽然像 OpenAI 的 ChatGPT 这样的 LLM 已经变得很受欢迎,但它们在处理图像和音频等多模态输入方面存在困难。微软的研究论文强调了多模态感知和真实世界联系的需求,以推进人工通用智能(AGI)的发展。

Kosmos-1 能够感知各种模态,通过零迁移学习来遵循指令,并使用少量迁移学习从所提供的上下文中学习。该模型的展示显示了其在涉及视觉提示的各种情况下自动化任务的潜力。

下图提供了它的工作原理的示例:

图 11.1 – Kosmos-1 的多模态输入示例。原始图片来源于 https://arxiv.org/pdf/2302.14045.pdf

图 11.1 – Kosmos-1 的多模态输入示例。原始图片来源于 https://arxiv.org/pdf/2302.14045.pdf

对零迁移热测足挑战示灵异于蕴含成人水平,但显示了 MLLM 通过将感知与语言模型对齐来感知抽象概念模式的潜力。

定义

Raven IQ 测试,也称为雷文进阶矩阵测试,是专门设计用于衡量一个人的抽象推理和流体智力的一种非语言标准化测试。由约翰·C·雷文于 1936 年开发,该测试由具有矩阵形式的视觉模式的多项选择题组成。参与者的任务是识别完成图案的缺失部分。

下图是 Kosmos-1 解决的 Raven IQ 测试的示例:

图 11.2 – Kosmos-1 解决的 Raven IQ 测试的示例。原始图片来源于 ttps://arxiv.org/pdf/2302.14045.pdf

图 11.2 – Kosmos-1 解决的 Raven IQ 测试的示例。原始图片来源于 ttps://arxiv.org/pdf/2302.14045.pdf

目前,Kosmos-1 只能分析图像和文本。然而,在研究论文的结论中,微软的研究人员宣布了进一步发展该模型以集成语音功能的意图。

GPT-4

2023 年 3 月 14 日,OpenAI 宣布了 GPT 系列的新版本:GPT-4。这款全新模型的技术描述由 OpenAI 的研究人员在论文GPT-4 技术报告中描述(arxiv.org/pdf/2303.08774.pdf)。

根据这篇论文,很明显 GPT-4 展示了比以前的 AI 模型更高水平的智能。GPT-4 在包括数学、编码、视觉、医学、法律和心理学在内的广泛任务中展示出接近人类的表现,而无需特殊提示。

更具体地说,GPT-4 在四个主要领域表现优于其先前版本(GPT 3.5):

  • 多模态性:GPT-4 是 MLLM 的一个很好的例子,因为它能够理解和生成自然语言以及图像:

图 11.3 – GPT-4 理解和解释图像的示例

图 11.3 – GPT-4 理解和解释图像的示例

通过 GPT-4,我们基本上能够处理和理解一个由文本和图像组成的整个文档。

  • 准确性:GPT-4 已被证明比 GPT-3.5 更可靠、更有创造力和更具接受性,尤其在复杂任务中。为了理解这种差异,对这两个模型进行了几次测试,最初设计用于人类的考试,GPT-4(无论是否具有视觉能力)始终优于 GPT-3.5。

在计算机视觉领域也进行了测试。在这种情况下,OpenAI 评估了 GPT-4 在为计算机视觉模型设计的传统基准上的表现,同样,在这种情况下,GPT-4 明显优于大多数最新技术SOTA)模型。

  • 一致性:正如我们在第五章中看到的,OpenAI 发布了一个 AI 一致性(openai.com/alignment/)宣言,其研究旨在使 AGI 与人类价值观一致,并遵循人类意图。

为提高 GPT-4 的安全性和与用户意图的一致性,已经付出了大量努力。因此,与其前身相比,GPT-4 的安全性大大提高,生成违禁内容请求的可能性减少了 82%(openai.com/product/gpt-4)。这一改进的原因在于 OpenAI 的 GPT-4 融入了新的研究进展,增加了额外的安全层。受人类输入启发,这一安全功能直接集成到 GPT-4 模型中,使其更擅长处理潜在有害输入。因此,模型生成不安全响应的可能性大大降低。

此外,OpenAI 的内部评估表明,与上一版本相比,GPT-4 生成准确和基于事实的回复的可能性要高出 40%。这些增强显示了在完善 AI 语言模型方面正在取得的持续进展,确保其对用户的安全性和可靠性。

  • 整体可用性:最后但同样重要的是,GPT-4 解决了其前身的主要限制之一。到了 GPT-3.5,我们需要考虑的最大标记数为 4,096。 使用 GPT-4,标记数的最大值大大增加到了约 32,000,这使得它更适用于复杂和较长的任务,特别是涉及逐步推理的任务。

从 Microsoft Research 的 Sébastien Bubeck 等人的论文《人工通用智能之火花:GPT-4 的早期实验》(arxiv.org/pdf/2303.12712.pdf) 中,可以窥见这种全新模型的能力。

在下图中,展示了这些实验的一些示例:

图 11.4 – 多模态 GPT-4 的早期实验

图 11.4 – 多模态 GPT-4 的早期实验

前面的图只是展示了 GPT-4 的全部能力的一些示例,但这些示例本身已经非常令人印象深刻。再次强调的是,使用大型语言模型,我们正在进入生成式 AI 的新阶段,其中一个基础模型将能够完全处理和理解整个文档,然后根据其生成新的材料。

2023 年 3 月 21 日,Microsoft 宣布 GPT-4 已经在 Azure OpenAI 服务中可用 (azure.microsoft.com/en-us/blog/introducing-gpt4-in-azure-openai-service/)。这意味着这个强大的模型已经可以用于企业级项目,或者在 Azure OpenAI Playground 中进行直接测试。

GPT-4 是一个非常强大的模型,已经成为许多融合 AI 的应用程序的引擎。其中之一就是名为 ChatGPT Plus 的全新版 ChatGPT。但还有另一个应用程序,我认为更加有趣,因为它正在彻底改变搜索引擎工具的使用方式:Microsoft Bing。我们将在下一节深入探讨这一点。

Microsoft Bing 和 Copilot 系统

最近几年,微软已经成为 AI 领域的领军者,大量投资于研究和开发,推动创新并开辟新的可能性。作为推动 AI 技术前进的一部分,微软已经与 OpenAI 达成战略合作伙伴关系,正如我们在第九章中所看到的。

微软与 OpenAI 之间的合作旨在加速 AI 领域的进展,结合各自在云计算、软件和尖端 AI 模型方面的专业知识。他们共同致力于创建不仅具有卓越能力,而且遵守透明、公平和道德责任原则的 AI 系统。

自 2023 年 1 月宣布 Azure OpenAI 服务的普遍可用性以来,微软已在生成式 AI 领域发布了一系列新发展,利用 LLM 的力量,包括 GPT-4。

在接下来的章节中,我们将重点关注两个最有前景的发展:新版必应和副驾驶系统。

新版必应

微软必应是微软拥有和运营的网络搜索引擎。该服务起源于微软先前的搜索引擎:MSN 搜索、Windows Live 搜索,以及后来的 Live 搜索。

2023 年 2 月,微软宣布(blogs.microsoft.com/blog/2023/02/07/reinventing-search-with-a-new-ai-powered-microsoft-bing-and-edge-your-copilot-for-the-web/)由 GPT 模型驱动的新版必应。此外,随着 2023 年 3 月 14 日 GPT-4 的推出,微软确认(blogs.bing.com/search/march_2023/Confirmed-the-new-Bing-runs-on-OpenAI%E2%80%99s-GPT-4)新版必应实际上是运行在 OpenAI 的 GPT-4 上。

图 11.5 – 新版必应

图 11.5 – 新版必应

在新版本中,必应已经成为一种类似 ChatGPT 的版本,能够浏览网络(因此绕过了 ChatGPT 在 2021 年的知识限制问题),并且还能提供超出预期响应的参考资料。请参考以下截图:

图 11.6 – 新版必应提供带有参考资料的答案

图 11.6 – 新版必应提供带有参考资料的答案

新版必应还可以像 ChatGPT 一样协助生成内容。例如,我可以在撰写 LinkedIn 帖子时向必应寻求支持:

图 11.7 – 必应作为 LinkedIn 帖子助手的示例

图 11.7 – 必应作为 LinkedIn 帖子助手的示例

有了这个最新功能,新版必应可以被视为网络的副驾驶,加快研究以及检索或生成材料的速度。

在基础模型和 LLM 的新景观中,副驾驶的概念至关重要,因为这是这些新 AI 系统进入组织的最有可能方式。

定义

正如其名称所示,副驾驶作为用户的专家助手,旨在支持用户解决复杂任务。副驾驶具有用户友好的自然语言界面,并由基础模型驱动。此外,它们的作用范围由用户定义。例如,应用程序 A 中的副驾驶将仅使用应用程序 A 的数据进行工作。

在下一节中,我们将看到微软如何将这一概念扩展到其整套应用程序中。

Microsoft 365 副驾驶

2023 年 3 月,由微软引入(blogs.microsoft.com/blog/2023/03/16/introducing-microsoft-365-copilot-your-copilot-for-work/),副驾驶系统是一个基于以下三种技术构建的复杂处理和编排引擎:

  • 微软 365 应用程序,如 Excel、Word 和 PowerPoint

  • 微软图表,一个提供对 Microsoft 365 服务中各种数据和智能的访问的平台

  • LLMs,如 GPT-4

基于副驾驶系统,Microsoft 365 Copilot 是一个革命性的 AI 助手,旨在增强工作场所的生产力和释放创造力。通过利用 LLMs 并与 Microsoft 365 应用程序和数据集成,Copilot 将自然语言转化为完成任务和与工作连接的强大工具。

Microsoft 365 副驾驶无缝集成到 Word、Excel、PowerPoint、Outlook 和 Teams 等流行应用程序中。通过自然语言提示,副驾驶可以执行生成基于会议、电子邮件和聊天的状态更新等任务。用户始终对其核心活动保持控制,从而增加了在各种 Microsoft 365 应用程序之间的创造力、分析、表达和协作。

在本节中,我们看到在过去的几个月里,OpenAI 模型和 LLM 领域中的其他 AI 模型已有进一步的发展。我们还看到微软等公司正在引入一种新的将这些 LLMs 集成到应用程序中的方式,即全新概念的 Copilot。

在下一节中,我们将深入探讨其他公司如何在其流程和数字化转型规划中拥抱 OpenAI 的模型,涵盖不同的用例和方法。

生成技术对行业的影响 - 一种颠覆性的力量

随着 ChatGPT 和生成模型的持续发展,它们的能力无疑以前难以想象的方式改变着行业。一方面,这些技术的整合有潜力显著提高生产力和推动经济增长。通过自动化耗时任务,生成式 AI 可以让人类工作者将精力集中在更有创造力、战略性和增值的活动上。此外,AI 驱动的工具可以增强人类能力,使专业人士能够做出更明智的决策和生成新颖的想法。

已经有一些企业在其核心业务中嵌入了生成式人工智能的例子:

  • 摩根士丹利,一家领先的财富管理公司,一直致力于利用 OpenAI 的 GPT-4 技术改善对其广泛内容库的访问(openai.com/customer-stories/morgan-stanley)。该公司一直在探索 GPT 的嵌入和检索能力,以创建一个内部聊天机器人,可以高效地搜索其庞大的财富管理资源。这一举措由分析、数据和创新负责人 Jeff McMillan 领导,旨在使公司的集体知识易于访问和可操作。

  • 多邻国,一款以游戏风格为特色、拥有超过 5000 万用户的语言学习应用一直依靠人工智能作为其战略的一部分。人工智能参与的功能之一是解释我的答案。此功能允许用户深入了解多邻国响应背后的明确语法规则(例如,如果用户的答案是错误的,用户可以打开聊天窗口,并要求对为什么错误进行解释)。到目前为止,多邻国一直试图使用预先编写的语法提示和搭载了 GPT-3 的人工智能来实现此功能。然而,直到 GPT-4 的出现,响应的准确性和学习者的参与度才得以提高,原因在于其对不同习语的语法规则的高级理解能力。

  • Stripe,一家金融科技支付服务提供商,做了一些非常有远见的事情。在 2023 年初,它要求 100 名员工停止日常工作,并开始设想 LLMs 如何丰富和增强支付服务的功能。他们不仅发现了许多潜在的应用(输出是 50 个应用程序的列表!),而且开始原型设计了 15 个具体的用例。其中,特别感兴趣的是使用 GPT-4 进行欺诈检测。Stripe 的 Discord 社区受到恶意行为者的渗透。GPT-4 通过分析 Stripe 的 Discord 社区中的帖子语法和检测协调的恶意活动,帮助识别潜在的欺诈者,确保平台安全。

另一方面,ChatGPT 和生成式人工智能模型的快速采用引发了对工作岗位取代、数据隐私和技术潜在滥用的担忧。随着自动化改变劳动力市场,各行各业必须应对员工转岗的挑战,确保员工具备在日益由人工智能驱动的世界中取得成功所需的技能。

生成式人工智能对产业的颠覆性影响是不可否认的,既提供机遇,又带来挑战。通过促进人类与人工智能的合作,推动道德的开发和部署,并优先考虑终身学习和再技能培训,我们可以塑造一个未来,在这个未来中,生成式人工智能成为跨行业积极变革的强大催化剂。

目前,我们主要关注 Generative AI 可以实现的内容。在接下来的几节中,我们将揭示这种新颖颠覆性技术的伦理影响所引起的担忧。

揭示对 Generative AI 的担忧

正如本对年轻的彼得·帕克说的:“拥有伟大的力量就意味着拥有伟大的责任。”

当我们接近探索 ChatGPT 和 GPT 模型世界的启示之旅的尽头时,必须解决有关这些 AI 技术出现的担忧。虽然 Generative AI 的进步具有突破性,但它们也引发了关于隐私、安全、伦理影响和潜在滥用的重要问题。

实际上,最近几个月已经有许多公司、机构以及个体发表了有关这些问题的公告和声明,包括担忧、停止进一步发展的呼吁以及适当的监管。

在下一节中,我想分享一些最新的新闻和发展,并希望它也能激发对不久的未来可能出现的情况的思考和猜测。

埃隆·马斯克呼吁停止发展。

最近,埃隆·马斯克和其他 1000 多名技术专业人士签署的一封公开信呼吁暂停开发比 GPT-4 更复杂的 AI 系统。签署者包括史蒂夫·沃兹尼亚克、伊玛德·莫斯塔克和尤瓦尔·诺亚·哈拉瑞,他们对这些 AI 系统对社会和人类构成的重大风险表示担忧。

该公开信要求领先的 AI 实验室暂停这些先进系统的培训过程至少六个月,确保这一暂停是公开和可验证的。信中强调了与 AI 驱动的宣传、工作自动化和对我们文明失去控制的潜在担忧。

这一呼吁出现在 OpenAI 推出 GPT-4 的浪潮之后,这是一个增强语言模型,为 ChatGPT 的高级版本提供支持。据 OpenAI 称,GPT-4 在处理复杂任务和生成更精细结果方面比以前的版本更有能力,而且缺陷更少。

诸如 GPT-4 之类的 AI 系统利用大量数据来回应查询并执行任务。ChatGPT 于 11 月首次亮相,具有类似人类的能力,可以撰写电子邮件、安排旅行计划、编写代码,并在各种考试中表现出色,例如司法考试。

OpenAI 尚未对该公开信发表评论,但该组织已经承认确保比人类更聪明的 AI 技术为人类利益服务的重要性。OpenAI 建议,未来的系统可能需要在训练之前接受独立评估,并且应该努力规范用于模型开发的计算资源的扩大。

包括谷歌、微软、Adobe、Snapchat、DuckDuckGo 和 Grammarly 在内的几家公司推出了利用生成式人工智能功能的服务。OpenAI 的研究指出了这些能力所涉及的风险,比如引用不可信的来源或赋予恶意行为者欺骗或利用他人的可能性。

人工智能专家对行业的发展轨迹和可能缺乏必要预防措施和对后果的理解越来越担忧。该信件强调,先进的人工智能可能对地球上的生活产生重大影响,并需要仔细的规划和管理。它指出,目前这样的规划还不足,因为人工智能实验室继续创建和部署越来越强大、难以理解、预测或控制的人工智能系统。

如果这封公开信没有约束力,另一个例子是意大利“隐私保护监督者”所宣布的,我们将在下一节重点讨论。

ChatGPT 在意大利被意大利“隐私保护监督者”禁止使用

由于隐私问题,意大利成为第一个禁止 ChatGPT 的西方国家。

意大利数据保护机构隐私保护监督者宣布将立即对 OpenAI 实施禁令并展开调查:

图 11.10 - 访问 ChatGPT 时 OpenAI 在意大利的消息

图 11.10 - 访问 ChatGPT 时 OpenAI 在意大利的消息

意大利监管机构不仅将阻止 ChatGPT,还将调查其是否符合通用数据保护条例GDPR),该条例规定了个人数据的使用、处理和存储。

在涉及用户对话和付款信息的数据泄露后,该机构于 2023 年 3 月 20 日表示,没有法律依据用于训练平台基础算法的大规模收集和存储个人数据

监管机构还表达了对无法验证用户年龄的担忧,可能会使未成年人暴露于不当回应之中。

意大利数据保护机构给予 OpenAI 20 天时间解决其担忧,否则将面临 2000 万欧元(2170 万美元)或其年收入的 4%的罚款。

OpenAI 根据意大利数据保护监管机构 Garante 的要求,于 2023 年 4 月 1 日为意大利用户停用了 ChatGPT,并表示致力于隐私保护和 GDPR 合规。

公司表示期待与 Garante 密切合作,并希望尽快在意大利重新提供 ChatGPT。

前面提到的担忧和干预只是一个更广泛话题的冰山一角,即负责任人工智能的概念,这将是下一节的主题。

生成式人工智能的伦理影响以及我们为什么需要负责任的人工智能

前一节强调了随着生成式人工智能技术的广泛知识和应用,一个普遍的担忧正在上升。

人工智能技术的快速发展带来了大量必须仔细解决以确保其负责任和公平部署的伦理考虑和挑战。以下是其中一些:

  • 数据隐私和安全:由于人工智能系统在学习和决策过程中严重依赖数据,确保数据隐私和安全变得至关重要。在第九章中,我们已经看到微软如何通过 Azure OpenAI 服务解决了数据隐私问题,以确保 Azure 云所期望的服务级别协议SLAs)和安全实践。然而,这个数据隐私话题也涉及到首次用于训练模型的数据:即使 ChatGPT 用于生成响应的知识库是公开的,那么涉及用户信息用于生成响应的同意阈值在哪里呢?

  • 偏见和公平:人工智能模型通常从历史数据中学习,这可能无意中引入偏见。解决人工智能系统中的偏见和公平涉及以下方面:

    • 多样化数据集:确保训练数据多样化且代表各种人口统计信息可以帮助减少人工智能模型中的偏见。

    • 算法公平性:开发优先考虑公平性且不歧视特定人口群体的算法是至关重要的。

    • 监控和审计:定期监控和审计人工智能系统可以帮助识别和纠正偏见,确保结果是公平的。

  • 透明度和问责制:随着人工智能系统变得更加复杂,理解它们的决策过程可能具有挑战性。这涉及以下两个重要方面:

    • 可解释的人工智能:开发能够清晰解释其决策的人工智能模型可以帮助用户理解和信任系统。

    • 责任和责任:建立清晰的责任和责任界限对于让开发人员、组织和用户对人工智能决策的后果负责是至关重要的。

  • 工作的未来:人工智能驱动的自动化有可能在某些领域取代工作,引发对工作未来的担忧。在本书中,我们已经看到 ChatGPT 和 OpenAI 模型如何能够提高个人和企业的生产力。然而,也有可能一些重复性任务将被人工智能彻底取代,这将影响一些工人。这是变革和发展过程的一部分,更好地接受变化而不是与之抗争。

在这个方向上的一些行动可能是再培训和提升技能计划 - 政府、组织和教育机构应该投资于再培训和提升技能计划,帮助工人适应不断变化的就业市场,并获得新兴角色所需的新技能。

最重要的是,应鼓励人工智能与人类的合作。开发能够补充和增强人类能力的人工智能系统可以帮助创造新的工作机会,并促进合作工作环境。

通过解决这些伦理考虑和挑战,我们可以朝着正确的方向努力,确保 AI 技术的负责开发和部署,促进更美好和更公平的未来。

现在,下一个合乎逻辑的问题可能是:鉴于近几个月 AI 技术的巨大加速,我们应该期待什么?

近期的期望

近几个月 AI 研究和发展的加速令人难以置信。从 2022 年 11 月到写作时(2023 年 4 月),我们已经看到发生了以下事情:

  • ChatGPT 的发布(2022 年 11 月)

  • Azure OpenAI 的普遍可获得性(2023 年 1 月)

  • ChatGPT 背后的模型 API 的普遍可获得性,GPT-3.5-turbo(2023 年 2 月)

  • MLLMs(如 Kosmos-1 和 GPT-4)的普遍可获得性(2023 年 3 月)

  • 微软宣布 Copilot 系统(2023 年 3 月)

这种不可思议的加速速度使得很难预测接下来会发生什么。正如我们所见,这种速度也引起了机构、公司和公众人物的关注,因为这些新技术缺乏监管。与此同时,公司和机构将不可避免地需要适应这个新的地理环境,以和竞争对手保持同步。

如果我们考虑近期的未来,我们在谈论明天。我们已经看到一些 IT 公司,比如微软,已经将 GPT 模型整合到他们的应用程序中作为副驾驶系统,而其他公司,如 WolframAlpha、Expedia 和 Instacart,已经设计了直接集成到 ChatGPT 的插件。

OpenAI 模型融入应用的趋势显而易见,这也体现在已开发的各种框架上,这些框架的目的是促进 LLMs 和应用之间的集成,以及管理提示、对话、记忆、记号化和其他通常所需的步骤。这些框架的一些示例是 LangChain、Pinecone 和 Semantic Kernel。

我们在第二章中提到,OpenAI 的使命是构建广泛有益的 AGI,这种类型的人工智能“通用”,意味着它有能力学习和执行各种任务,而无需进行特定任务的编程。

换句话说,OpenAI 正在设想一种能够做任何人类可以做的人工智能机器。

如果我们一年前就考虑这个问题,那么这看起来就像是未来主义。在当前飞快的发展速度下,我们会在不久的将来获得 AGI 机器,这真的难以置信吗?

摘要

诸如 OpenAI、ChatGPT 和生成式 AI 模型等人工智能技术的快速发展正在引领创新和转型的新时代。具有巨大潜力改革产业并重塑日常生活,这些进步正在重新定义人机互动的规则。

当我们站在这个由人工智能驱动的未来的边缘时,我们有责任确保这些技术被负责任和道德地使用。通过拥抱机遇并解决挑战,我们可以促进一个 AI 赋能人类、提升我们潜力至新高度的世界。

GPT 始于两年前 - 如果我们考虑最近几个月人工智能发展的速度,这已经是一个时代 - 然而,它反映了人工智能对我们生活的不可避免影响以及适应这个新现实所面临的挑战。

十二、参考资料

posted @ 2024-04-30 11:41  绝不原创的飞龙  阅读(12)  评论(0编辑  收藏  举报