公共部门生成式人工智能的未来
2023年12月15日 | by mebius
最近,我与 IDC Government Insights 研究副总裁阿德莱德奥布莱恩 (Adelaide O’Brien) 坐下来讨论了全球公共部门生成式人工智能的当前和未来状况。 完整的对话可以按需查看,但我也想强调讨论中的一些要点。 我们的目标是讨论我们现在看到的用例、公共组织面临的障碍,并交流组织如何利用生成式人工智能为员工、选民和更大的数字化转型带来的价值的最佳实践。
公共部门的生成式人工智能:现状
IDC 研究表明,59% 的政府机构正处于其组织内生成式 AI 使用的初级阶段(相比之下,只有 16% 的政府机构正在 “大力投资”)。展望未来,IDC 分享了有关公共部门领导者如何看待他们的近期生成式人工智能目标路线图的更多见解:
- 全球 62% 的政府表示,他们将在未来 12 个月内在客户服务和支持中使用人工智能。
- 全球 49% 的教育机构表示,对话式应用程序(例如聊天机器人和语音机器人)最有希望在短期内使用。
更进一步,IDC 根据其研究以及与政府客户的咨询对话,概述了公共部门组织在未来几年可能采用和整合生成式人工智能的进展情况。
公共部门生成式人工智能用例的 3 个领域
IDC 根据组织成熟度级别将政府用例分为三个阶段或范围。 与一些着眼于tgcode生成式人工智能集成的收入潜力的私营部门同行不同,到目前为止,公共部门组织正在采取更加谨慎的 “爬行-走-跑” 方法。
第一阶段:根据 IDC 的说法,第一个阶段是在未来一年左右发生渐进式创新,因为组织主要在内部测试生成式人工智能的领域。 最初,用例侧重于员工生产力和满意度,例如围绕内部合同管理、采购和通过沙箱环境创建代码的试点计划。 换句话说,采取复杂、重复的以数据为中心的任务,并通过生成人工智能应用程序结合机构的专有数据来简化它们。 一旦这些试点计划启动,组织计划扩展到影响外部利益相关者的用例,例如通过将选民与个性化的相关数据连接起来来改善选民的帮助台或呼叫中心体验。
第二阶段:一旦组织对第一阶段发生的生成式人工智能文化转变感到相当满意,用例就可以扩展到更具颠覆性的创新。 IDC 预计这一前景将在未来几年内普遍存在。 这里的用例连接 “前台到后台” 并利用智能自动化。 示例包括关键基础设施保护、用于调查的跨机构数据共享以及福利欺诈保护。
第三阶段:IDC 框架的第三个也是最后一个阶段的用例继续扩大范围,包括新的业务模式和跨复杂生态系统的集成。 在这里,各组织正在围绕数字立法、国家情报优势和智能互联校园等系统性主题进行整体规划
大规模生成人工智能需要安全和信任
尽管生成式人工智能前景广阔,但领导者也面临着数据隐私、员工满意度以及道德与合规性方面的担忧。 IDC 数据显示,43% 的全球政府领导人担心生成式人工智能会危及他们对数据和知识产权的控制,41% 的人担心生成式人工智能的使用会让他们面临品牌和监管风险。
对于公共部门来说,安全和信任对于任何生成式人工智能的实施都是至关重要的 —— 对私营部门合作伙伴的信任,对政策和道德准则的信任,以及对私人数据保密的信任。 正如阿德莱德奥布莱恩 (Adelaide O’Brien) 指出的那样,“政府只有以信任为中心,才能大规模提供新一代人工智能价值。” 对于公共部门组织来说,这意味着对负责任的人工智能的政策和指南进行战略思考,包括:
- 为整个组织制定人工智能路线图
- 设计智能架构
- 绘制实施和成功所需的技能
- 确保你的敏感数据不会用于训练大型语言模型 (LLM)
- 将数据保存在主权领土上
- 确保你拥有自己的加密密钥
上述所有考虑因素tgcode的关键是 “人机交互” 方法,该方法可确保生成式人工智能输出经过人类交叉检查是否存在错误信息,特别是考虑到生成式人工智能产生幻觉的可能性。
使用检索增强生成(RAG)来使得模型着地
IDC 指出,全球 36% 的政府领导人担心生成式人工智能使用的准确性或潜在毒性(偏差、输出中的幻觉)。 为了确保生成式 AI 输出尽可能准确和及时,IDC 和 Elastic 都建议使用检索增强生成 (retrieval augmented generation – RAG)。 RAG 是一种自然语言处理技术,使组织能够将自己的专有数据与生成式人工智能结合使用,以提高内容输出的质量。 通过利用你自己的特定领域数据,RAG 为生成式 AI 搜索查询提供相关的内部上下文,从而提高了准确性并减少了幻觉,为 LLM 奠定了基础。
RAG 与 Elastic 如何使公共部门受益
- 基于事实:使用 Elastic 中的同步数据获得准确、最新的特定于任务的结果,这些结果通过上下文窗口传递到生成式AI 模型。
- 实现卓越相关性的灵活性:将你自己的 transformer 模型引入 Elastic,与第三方模型集成,或使用 Elastictgcode 的 Learned Sparse EncodeR (ELSER)。
- 隐私和安全:应用 Elastic 对聊天和问答应用程序基于角色的访问控制的本机支持。
- 成本效益:使用较小的 LLMs,与微调或依赖基于 LLM 的知识相比,推理成本降低了两个数量级。
聆听完整的线上炉边聊天 (fireside chat)
本文中描述的任何特性或功能的发布和时间安排均由 Elastic 自行决定。 当前不可用的任何特性或功能可能无法按时交付或根本无法交付。
在这篇博文中,我们可能使用或引用了第三方生成人工智能工具,这些工具由其各自所有者拥有和运营。 Elastic 对第三方工具没有任何控制权,我们对其内容、操作或使用不承担任何责任,也不对你使用此类工具可能产生的任何损失或损害负责。 使用人工智能工具处理个人、敏感或机密信息时请务必谨慎。 你提交的任何数据都可能用于人工智能培训或其他目的。 无法保证你提供的信息将得到安全或保密。 在使用之前,你应该熟悉任何生成式人工智能工具的隐私惯例和使用条款。
Elastic、Elasticsearch、ESRE、Elasticsearch Relevance Engine 和相关标记是 Elasticsearch N.V. 在美国和其他国家/地区的商标、徽标或注册商标。 所有其他公司和产品名称均为其各自所有者的商标、徽标或注册商标。
原文:The future of generative AI in public sector | Elastic Blog
文章来源于互联网:公共部门生成式人工智能的未来