人工智能正在改变企业管理边缘应用的方式
今天,几乎所有的企业都开发或采用应用软件,将诸如发票、人力资源配置文件或产品规范等信息的处理编入流程。整个行业已经崛起,可以在集中式数据中心或云,以及在边缘位置(如商店、工厂和家用电器)部署和执行这些企业应用程序。
最近,随着开发人员将AI融入到他们的应用程序中,企业软件的性质发生了变化。据Gartner预测,到2027年,深度学习形式的机器学习将被纳入超过65%的边缘使用案例,而2021年这一比例还不到10% *。使用AI,你不需要为每个可能的输入编写输出。相反,人工智能模型从训练数据中学习模式,然后将这些模式应用于新的输入。
自然,管理基于人工智能的应用程序所需的流程不同于为纯粹确定性的、基于代码的应用程序发展的管理流程。这是正确的,特别是对于边缘的基于人工智能的应用程序,在这些应用程序中,计算资源和网络带宽稀缺,容易访问设备会带来安全风险。
基于人工智能的应用程序受益于新的工具和流程,可以安全地部署、管理和扩展。
传统企业软件与AI边缘应用的区别
传统企业软件和处于前沿的AI应用程序的设计和管理方式有四个根本区别:
- 集成系统化
- 数据策略
- 更新
- 安全
容器化: 虚拟化已经成为企业在世界各地的数据中心部署传统应用程序的主要部署和管理工具。对于传统应用程序和环境,虚拟化为这些工作负载在管理程序上运行提供了结构、管理和安全性。
虽然虚拟化仍然在几乎每个数据中心中使用,但我们看到AI应用程序正在广泛采用容器技术,特别是在边缘。在最近的一份关于云原生开发状态的报告中,云原生计算基金会强调:“从事边缘计算的开发人员对容器和Kubernetes的使用率最高。76%的边缘AI应用使用容器,63%使用Kubernetes。
为什么这么多开发者在边缘AI工作中使用集成器?
- 性能
- 可伸缩性
- 弹性
- 可移植性
- 性能
容器虚拟化主机操作系统的内核,而在传统虚拟化中,管理程序虚拟化物理硬件并在每个实例中创建客户操作系统。与接近裸金属性能相比,这允许容器以完全裸金属性能运行。这对于许多边缘AI应用程序至关重要,尤其是那些与安全相关的用例,其中响应时间以毫秒为单位进行测量。
集成系统还可以在同一个系统上运行多个应用程序,提供整合,而不需要虚拟化的性能开销。
可伸缩性: 边缘AI“数据中心”可能分布在数百个地点。基于云的管理平台为管理员提供了集中管理环境的工具,这些环境可以扩展到成百上千个位置。通过利用网络和智能软件进行扩展,而不是让人员前往每个边缘位置,可以降低成本、提高效率和弹性。
弹性:AI应用程序通常通过伸缩提供弹性。同一个应用程序的多个克隆在负载均衡器后运行,当一个克隆失败时,服务将继续。
即使边缘环境只有一个节点,容器策略也可以确保应用程序自动重启,使停机时间最小化。
可移植性:在将应用程序容器化之后,可以将其部署在任何基础设施上,无论是裸机、虚拟机还是各种公共云。它们还可以根据需要放大或缩小。有了容器,应用程序就可以像在任何云中一样轻松地运行在边缘的服务器上。
虚拟机和容器在很多方面有所不同,但它们是在单一平台上部署多个隔离服务的两种方法。许多供应商提供的解决方案可用于两种环境,如Red Hat OpenShift和VMware Tanzu。
边缘环境可以同时实现虚拟化和容器化,但随着越来越多的边缘AI工作负载投入生产,我们有望看到向裸金属和容器的转变。
数据策略
下一个区别是数据在传统边缘应用和边缘AI应用生命周期中的作用。
传统的边缘应用程序通常会吸收少量的结构化数据流,如购销点交易、患者医疗记录或指令。在处理之后,应用程序返回类似的结构化信息流,例如支付授权、分析结果或记录搜索。当数据被使用时,它对应用程序不再有用。
与传统应用程序不同,人工智能应用程序的生命周期超越了分析和推断,包括再培训和持续更新。人工智能应用程序从传感器(通常是摄像头)传输数据,并对数据进行推断。在边缘位置收集一部分数据,并将其共享回集中式数据中心或云,以便用于重新培训应用程序。
由于依赖数据来改进应用程序,所以强大的数据策略至关重要。
将数据从边缘传输到数据中心或云的成本会受到数据大小、网络带宽和应用程序更新频率的影响。以下是人们在边缘AI应用程序中使用的一些不同的数据策略:
- 收集错误的推论
- 收集所有的数据
- 收集有趣的数据
- 收集错误的推论
至少,一个组织应该收集所有不正确的推论。当人工智能做出错误推断时,需要对数据进行识别、重新标记,并用于再训练,以提高模型的准确性。
然而,如果只使用错误的推论进行再训练,模型可能会经历一种称为模型漂移的现象。
收集所有的数据
选择将所有数据发送到中央存储库的组织通常处于带宽和延迟不是限制因素的情况下。这些组织使用这些数据重新培训或调整并建立新的模型。或者他们可能会用它来批量处理数据,以收集不同的见解。
收集所有数据的好处是可以利用巨大的数据池。缺点是成本非常高。通常,移动这么多数据都是不可行的。
收集有趣的数据
这是数据收集的最佳点,因为它平衡了对有价值数据的需求与传输和存储这些数据的成本。
有趣的数据可以包含组织预期对当前或未来模型或数据分析项目有价值的任何数据。例如,对于自动驾驶汽车,从相同的街道和相似的天气收集的大部分数据不会彻底改变模型的训练。然而,如果下雪了,这些数据将有用地发送回中央存储库,因为它可以改善在极端天气下驾驶的模型。
更新
传统边缘软件的功能内容是通过代码实现的。开发人员编写并编译在边缘设备上执行的指令序列。任何管理和编制平台都必须对软件进行更新,以修复缺陷、添加功能和修复漏洞。
开发团队通常每个月、每个季度或每个年发布新代码,但并不是每个新版本都会立即被推向边缘系统。相反,IT团队倾向于等待临界量的更新,并只在必要时进行更实质性的更新。
相比之下,边缘人工智能应用程序遵循不同的软件生命周期,以人工智能模型的训练和再训练为中心。每一次模型更新都有可能提高准确性和精度,或者增加或调整功能。模型更新的频率越高,它就变得越准确,从而为组织提供额外的价值。
例如,如果一个检查AI应用程序的准确率从75%提高到80%,那么该组织就会发现更少的缺陷被遗漏,从而提高产品质量。
边缘AI解决方案的生命周期图。模型在云和数据中心进行训练,然后部署到系统分析流数据的边缘。然后数据被送回云端或数据中心进行再培训。
部署边缘AI解决方案的组织应该预料到频繁的模型更新。通过从一开始就通过云本地部署实践(如容器)构建再培训流程,并实施强大的数据策略,组织可以开发出可持续的边缘AI解决方案。
安全
边缘计算代表了许多IT团队在安全范式方面的重大转变。在城堡和护城河网络安全模型中,网络之外的任何人都不能访问内部的数据,但网络内的每个人都可以。相反,边缘环境本质上是不安全的,因为几乎每个人都有物理访问权。
边缘人工智能应用加剧了这一问题,因为它们是使用高度宝贵的企业知识产权构建的,这是企业的生命线。它代表了企业差异化的竞争优势,是其功能的核心。
虽然安全性对所有应用程序都很重要,但在处理AI应用程序时,提高边缘的安全性也很重要。有关更多信息,请参阅边缘计算:安全架构师的注意事项。
- l物理安全
- l数据隐私
- l公司知识产权
- l访问控制
- l物理安全
因为边缘设备位于物理数据中心之外,所以在设计边缘计算站点时必须假设恶意行为者可以获得对机器的物理访问。为了解决这个问题,可以采用物理篡改检测和安全引导等技术作为额外的安全检查。
数据隐私
边缘人工智能应用程序通常会存储真实世界的数据,比如声音和图像,这些数据传达了有关人们生活和身份的高度隐私信息。边缘AI开发人员肩负着保护这些私人数据宝库的重任,以维护用户的信任并遵守法规。
企业知识产权
推理引擎结合了对大量专有数据的学习,以及机器学习团队的专业知识和工作。失去对竞争对手的这些推理引擎的控制会大大削弱公司在市场上的竞争力。
访问控制
由于这些环境的分布式特性,几乎可以肯定有人需要远程访问它们。即时(JIT)访问是一种策略,用于确保一个人被授予在有限时间内完成任务所需的最少权限。
设计边缘AI环境
随着企业从部署传统企业应用转向部署边缘的AI应用,维护支持传统应用的相同基础设施并不是一个可伸缩的解决方案。
对于一个成功的边缘AI应用程序,更新组织的部署方法、数据策略、更新节奏和安全策略是非常重要的。