人工智能的发展是由计算能力、算法和数据驱动的,使机器能够借助先进的软件和硬件独立学习和独立解决问题。人工智能的研究领域还包括计算机科学的其他分支,如机器学习、神经网络、深度学习等。在视频监控市场,最突出的人工智能技术就是深度学习。
深度学习借助电子技术和软件算法模仿人脑的功能。深度学习系统会不断从经验中获取知识,并像人类一样,通过学习真实的声音、图像等感官信息来感知和识别周围的环境。
在这个过程中,输入到系统中的声音、图像和其他信息被分成多层高度抽象的网络,每一层代表一些特征或标识符,例如边缘、颜色、形状和音调。人工智能的快速发展促进了它在智能手机、医疗保健和汽车等许多行业的应用。同样,证券市场也越来越希望在视频监控市场中应用人工智能,尤其是深度学习算法。深度学习虽然不是什么新鲜事物,但直到2015年才取得重大突破,机器视觉识别的错误率大大降低。在机器视觉比赛中,(视觉对象识别软件研究中使用的大型视觉数据库)在分析图像数据库时首次成功突破了5%的平均人为错误率。深度学习的迅速提高,不仅仅是因为先进算法的发展,更是因为基于多核图形处理器(GPU)而不是传统中央处理器(CPU)的新的更快的硬件系统的发展。这些新架构可以促进更快的学习和更准确的结果。因为它们模拟人脑神经元的速度比使用CPU的要快10到100倍。
随着视频监控系统新基础设施的发展,业界已经认识到两个主要趋势——人工智能能力从数据中心(云)迁移到终端,以及各种类型的数据从终端汇聚到云。
人工智能从云迁移到终端混合人工智能解决方案
人工智能解决方案从一开始就部署在数据中心或云中,并逐渐扩展到边缘。这种发展取决于模型发展的过程和计算的动态性能。人工智能解决方案分为两个阶段——训练和推理。训练是指在多次迭代和大量训练数据集上模拟神经网络聚合以达到所需精度的过程。因此,训练神经网络的计算量很大。因为训练一个算法需要大量的计算,所以基本上训练只在数据中心或者云中进行。
训练神经网络识别图像和视频的背景关系时,将其部署在推理设备上,输入视频流。这个过程叫做推理。推理是一个正向传播的过程,通过神经网络模型可以从新的输入信息中获得正确的结果。当今市场上大多数深度学习解决方案都包括某种GPU硬件。由于GPU硬件的高功耗要求,深度学习分析只能在云中或深度学习服务器或录像机上运行。但近年来,随着基于ASIC的SoC的发展,相机也可以运行AI推理算法。
因此,视频分析不仅可以在现有的标准化分析服务器或录像机上运行,还可以嵌入到网络摄像头、编码器等视频监控端设备中。
目前部署AI解决方案主要有三种方式。
部署在端侧的人工智能摄像机-人工智能摄像机生成的结构化数据通过网络传输到服务器,用于其他基于场景的应用,如人脸图像识别和车辆识别。而这种方法之所以难以被广泛采用,是因为用AI相机替代传统相机的成本比较高。
此外,端侧AI摄像头的计算能力限制也阻碍了其广泛应用。即使有最新的专用集成电路芯片,许多终端设备也不能同时运行多种算法。因此,仅依靠终端设备很难实现规模经济。
部署在中心的AI解决方案——通过这种方法,可以将视频流发送到分析服务器或录像机或云端进行集中处理,而不需要更换传统的摄像头。这使得系统能够为每个摄像机视频运行更多的分析,并链接多个摄像机来运行不同的视频分析。但是所有的数据都需要发送到数据中心,这种方式需要高带宽支持。数据中心必须能够提供所有的计算能力,这在很大程度上意味着用户需要为购买AI服务器和录像机支付高昂的成本。
分布在端到端基础设施上的云人工智能解决方案——这种混合方法通过将终端智能摄像头、边缘集中式服务器和云中心相结合,可以确保更平衡的视频分析工作负载。这意味着可以在摄像头上运行一些分析,比如人群监控、计数、物体检测等,以节省带宽,减少后端的计算压力。更强大的集中式分析可用于运行需要强大计算能力的应用程序,如人物或车辆的特征提取和对象搜索。
新技术促进了各种类型数据从终端到云的融合
深度学习分析可以将非结构化视频和图像转换为结构化和半结构化数据。数据通过云边缘端基础设施收集,从人工智能摄像头开始,然后到边缘的服务器或录像机,然后到云数据中心。这个过程是通过算法和计算能力来实现的,需要强大的逻辑处理器、图形处理器、内存和存储的支持。
在终端方面,芯片组制造商和安全设备制造商正在将计算能力更高、功耗更低的处理器嵌入下一代智能相机。目前,具有计算能力的嵌入式SoC智能相机非常常见,而一些高端相机使用计算能力芯片,可以运行各种深度学习算法和应用。
一些高端人工智能相机甚至可以在一帧视频中捕获200多张人脸图像,并对图像进行结构化。这种高度智能的摄像机可以在7X24小时内连续生成高速率视频图像数据和大规模结构化数据,并实时存储这些数据。
此外,大量基于AI技术的上层应用显著增加了用户对视频数据和结构化数据的读取操作。这要求存储这些数据的内存具有更高的顺序和随机读写性能,以及更大的本地存储空间。因此,高性能、大容量、高P/E(写/擦除)周期的嵌入式闪存越来越多地应用于终端侧的AI相机,如UFS。
>在后端,特别是CPU+GPU架构最适合运行包括图像识别在内的大量的深度学习任务。这种组合的流行,部分原因是GPU能够执行并行计算。当运行深度学习神经网络时,该体系结构使其速度比通用CPU快得多。
而随着越来越多的数据在包括录像机和企业级存储在内的后端存储中被汇聚,需要更大的存储支撑。具有更高容量的硬盘存储阵列可在有限物理区域中提供更大的容量。由于叠瓦式磁记录(SMR)技术的发展,使得最新一代3.5英寸硬盘的容量可以最高达到20TB。
叠瓦式硬盘通过将驱动器磁道部分彼此叠置(类似于屋顶上重叠的瓦片)来实现更大的容量,从而以较低的成本增加同一区域的存储密度。这种方法可以在视频监控云中心中很好地发挥作用,因为视频数据流具有顺序化存储的特性,并且视频云中海量归档的视频都不会进行随机写操作。
为了提升在云端进行密集的AI计算的能力,一些厂商开始在视频监控系统的AI计算中引入非易失性内存主机控制器接口(NVMe)存储,即。与传统的SSD或HDD相比,这种类型的存储可为AI计算访问数据时主动提供更高的带宽和更低的延迟,并将这些数据存储在距离计算最近的位置。这种方法可以使在大型数据集上进行实时分析成为可能。
此外,业界还引入了NVMe分区存储(ZNS),其在SSD上的工作方式与叠瓦式(SMR)HDD类似,能够以较低的成本提供更大的存储容量,并能更好地实现主机系统和之间的协作,合理的分配存储的工作负载。尽管这项技术现今在SSD上落地仍处于初期阶段,但它有潜力确保以更具性价比的方式使存储系统更高效、更稳定、更持久地运行。
人工智能技术的协作与整合
人工智能和深度学习视频分析现在正在影响新型的视频监控基础架构,即从端到边再到云数据中心。AI初创公司,半导体厂商与传统的视频监控供应商已经建立了一个完整生态系统以提供从芯片到算法和应用程序的解决方案,推动AI技术的落地。
随着成熟的AI加速器厂商不断推动芯片算力的提升,AI初创公司正在积极开发算法,以确保AI发挥其全部潜力。此外,视频监控设备制造商和数据中心硬件提供商正在不断探索将市面一流解决方案应用于其产品,使最终用户可以以合理的成本从支持AI的解决方案中受益。
另一方面,系统集成商和最终用户正在寻找有效的方法,将具有一流的AI功能的视频分析软件与可靠的视频监控基础架构相结合。AI解决方案的开发需要涉及科技界多方共同努力。没有一家企业可以独自推动AI产业向前发展,因为AI硬件和软件的开发非常耗时耗资,甚至对一些科技巨头都是一项巨大的挑战。由于AI的这个特点,各厂商的AI技术的协作和整合是构建可持续视频监控生态系统的必要条件。
责任编辑:ct
打开APP阅读更多精彩内容
相关阅读
标签: #视频监控最新动态