李自学:“产业视频”时代已经开启

视频+AI,依托大数据中台和机器视觉中台,为机器装上“智慧之眼“。AI+大数据中台,聚焦数据治理、低代码建模、自动训练系统、推理加速工具以及开箱即用的模型能力。MEC+机器视觉平台,提供视觉识别、视觉定位、尺寸测量、外观检测和行为识别等类别应用,支持多粒度、多维度、多样式的应用数据呈现,实现实时监控、实时告警。

5月8日—10日,由工业和信息化部、国家广播电视总局、中央广播电视总台、广东省人民政府主办的2023世界超高清视频产业发展大会在广东省广州市召开。在5月9日举办的超高清视频产业高质量发展高峰会上,中兴通讯股份有限公司董事长、执行董事李自学表示,视频正以生产要素的形式融入千行百业。

在李自学看来,视频是数字经济的重要载体,连接着数字经济和实体经济。数据显示,全网数据流量的80%以上是视频,视频正以生产要素的形式融入千行百业。

在5G、4K、AI、AR/VR等新一代信息技术的推动下,视频的实用属性上升,视频+教育、视频+医疗、视频+电商、视频+办公等新业态不断涌现,形成了全行业“视频+”模式,视频已作为一种生产要素,全面参与到社会各行各业发展中,塑造出“产业视频时代”。

李自学表示,视频领域不断升级的多维视频技术,重构了视频表现,让我们从多角度“看清”世界。

视频+XR实现清晰度和空间感两个维度的提升:从标清、高清、4K、8K到更高分辨率的不断提升,画面更清晰灵动,从2D、3D、VR、AR到XR不断演进,视觉更立体沉浸。

比如8K赋能冬奥,高性能CDN服务器、国标编码AVS3支撑超高清传输呈现,让每片雪花都被看见;VR赋能教学,多路云渲染节约30%GPU资源,VR具象化教学提高留存率,让每点知识都被看清;AR赋能文旅,点云建图、空间定位、图像识别等多种核心能力支持多形态AR应用,虚实结合令每段沉淀的岁月都被看清。

视频+AI,依托大数据中台和机器视觉中台,为机器装上“智慧之眼“。AI+大数据中台,聚焦数据治理、低代码建模、自动训练系统、推理加速工具以及开箱即用的模型能力。MEC+机器视觉平台,提供视觉识别、视觉定位、尺寸测量、外观检测和行为识别等类别应用,支持多粒度、多维度、多样式的应用数据呈现,实现实时监控、实时告警。

李自学指出,视频应用场景千变万化,解决方案千差万别,超高清视频产业应实现“基础能力+应用能力”两方面协同。

一是要构建高效、经济、安全的视频数字基座。视频在网络、算力、智能三方面基础技术要素的加持下,相互融合,形成了极致效率、经济便捷、自主安全三合一的新型数字化视频基础设施,最大化释放数智生产资料的价值。

极致效率是以千兆光网、极速5G、低时延融合CDN等视频传输网络为基础,形成以新型绿色数据中心和轻量化边缘部署为代表的泛在算力,以及按需部署的极简网络服务;经济便捷要求数字基座要有能力将网络和视频能力原子化,支撑上层灵活编排,面向不同行业和不同群体的多元化应用,提供简单、便捷、经济的量身定制的融合服务;自主安全要求具备自主创新,不断持续融入前沿安全技术的能力。

二是要激发超高清市场活力,通过抽象应用原子能力,衔接实际应用场景,实现应用规模化普及。从赚到钱到盈利,到实现良性可持续发展,集约化是最关键的因素,也就是我们必须有能力实现“规模化基础上的定制化”。要以“基础能力组件化+应用抽象集约化”相结合的模式,有效支撑视频在不同场景和需求下的创新,形成新型基础信息服务模式。

(原标题:中兴通讯董事长李自学:“产业视频”时代已经开启)

请扫码关注数字化经济观察网
责编:莎莉
参与评论
文明上网,理性发言!请遵守新闻评论服务协议
0/200