当前位置:
  • 媒体聚焦
  • 文字:
    保护视力色:
    【甬派】超算“Xin”力量①大模型破解视频“盲人摸象”难题
  • 阅读:
  • 时间:2023-08-15
  • 发布:市经信局
  • 甬派客户端记者 殷聪 实习生 王钦 通讯员 俞柏锋 屠国军

    甬派君有话说

    算力作为数据价值转换的新型生产力、数字经济的“新能源”以及智能时代的“新基础”,是今后一个时期产业发展的基本能力支撑。自今年1月上线运营以来,宁波人工智能超算中心算力使用率已超过70%,累计运行任务作业近万个。超算中心究竟将如何赋能宁波经济的高质量发展?今起,甬派客户端推出超算“Xin”力量系列报道,通过一则则小故事,展示超算中心带来的新动能、新力量。

    宁波大学。

    借助实时视频数据,智能分析生产线是否存在异常;通过步态识别,轻松在成千上万个视频中找出嫌疑人……今天上午,当宁波大学研发的“风华·苍鹭”视频场景理解大模型再次展示它的新功能时,不难发现,这一细分领域的大模型正逐渐从概念宣讲走向实战。

    随着数字媒体的普及,视频已成为市民生活中不可或缺的一部分。“如今,我们使用视频来记录、传输和展示信息的方式,越来越多元化。因此,对于视频的处理和理解变得越发重要。”钱江波说,虽然深度学习以及神经网络技术的发展,使得视频场景理解取得了一定的进展。

    宁大的大模型将解决视频资源存在的“盲人摸象”问题。

    但现阶段视频数据大多来源于网络视频,场景多局限于日常拍摄的小场景,数据量以及类型十分有限。针对不同场景,视频场景理解大模型缺位明显。

    “我们的目标就是要补上短板,加快兑现视频资源的价值。但要兑现价值,首先要解决视频资源存在的‘盲人摸象’问题。”在钱江波教授看来,目前,每个摄像头都只能“看”到局部的场景,并不能反应“大象”的全部面貌。

    如何破题?由郑纬民院士指导、宁波大学钱江波教授等多位老师共同参与研发的“风华·苍鹭”视频场景理解大模型,通过构建视频大数据库,可在多个场景实现跨摄像头的视频分析,解决了视频“盲人摸象”的问题。这也是全球首个基于昇腾AI的视频场景理解大模型。

    大模型的训练需要大量的算力。

    “事实上,大模型的发布仅仅是个开始。未来,我们需要大量的视频资源,不断训练大模型,并对其进行持续的迭代与更新。”钱江波说,但视频的数据量较大,原本学校购买的计算能力已远远满足不了大模型迭代发展的要求。

    今年1月,宁波人工智能超算中心正式上线,成功补上了宁波城市级大型超算中心缺失的短板。一期可提供100P智算及5P超算算力的超算中心,自然成为了宁波大学大模型迭代升级的“最优解”。

    宁波大学已与超算中心开展了紧密的合作。

    “1P算力代表超算中心每秒可进行1000万亿次的浮点运算。”钱江波说,以智算为例,在图像处理领域,1P算力可提供每秒约10万张图片的处理能力,可同时为约500辆汽车提供道路实况分析。

    钱江波给记者算了一笔账:同样的数据量,在超算中心内计算只需要花费100个小时,与此前相比提升了百余倍。与超算中心的合作,将加快大模型的迭代速度,不断优化和提升它的性能与稳定性。

    “风华·苍鹭”,未来可期。

    编辑:徐挺