17191073931

如何实现AI视觉检测的快速落地?三大经典场景与成本优化方案详解

本文深入分析AI视觉检测的工业质检、安防监控和智慧零售三大应用场景,提供技术实现路径和成本优化方案,助力企业快速落地。


随着人工智能技术快速成熟,AI视觉检测已成为企业实现智能化转型的重要突破口。在制造业、安防监控、智慧零售等领域,AI视觉检测正以其高效、精准的识别能力取代传统人工检测,显著提升生产效率和质量把控水平。然而,不少企业在落地过程中仍面临场景选择不清晰、实施路径复杂和成本控制难等问题。

为帮助企业解决上述挑战,本文将重点剖析三大主流应用场景的实现路径,提供成本优化策略,以实际案例为基础,引导企业快速、高效地部署AI视觉检测解决方案。

一、AI视觉检测的重要性与产业趋势

产业需求加速AI视觉检测普及

近年来,人工成本上升、市场竞争激烈推动企业加快智能化升级步伐,AI视觉检测凭借高精度、低延迟及可扩展性,逐渐成为企业提高竞争力的核心手段。据IDC报告,2023年全球AI视觉检测市场规模达到178亿美元,预计到2026年将增长至351亿美元,年均复合增长率高达25%。企业部署视觉AI已不仅是趋势,更成为刚需(行业观点/IDC数据)。

三大场景主导市场需求

在众多应用场景中,工业质检、安防监控、智慧零售已成为AI视觉检测最典型且需求最旺盛的领域:

  • 工业质检:零件缺陷检测、产品尺寸测量、包装完整性验证;
  • 安防监控:人脸识别、异常行为分析、智能巡检;
  • 智慧零售:客流统计、货架缺货检测、购物行为分析。

这三个领域既具有较大的技术成熟度,又拥有明确的成本收益模型,因此成为企业落地视觉检测技术的首选。

落地瓶颈与挑战分析

尽管市场前景广阔,但AI视觉检测落地过程中企业仍普遍面临如下问题:

  • 算法泛化能力不足,需大量数据训练;
  • 硬件成本高,ROI不明确;
  • 实施过程复杂,专业人才缺乏;
  • 数据安全和隐私问题日益凸显。

因此,如何选择适合自身的应用场景、合理控制实施成本和提升项目成功率,成为企业必须攻克的难题。

小结

AI视觉检测正成为产业智能化升级的关键驱动力,工业质检、安防监控和智慧零售三大领域需求最为迫切,但企业落地仍需关注算法适配性、成本控制与实施难度。


二、AI视觉检测技术原理与架构介绍

深度学习视觉检测算法简介

视觉检测技术主要依托于深度学习算法,其中最典型的包括YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)和Faster R-CNN等。

  • YOLO系列
    • 优点:实时检测速度快,适用于视频流实时分析。
    • 缺点:对小目标检测能力稍弱,复杂场景准确率有待提升。
    • 典型应用场景:实时监控、人流统计。
  • SSD算法
    • 优点:兼顾检测速度和精度,适用于通用目标检测。
    • 缺点:小目标识别精度相对较低。
    • 典型应用场景:智慧零售中的货架监控。
  • Faster R-CNN算法
    • 优点:检测精度高,小目标和复杂场景表现突出。
    • 缺点:检测速度较慢,对算力要求高。
    • 典型应用场景:工业高精度质检、医学影像诊断。

AI视觉检测系统技术架构

AI视觉检测的部署一般分为三种架构:

  1. 云端部署架构
    • 将视频或图像上传到云端进行处理。
    • 优势:算力资源丰富、易于管理、灵活扩展。
    • 劣势:受限于网络带宽、隐私安全风险较高。
  2. 本地化边缘计算架构
    • 在本地设备(如工业PC或智能相机)进行算法推理。
    • 优势:实时性高、数据安全性好。
    • 劣势:对本地设备性能要求较高、部署成本可能更高。
  3. 云-边协同架构
    • 边缘端进行快速预判和数据筛选,关键数据上传云端进行进一步分析。
    • 优势:兼顾了实时性与数据分析深度。
    • 劣势:系统复杂度较高,部署难度增加。
--- title: "AI视觉检测系统典型架构" --- graph LR A["数据采集设备<br>(摄像头、传感器)"] --> B["边缘计算节点<br>(本地推理)"] B --> C["关键数据筛选"] C -->|上传| D["云端AI分析平台"] D --> E["数据存储与分析"] E --> F["决策与反馈"]

关键技术要素解析

在搭建视觉检测系统时,以下几个技术要素尤其需要关注:

  • 算力选择
    • GPU算力(NVIDIA Jetson系列、RTX系列):高性能、高精度场景适用。
    • 边缘计算芯片(海思、寒武纪、RK系列):成本低、更适合边缘场景。
  • 模型训练与优化
    • 基于自有数据进行场景化训练,提高模型适配度。
    • 模型剪枝与量化,降低模型体积与推理耗时。
  • 边缘优化技术
    • 使用TensorRT/OpenVINO等加速推理框架提升边缘推理效率。
    • 合理规划数据缓存、任务调度与本地推理策略。

小结

企业需依据自身需求与资源情况,选择适合的算法与部署架构,关注关键技术要素,有效提升AI视觉检测系统的实施成功率和效能。


三、三大场景实现路径与案例分析

场景1:工业质检

典型案例:汽车零部件生产线的缺陷检测系统

问题与需求

  • 人工检测耗时长,误检率高。
  • 产品精度高,对检测精准度要求严格。

技术实现路径

  • 在生产线上部署高速相机和边缘计算设备。
  • 基于Faster R-CNN模型训练工业缺陷检测算法。
  • 边缘端实时处理图像,实时反馈缺陷检测结果。

实际效果与数据

  • 缺陷识别准确率从人工的约85%提升到99.5%以上(真实数据)。
  • 生产效率提升30%,综合成本下降15%。

场景2:安防监控

典型案例:智慧社区人脸识别与异常行为监测系统

问题与需求

  • 社区出入口人流密集,人工识别效率低。
  • 对异常行为(尾随、徘徊)实时预警需求高。

技术实现路径

  • 边缘端部署智能摄像头,内置YOLOv7轻量模型。
  • 云端进行人脸数据库管理与后续数据分析。
  • 实时异常行为分析和报警通知至管理平台。

实际效果与数据

  • 进出人员识别与异常行为检测效率提升80%以上(客户反馈数据)。
  • 降低安全事件发生率约70%。

场景3:智慧零售

典型案例:连锁超市货架监测与客流分析系统

问题与需求

  • 商品缺货未能及时发现,影响销售。
  • 传统客流分析方式效率低,缺乏精准营销。

技术实现路径

  • 部署低成本边缘计算摄像头,基于SSD算法实现实时缺货检测。
  • 通过边缘计算与云端分析实现顾客行为精准捕捉。
  • 后端分析平台实时生成货架补货通知和客流分析报告。

实际效果与数据

  • 缺货发现时间缩短至原来的1/5。
  • 客流分析准确性提升到95%以上,直接促进销售额提升12%。

小结

通过对三大应用场景的深入解析,企业可依据具体业务特征与需求,灵活选择适配的AI视觉检测技术与实施路径,实现降本增效的落地目标。


成本优化策略

AI视觉检测系统的部署方式主要包括云端部署、本地部署(自建机房)和边缘部署(前端设备)。不同方式在初始投入、维护成本、实时性、数据安全等方面各有特点,下表对此进行比较:

方案初始投资维护成本实时性安全性
云端部署前期投入低,无需购置大量硬件设备,采用云厂商按需计费模式 。运维外包给云服务商,成本随使用量弹性变化,大规模持续调用时费用可能攀升 。时延相对较高,需要将视频流上传云端处理,受网络带宽影响 。数据存储在云端,存在一定隐私合规风险,需依赖云厂商安全措施 。
本地部署前期投入最高,需要自购服务器、GPU等基础设施 。内部IT团队负责维护,需持续升级硬件和软件,长期运维成本较高 。时延最低,数据在本地处理,无网络传输延迟 。数据完全保存在内部,物理隔离保障安全,满足严格合规要求 。
边缘部署前期投入中等偏高,需购置智能摄像头、边缘计算网关等设备 。设备分散,需定期维护升级,但云端带宽和存储支出大幅减少 。时延很低,算法在设备侧实时运行,不依赖云网络 。数据就地处理,敏感信息不出现场,提高隐私和安全性 。

上述对比可以看到:云端方案初始投资最少但长远运营费用可能较高,适合弹性负载;本地方案投入大但可充分掌控数据和低延迟;边缘方案在低延迟和数据本地化方面表现突出,但需要一定硬件投入 。在实际应用中,可根据项目规模、实时要求和安全合规需求选择合适的部署组合,许多企业也采用云-边结合的混合架构来平衡成本与性能 。

成本优化建议:针对AI视觉检测项目,高昂的算力和数据处理费用往往是主要挑战,但通过合理策略可以有效控制成本:

  • 模型轻量化:优先采用轻量级模型和算法,以减少计算资源占用。例如,一些超轻量人脸检测模型大小仅约1MB,却仍能实现实用的检测效果 。通过模型压缩、剪枝和量化等技术,将复杂深度模型瘦身,可以在保持精度的同时降低推理耗时和内存,占用更少的GPU/CPU资源 。这使模型能够部署在成本更低的设备上(如边缘设备或移动端),降低整体硬件投入。
  • 模块化架构:采用模块化和可扩展的系统设计,将数据采集、预处理、模型推理、结果处理等功能解耦。这种架构允许灵活替换或扩展各模块,例如更换摄像头类型或升级模型算法而不影响全局 。模块化设计还能根据负载按需扩展某一部分资源(如增加推理节点)而无需重构整个系统,从而优化资源利用。Viso Suite等业界解决方案即强调通过模块化积木式搭建视觉管道,可兼容任意摄像头和硬件,加速开发同时避免重复投资 。
  • 充分利用开源组件:优先选用成熟的开源框架和工具,加快开发进度并减少软件许可成本。例如OpenCV是广受支持的开源计算机视觉库,涵盖超过2500种算法,实现从图像预处理到目标跟踪的多种功能 。借助OpenCV进行原型开发,可快速验证概念并在小规模应用中实现实时处理 。此外,像TensorFlow、PyTorch这样的深度学习框架均为开源,利用其丰富的预训练模型(如YOLO系列目标检测模型)可以避免从零训练大型模型,从而节省研发费用和算力开销。
  • 按需推理与资源弹性:避免不加选择地处理所有视频帧和数据,对推理任务进行按需调度。可采用触发式或间隔采样的方法:例如只有检测到运动事件时才运行高成本的识别算法,或每隔N帧执行一次分析,以降低连续帧推理的冗余。实践案例表明,通过在边缘设备进行第一轮筛选,只将约10%的关键帧发送云端深入分析,可使云端计算量削减80-90%,存储和带宽占用降低70-90% 。同时可以利用云服务的弹性计费模式,在业务低谷期缩减实例数量,在高峰期临时扩容,避免长期闲置资源浪费。部署无服务器(Serverless)架构也是一种方式,当有请求时再触发模型推理,实现“随用随启”,将闲时成本降至零。
  • 利用现有服务与AutoML:对于常见的视觉检测任务,可以考虑使用云厂商提供的预训练API或AutoML工具,在早期阶段减少自行训练模型的投入。例如,借助现有的人脸识别、商品识别API快速构建原型,在验证可行性后再决定是否切换到自研模型。这种“拿来即用”的方式虽然单次调用费用可能略高,但省去了模型开发和基础设施搭建的初始成本,适合作为过渡方案。待业务量上升或对定制化要求提高时,再将模型部署迁移到更经济的自有推理服务上,从整体上平滑投入峰值。

通过以上策略的组合应用,企业可以在保证AI视觉检测性能的前提下,将总体拥有成本(TCO)降至可控范围。例如,有公司通过优化数据管道和采用开源流处理平台,将云端处理成本降低了50%以上,同时仍实现了毫秒级别的实时分析 。总体而言,成本优化需要技术和业务两手抓:一方面不断提升模型效率和系统架构弹性,另一方面根据实际业务需求按需投入,避免“一刀切”的过度设计。

实践建议与部署要点

在推进AI视觉检测项目落地时,企业和开发者需要综合考虑技术验证、设备选型以及长期运维等方面。以下是一些实践建议和部署要点,可帮助提高项目成功率:

  • 从POC开始循序渐进:不要一上来就大规模铺开。首先构建概念验证(POC)或试点项目,在受控的小范围内验证算法准确率和系统可行性 。通过POC收集初步数据和反馈,评估模型在真实环境中的表现,确认能达到预期的KPI指标(例如检测准确率、响应时间等) 。试点成功后再逐步扩展部署范围,这样可降低初始风险,并为后续大规模上线争取时间完善模型和方案。
  • 明确业务场景与算法选择:根据应用场景选择合适的算法类型和模型架构,这是实践落地的基础。例如,针对固定角度的产品缺陷检测,可优先采用经典的卷积神经网络目标检测模型(如YOLO系列);对于多类别的图像分类任务,则考虑预训练的ResNet、Vision Transformer等模型,并根据需要微调。切忌盲目迷信“万能模型”或套用未经验证的开源模型 ——许多企业在试用通用API时发现,demo效果很惊艳但一到复杂现场就精度骤降 。因此务必使用贴近业务数据训练的定制模型,或对预训练模型进行再训练以适应特定场景。数据集应尽可能涵盖实际环境中的各种变化(不同光照、角度、背景干扰等),以提高模型鲁棒性。
  • 设备与架构选型策略:根据实时性要求和现场条件决定采用云、边还是混合部署,并匹配相应的硬件设备。实时性高、网络不稳定的场景(如工业现场秒级缺陷剔除、无人机巡检)适合选用边缘计算,将高性能AI芯片(例如NVIDIA Jetson系列、Intel Movidius等)部署在摄像头或本地服务器端,以确保毫秒级推理响应并减少对云端的依赖 。数据量巨大但对延迟不敏感的场景(如离线视频分析、云端训练)则可更多利用云服务的弹性算力,初期节省硬件开支。对于大多数企业,云-边协同是折衷之策:在前端设备完成初步的目标检测或事件筛选,再将少量结果发送云端做更复杂的识别和统计。这种架构既保证了响应速度,又降低了云资源消耗 。在选型时,还应考虑现场环境对设备的要求,如摄像头的防尘防水等级、镜头视场和分辨率选择,边缘设备的功耗和散热等,确保硬件方案能适应长期稳定运行。
  • 关注系统集成与应用流程:AI视觉检测往往需要与现有业务系统打通才能发挥价值。在落地部署时,提前规划好系统集成方案,例如检测结果如何传输到后台管理平台,是否需要触发报警或驱动机械设备动作等。通常做法是通过标准协议或API接口将AI模块嵌入业务流程:比如在生产线引入视觉质检后,要对接MES系统记录不良品;又如在零售店部署摄像头防损,要与门店的安防报警系统联动。当AI检测出事件时,及时通知相关人员或系统。建议开发简洁直观的用户界面/dashboard,实时展示检测状态和关键信息,方便运维人员监控 。同时,为避免一线员工对新技术的不适,应提供必要的培训,使操作人员了解系统输出含义及基本故障处理,提高整体接受度 。
  • 数据与模型维护闭环:模型上线后并非一劳永逸,需建立持续的监控和改进机制。首先,在系统运行过程中监控模型性能,跟踪识别准确率、误报漏报率等指标,一旦发现精度持续下降(可能由于环境变化或产品更新导致),就要警惕模型漂移问题 。应制定计划定期采集新样本并扩充标注数据,通过自动化流水线进行模型重训练和部署更新 。很多先进团队引入了MLOps实践,将数据收集、模型训练、评估和发布部署集成到流水线,实现模型的持续集成/持续交付(CI/CD) 。此外,要定期检查数据存储和处理是否符合最新的隐私合规要求,在更新模型或功能时确保不会违反诸如GDPR、CCPA等法规 。通过数据-模型-反馈的闭环,保证视觉检测系统在实际应用中不断适应变化,长期稳定地提供价值 。
  • 避免常见误区:在实践中有一些常见陷阱需要注意避免:其一,切勿忽视数据质量,不干净或偏颇的数据会直接导致模型效果不佳,前期应投入精力做好数据标注和清洗;其二,不过度依赖单一指标,除了精度,还应关注模型推理速度、系统正常运行时间等可靠性指标,找到性能与效果的平衡 ;其三,不脱离业务谈AI,确保该视觉检测方案能够真正解决业务痛点,以ROI为导向选择技术深度;其四,预留人工介入和兜底方案,即使AI模型准确率很高,也要考虑误判情况下的应急处理,比如流水线上的异常报警可由人工二次确认,重要决策不可完全交给AI自动执行。最后,循序扩展应用范围,先让模型在单一点位成熟运行,再推广至更多部门或场景,避免摊子铺得过大反而难以管理。总结而言,务实、迭代和以人为本是AI视觉检测成功落地的关键。持续从小处总结经验、优化模型,才能最终实现规模化部署的价值最大化。

FAQ 常见问答

问:云端、本地和边缘部署该如何选择?

:这取决于项目对实时性、数据量和安全合规的要求。云端部署初始成本最低,弹性好,适合对延迟不敏感的小规模试点或需要快速上线的项目,但存在网络延迟和数据外传风险。本地部署能够充分保障实时性和数据私密,适用于对延迟极敏感或有严格数据合规要求的场景,不过需投入昂贵的服务器和维护成本。边缘部署则是在数据源头(摄像头或设备侧)就地处理,实现毫秒级响应和数据本地化,非常适合工业现场、自动驾驶等需要即时决策的应用。很多情况下企业会采用云+边缘的混合架构:前端设备承担实时检测,云端集中进行深度分析和模型更新,以达到性能和成本的平衡。总之,选型时应依据“速度/成本/安全”三角权衡:追求最低延迟和数据掌控就倾向边缘或本地,追求弹性和低初始投入可考虑云端部署。

问:如何选择合适的视觉检测算法和模型?需要自己训练吗?

:算法选择取决于您的任务类型和精度要求。一般来说,目前目标检测、图像识别领域深度学习卷积神经网络表现最佳。比如检测目标位置可选用YOLO系列、SSD等实时检测模型;分类任务可选用ResNet、EfficientNet等预训练模型。是否需要自己训练取决于场景复杂度:如果现有开源模型在您数据上效果不理想,就需要进行定制训练。许多开源模型(如Mask RCNN、YOLO等)在公开数据集上训练良好,但在企业自身场景(不同摄像头角度、特殊物体外观)下精度可能下降 。最佳实践是利用预训练模型+少量本地数据微调的方式:先尝试现有模型快速原型验证,如果准确率不足,再收集有代表性的数据进行标注,从头或基于预训练权重训练一个专属模型。这样既能缩短开发周期,又确保模型适配业务需求。另外,算法选择也要考虑模型大小和速度是否满足部署环境,例如边缘设备算力有限,就需要模型足够轻量(MobileNet、TinyYOLO等)。总之,先调研现有方案,在性能不足时再投入资源开发定制算法,以最低成本获得可用的模型效果。

问:如何评估AI视觉检测项目的ROI(投入产出比)?

:评估ROI需从成本和收益两方面衡量。成本包括硬件购置、云服务费用、数据标注与开发人力等;收益则体现在提升效率、降低错误率和节省人力开支上。建议首先设定关键指标,如准确率、漏检率、处理速度等作为技术效果的衡量,再关联到业务指标,如产线不良率减少、人工检测人力节省、事故响应时间缩短等进行量化。例如,在制造业引入视觉质检后,不良品率下降直接节省返工和原料损耗成本 ;零售店部署防损AI摄像头可将盗损率降低20%~30%,每年为门店减少相当可观的损失 。同时考虑间接收益,如流程数字化带来的决策优化。计算ROI时,把实现上述收益所需的年度成本与预期年度收益对比即可。例如某项目投入100万元,预期每年减少人工和损失合计150万元,那么ROI = 150/100 = 1.5,说明一年内即可收回成本并产生盈余。需要注意的是,AI项目往往初期投入较高,真正收益释放在规模化应用阶段 。因此建议通过阶段性试点验证,逐步扩大部署来实现收益递增,并持续跟踪实际效果,定期向管理层汇报ROI进展,以确保项目保持商业可行性。

问:部署视觉检测系统需要准备多少数据和怎样的硬件?

:数据和硬件需求随项目规模和难度而异。数据方面,如果采用监督学习的深度模型,一般需要上千张有标签的图像才能训练出可靠模型;对于复杂任务可能需要数万计样本。当然,数据质量比纯数量更重要:确保收集的数据具有代表性和多样性,涵盖各种可能情况。同时可以利用预训练模型降低自有数据需求,例如很多模型在ImageNet等大规模数据上预训练过,迁移到新任务时少量样本即可微调。对于无现成数据的新项目,可先进行试运行收集真实场景视频,再离线标注用于训练。硬件方面,小规模开发测试阶段可使用普通PC加一块适当性能的GPU(如RTX系列)即可。如果需要云端训练大型模型,可租用云厂商的GPU/TPU算力按时计费。部署时,边缘侧设备选择取决于实时要求:简单场景用树莓派等即可跑轻量模型;复杂实时场景则考虑性能更强的边缘计算设备(如NVIDIA Jetson AGX Orin等)以在本地实时推理。云端部署则主要是带GPU的服务器或云实例,根据并发路数和帧率选配CPU/GPU数量。实践中,常采用云边结合:摄像头等前端负责采集,初步推理由设备本地完成,只将需要深度分析的数据上传云端强力GPU处理。需要注意网络带宽规划,高清视频上传云端开销巨大,应尽量在边缘压缩或筛选后再传输 。概括而言,数据要有质量、多样性,硬件要与实时需求匹配。宁可前期在数据打磨和硬件选型上多投入一些,也胜过事后因为数据不够或设备不适导致系统效果不达标。

问:在有限预算下有哪些控制AI视觉检测成本的方法?

:有限预算情况下,可以从技术优化和巧用资源两方面入手降低成本。技术上,可以采用轻量级模型来降低对昂贵GPU的依赖,例如MobileNet、Tiny-YOLO等网络在CPU上也能运行,从而减少购买高端硬件或云GPU实例的支出 。通过模型压缩、量化进一步加速推理,同样的硬件可服务更多路视频 。同时,边缘分担计算是节省云成本的有效途径:让前端设备先筛选掉大部分无效帧,只将少数关键事件上传云端,大幅削减带宽和云处理费用 。在资源利用上,可充分利用开源和现有服务:优先选用免费的开源框架和库,避免重复造轮子投入开发成本 ;善用云厂商的按需计费模式,根据业务高峰低谷弹性伸缩资源,避免长期闲置浪费。对于初创团队,可以先使用云端AutoML或现成API做出原型,等验证有价值再投入资金构建自己的模型和基础设施。总之,小预算项目要秉持“精打细算”原则:在保证核心功能和精度的前提下,能简则简,能重用绝不另造轮子,把资金花在刀刃上。例如某视频监控AI创业公司通过模型剪枝和优化数据管道,将云计算支出直接降低了一半,同时仍保持了毫秒级的识别响应 。可见,通过多管齐下的成本控制策略,即使预算有限也能跑出高性价比的AI视觉应用。

问:模型部署后需要如何维护和更新?

:AI视觉检测模型部署后需要进入持续维护周期。首先要监控模型表现:跟踪日常检测的准确率、误报率等指标,如发现准确率下降,可能是出现了训练时未覆盖的新情况(例如摄像头位置变化或新增的被测物变化)。这时候应及时启动模型更新流程,收集失败案例的数据进行标注,并将其加入训练集中重新训练模型,以消除偏差。业界推荐建立自动化模型重训练管道,周期性将新数据用于微调模型,实现模型的持续学习进化 。其次,关注数据漂移模型漂移:实际环境随时间推移可能发生变化(光线、背景、新目标类别出现等),即使模型本身无问题,也可能因环境变化而性能下降 。为此需要定期评估模型对新数据的适应性,必要时增补训练。再次,保持基础软件环境更新:底层的深度学习框架、依赖库也会更新,定期维护升级可获得性能提升或安全补丁,但升级前要充分测试兼容性。最后,别忘了设备和系统的日常运维:清理摄像头镜头、确保网络稳定、GPU机器的温度和算力监控等都是保证模型长时间稳定运行的细节。总之,模型部署只是起点,后续通过监控-反馈-改进的循环,才能让AI视觉检测系统始终保持高效可靠 。建议指定专人或团队负责模型和系统的健康监控,一旦指标异常及时响应,这样才能将问题扼杀在萌芽中,保障业务连续性。



典型应用介绍

相关技术方案

物联网平台

是否需要我们帮忙?

若是您有同样的需求或困扰,打电话给我们,我们会帮您梳理需求,定制合适的方案。

010-62386352


星野云联专家微信
星野云联专家微信

© 2025 Zedyer, Inc. All Rights Reserved.

京ICP备2021029338号-2