98%准确率的仓库视觉核验是怎么做到的
仓库盘点的痛点,做仓储的都懂:人工盘点慢、漏盘错盘、临时缺人。RFID方案好是好,但改造托盘的成本让很多企业望而却步。
我们的TrayVision系统用纯视觉方案实现了98%的盘点准确率,不改造托盘、不贴标签。这篇文章聊聊底层的技术思路。
为什么选择"几何轮廓比对"
视觉盘点有两种主流路线:
🧠 深度学习路线
训练模型识别托盘、货物,通用性强,但需要大量标注数据,换品类要重新训练,部署门槛高。
📐 几何轮廓路线
提取托盘边缘和货物轮廓特征,与基准模板比对,不需要训练,换品类只需更新模板。
我们选择后者,核心原因是:工厂环境品类多、变化快,深度学习的泛化成本太高。几何轮廓方案虽然"笨"一点,但足够稳定,部署也更简单。
算法拆解:从拍照到出结果
TrayVision 核心流程
- 图像采集:工业相机(海康130万/200万像素)在固定工位拍照,触发方式支持光电开关/红外对射/软件定时
- ROI裁剪:只保留托盘平面区域,排除背景干扰
- 轮廓提取:Canny边缘检测 + 轮廓追踪,提取几何特征
- 特征比对:计算当前轮廓与入库时基准轮廓的相似度(Hu矩+形状因子)
- 阈值判断:相似度≥阈值→核验通过;低于阈值→触发异常告警
关键参数调优
相似度阈值设多少?
我们测试下来,0.85是比较平衡的值。低于0.85大概率有问题,高于0.85基本可以判定正常。客户可以根据自己的容错要求微调。
光照变化怎么办?
工业相机的曝光参数是固定的,配合环形光源,把环境光的影响降到最低。实测白天/夜晚、晴天/阴天的差异在2%以内。
为什么能到98%
不是算法有多牛,而是场景收敛得好。TrayVision只做一件事:核验"这托货是不是入库时的那托货"。不做通用识别、不做跨品类检测,把问题域收敛到最小。
- 入库时拍一张照,存下轮廓模板
- 出库时再拍一张,和模板比对
- 差异大→告警,人工介入
这个闭环足够简单,所以足够可靠。
写在最后
视觉盘点的本质是用算法替代人眼。我们不追求"万能"的视觉系统,只追求在特定场景下比人更准、更稳定。如果你也在做仓储自动化,欢迎交流。