方法
边缘AI感应套件最初是为展示嵌入式视觉智能的强大功能而推出,以车辆和人员检测作为智能交通的典型应用案例。虽然初始演示聚焦于城市环境中行人、汽车、卡车、公交车和自行车的实时检测,但其底层边缘AI视觉技术具有高度通用性。这项技术的应用远不止于交通领域,在智能家居、智慧城市、空间占用监测及各类情景感知自动化系统中都具有广阔应用前景。
- 边缘AI感应平台探索套件利用STM32N6 MCU完全在设备端运行实时物体检测与计数模型。主要优势包括:
- 低延迟性能(通常低于200 ms)实现即时实时的库存可视
- 完全边缘处理,不依赖云服务器
- 经过训练的AI模型能在不同光照和摆放条件下检测多种商品,准确性更高
- 超低功耗设计,支持持续监测且不会对能源预算造成压力
- 无需云服务器、经常性数据成本或额外的标签基础设施,从而降低运营成本
应用概述
500万像素摄像头捕获高分辨率图像,由图像信号处理 (ISP) 子系统处理。降采样后的256×256帧被发送到神经处理单元(Neural-ART加速器)可在城市环境内实时对人员、小汽车、卡车、巴士以及自行车进行检测。边界框经过后处理,按类型统计水果数量并检测交互。事件由事件控制器管理并带时间戳记录。同时,ISP提供960×960帧通过H.264编码器进行视频编码,整个过程通过USB或Wi-Fi传输。物联网控制器处理遥测数据以实现远程监控。
传感器
本模型使用的传感器是Sony IMX335 5MP RGB:
- 输入:2592x1944
- IPS调整大小:960x960
- FPS:15
E2ip将提供配备各类传感器的扩展板以满足特定应用需求。
e2ip和Siana Systems支持快速原型开发,可在量产部署前完成方案现场测试。得益于与STM32N6及意法半导体生态系统的无缝集成——从Model Zoo到支持自定义模型部署的STM32Cube.AI——边缘AI感应套件大幅简化了边缘AI应用的整个开发流程。
数据集和模型
数据集:
- Coco80
模型:
- YOLOv8-nano。
- 输入尺寸:256 x 256 x 3
- 可训练参数:3,031,321
- MACC:6.73E+08
结果
推理时间:41 ms
每秒推理次数:24
作者:E2IP Technologies & Siana Systems | 最后更新时间:2025年6月
使用STM32Cube.AI进行优化
X-CUBE-AI是一个免费的STM32Cube扩展包,可帮助开发人员将预训练的AI算法(例如神经网络和机器学习模型)自动转换为经过优化的STM32 C代码。
最适用于STM32N6系列
STM32系列32位微控制器基于Arm Cortex®-M处理器,旨在为MCU用户提供新的开发自由度。该系列产品结合了高性能、实时功能、数字信号处理、低功耗/低电压操作和出色的连接性,同时保持高度集成和易于开发的特点。