Loading spinner

X-CUBE-AI

批量生产
Design Win

面向STM32CubeMX的AI扩展包

获取软件 下载数据摘要

产品概述

主要优势

进行NN和ML模型优化

导入您自己的神经网络模型,选择优化选项,并生成经过优化的C代码。

进行NN和ML模型性能分析

生成报告,从而详细说明整个网络及其各层的NN内存需求和推理时间。

部分意法半导体边缘AI套件

一系列免费的在线工具、案例研究和资源,旨在帮助工程师解决其在边缘AI开发的各个阶段遇到的问题。

前往意法半导体边缘AI套件

描述

X-CUBE-AI是一个STM32Cube扩展包,用于评估、优化和编译适用于STM32微控制器和Neural-ART加速器的边缘AI模型。针对Neural-ART加速器NPU优化NN模型时,该工具会生成微代码以尽可能将AI操作映射至NPU执行,并在必要时回退至CPU处理。这种调度在运算符级别执行,以最大限度提升AI硬件加速性能。X-CUBE-AI是STM32Cube.AI生态系统的一部分,可自动将预训练的人工智能算法转换为C代码,从而扩展了STM32CubeMX的功能。该工具还可将生成的优化库集成到用户的项目中。

在STM32CubeMX工具(版本5.4.0或更新的版本)中进行下载即可使用X-CUBE-AI,如“面向人工智能 (AI) (UM2526) 的X-CUBE-AI扩展包入门”用户手册中所述。

X-CUBE-AI扩展包还提供了多种验证桌面PC和STM32上的人工智能算法的方法。凭借X-CUBE-AI,用户还可以测量STM32器件的性能,且无需手动编写任何专用的C代码。

意法半导体边缘AI套件

X-CUBE-AI是意法半导体边缘AI套件的组成部分,该套件整合了多种软件工具,旨在简化嵌入式AI应用的开发与部署。该综合套件支持从数据收集到在硬件最终部署的整个机器学习算法和神经网络模型的优化和部署流程,简化了跨学科领域的专业人士的工作流程。

意法半导体边缘AI套件支持意法半导体的多种产品,包括STM32微控制器和微处理器、Neural-ART加速器、Stellar微控制器以及智能传感器。

作为推动边缘AI技术普及化的战略举措,意法半导体边缘AI套件为希望在嵌入式系统中高效利用AI的开发人员提供了强大的资源。

  • 所有功能

    • 从预训练神经网络和经典机器学习 (ML) 模型生成STM32优化库
    • 支持意法半导体Neural-ART加速器神经处理单元 (NPU),用于硬件加速AI/ML模型
    • 原生支持多种深度学习框架,如Keras和TensorFlow™ Lite,同时兼容所有可导出为ONNX标准格式的框架,包括PyTorch™、MATLAB®
    • 支持通过ONNX使用多种内置的scikit-learn模型,如孤立森林、支持向量机 (SVM) 和K-means等
    • 支持32位浮点和8位量化神经网络格式(TensorFlow™ Lite和ONNX张量QDQ)
    • 支持来自QKeras和Larq的深度量化神经网络(低至1位)
    • 可通过创建与应用代码分离的模型二进制代码,在产品生命周期内实现独立模型更新的可迁移选项
    • 允许将权重存储在外部Flash存储器和外部RAM的激活缓冲区中,从而使用更大的网络
    • 通过STM32Cube集成在不同的STM32微控制器系列之间实现轻松移植
    • 借助TensorFlow™ Lite神经网络,使用STM32Cube.AI运行时或面向微控制器的TensorFlow™ Lite运行时来生成代码
    • 免费易用的许可条款

获取软件

意法半导体建议您使用最新版本的软件。
Artificial Intelligence overview