希望论坛支持 一下markdown,我的很多程序readme都是markdown写的。 最近ST弄了个创意大赛,我参加了AI组,今天特意分享了我的测试流程。markdown写的,所以凑合看。希望各位参加比赛的顺利完成,我在疫区所以官方H7-DISCO板子收不到,等,有什么问题的话论坛私信我不能及时回复,可以在我别的帖子找我的联系方式。 测试记录,不详细描述怎么做的,一是我觉得手把手教别人怎么做,简直是害了别人,特别是学生,二是深度学习确实所需要知识点比较多,没办法展开。 板子玩的开心就行!!!& M9 Z T: {% r; Q # cifar10 在 nucleo STM32F767 平台的 测试 ## 软件配置, P9 X, y% c- |; K! [( @ ### win106 R& E/ w/ D0 _3 [/ K8 p3 n; ` 1. cubeMX 5.6.05 g7 ]% b3 M1 t0 j 2. MDK 5.29a& o4 Q f) d% L7 m 3. cubemx扩展包--cube.AI 5.0.0 ### ubuntu16.04 & J4 g" F/ m5 v" r 1. tensorflow 2.1.0 (内含keras) 2. python 2.7 (ubuntu16.04 自带) 3. cifar10 训练数据 ## 硬件配置 1. nucleo F767 2. 自制扩展板 R1 s: ]" V& S3 k# w$ } 3. SD卡 4. 扩展板 连接 ST-Link RX TX 引脚的杜邦线 ## 测试步骤 * 在 ubuntu16.04 的操作不叙述( y1 r G4 ~' V * 直接将转换的模型(模型约4MB),利用cubemx转换,暂称为STM32_AI_Model。 * 模型参数存储在W25Q128中,系统初始化时,QSPI进行内存映射,方便STM32_AI_Model读取模型参数。 * SD卡中读取29张测试图片均来自互联网,利用bmpconvST转换并缩小至32*32分辨率。 * RGB每个通道需要进行预处理,即R/255 G/255 B/255 * 图片在STM32_AI_Model的模型输入数据组织应为:' ]0 Y2 W3 c9 `5 |, V# D1 s2 X | R1 | G1 | B1 | R2 | G2 | B2 | ... | * 循环从SD卡读取BMPt图片,显示在LTCD驱动的屏幕上,经过STM32_AI_Model推理后的结果,串口打印出来。7 H. p, A$ R; D3 b 推理结果的数据组织为:1 @$ f8 }5 F4 b( i | C1 | C2 | C3 | C4 | ... | C10 |,每一哥数据代表对应种类的可能性。, K) A. `* @) P2 n6 m4 A# z % p% u) J# ^ Z; }! y* _5 E * 可能性最大的即为推理最有可能的种类,cifar10即十种。 7 ^6 W# {# M' F2 ` ## 测试结果' [( T" c# o6 j8 f' G ### 串口打印:( Z: O2 h& `2 J9 S0 m% B4 ] sd_card_mount_ok- j& N/ G0 \- W+ p2 X0 J4 I airplane: 1.000 *4 a9 j% Q0 [- R" q7 g+ _ airplane: 1.000 *1 b b9 I6 w, l* b6 D# M) z automobile: 0.998 *4 D; f- G3 y2 N automobile: 1.000 *# V' O1 O! X, | n airplane: 1.000 x dog: 0.584 x8 e/ d2 v0 w% L2 q( @# a bird: 1.000 * dog: 0.999 x dog: 0.874 x 6 h' v" F* [1 V$ k frog: 1.000 x cat: 0.993 * dog: 0.764 x deer: 1.000 * airplane: 0.906 x. }/ {3 L( r' v8 i" W' M8 }: O dog: 1.000 * dog: 0.999 * deer: 0.810 x3 E8 D* Z( K$ v# r' D7 T bird: 1.000 x' r7 M6 [6 G& `' y' g) k; Q! Q frog: 0.688 * frog: 1.000 * horse: 1.000 * horse: 1.000 * horse: 1.000 *7 e) x( P- F, N! V4 g4 r( l ship: 0.664 * ship: 1.000 * ship: 1.000 * truck: 1.000 * ship: 0.658 x truck: 1.000 * ![LCD截屏图片](./scr_print.png) ### 测试准确率" G. k4 v$ [4 U* | & l4 ~9 G1 C, k4 b3 J0 M" j * 19/29*100%=65.5% ### 测试总结6 i8 I: |$ t2 F: D0 U * 图片中比较常见的东西模型很容易辨认,图片第二行第三个是青蛙头上有一个蜗牛,辨认错了,还有四只猫居然只对了一只,其余的比较正常,毕竟图片分辨率不高。2 M4 G0 g" {5 j" P3 a" a' I * 由于我是用的深度学习模型是cifar10测试准确率比较高的,所以模型比较大,计算复杂,STM32F7推理时间约四五秒。# p2 s+ l- B: T9 m & u2 ~# \* C7 g3 J, h4 c% _ 8 }( H0 V& q) A: [! E2 x% E; e0 x, z |
破解边缘AI硬件与软件挑战,意法半导体解读三大创新要点
意法半导体助力企业产品智能化,加快边缘人工智能应用
哪些传感器嵌入式功能适用于我的应用?
线下实训 | ST端侧人工智能之视觉检测
意法半导体嵌入式 AI 解决方案增加简化机器学习开发的高级功能
【Wio Lite AI视觉开发套件】+摄像头图像采集
全站首个NanoEdge_AI试用(dogs)
线下实训 | ST端侧人工智能之计算机视觉实践课程
基于STM32的机器学习工具 - NanoEdge AI Studio
直播明日开启 | 意法半导体边缘人工智能解析
@楼主,只是想告知一下Markdown的编辑器已经就位,欢迎楼主输出更多关于AI方面的见解
两年了,很少逛论坛了
哈哈, 欢迎多回来逛逛,提提宝贵意见; b7 N5 r2 F+ Y3 m3 e