赞
踩
首先,我使用STM 32单片机有2 年左右的时间了,但是openmv却不足一个月的时间,由于近几天问我关于两者之间如何进行通讯问题的人比较多,所以特地写这样一篇文章进行讲解。如果有什么讲的不对的地方,还请各位读者指正。
在开始的时候,我们得必须明白一件事,我们要干什么。我们先来梳理一下任务。
openmv与单片机通讯,大多数时候都不是只发送一两个字符或数字,一般都需要进行大量数据传输,将识别到的图像,位置,颜色信息通过转换为数字的方式发送给单片机。既然是很多数字,那么如何才能使数字能准确的传输而不发生错误和“错位”呢?我想,将数据以帧格式进行发送,是一种非常不错的选择。简单的说一下帧格式备用:
百度的解释太过于复杂,一般 我们常用到的帧格式为:
帧头+帧头+数据类型+数据量+数据....+校验和+结束标志。就像这样:
5A 5A 01 08 FF DD 00 1B 40 12 00 00 54 C0 (随意编的,不一定对)。需要说明的是,一帧数据不一定需要这里面的所以东西,最简单的一帧可以只有帧头和数据构成,就变成了这样:5A 5A FF DD 00 1B 40 12 00 00。数据总不能省略吧。帧头也是不能省略的,如果没有帧头,那怎么能在一大串连续的数据中分辨出数据的开始呢,而且经验告诉我,用两个Byte的帧头很有必要的。接下来我就以最简单的方式来讲解如何发送一帧数据给单片机,大家后期可以根据自己的需求在添加上需要的帧段。
openmv如何配置串口,并且利用串口助手发送单个字符串给电脑相信大家都已经实现,网上教程也很多,这里就不再讲解。
openmv的一个while(true)循环,一般产生一帧数据
就像这样:这是一个颜色识别并输出色块中心点坐标的程序
- # Untitled - By: 小柱 - 周三 4月 17 2019
-
- import sensor, image, time
- from pyb import UART
- import json
-
- threshold = [(37, 67, 45, 84, 4, 68), #red
- (34, 67, -55, -22, 2, 41), #green
- (25, 67, -37, 26, -63, -26)] #blue
- #设置红色的阈值,括号里面的数值分别是L A B 的最大值和最小值(minL, maxL, minA,
- # maxA, minB, maxB),LAB的值在图像左侧三个坐标图中选取。如果是灰度图,则只需
- #设置(min, max)两个数字即可。
-
- sensor.reset()
- sensor.set_pixformat(sensor.RGB565)
- sensor.set_framesize(sensor.QVGA)
- sensor.skip_frames(time = 2000 )
- sensor.set_auto_whitebal(False)
- #关闭白平衡。白平衡是默认开启的,在颜色识别中,需要关闭白平衡。
-
- clock = time.clock()
-
- uart = UART(3, 115200)
-
- uart.init(115200, bits=8, parity=None, stop=1) #8位数据位,无校验位,1位停止位、
-
- while(True):
- clock.tick()
- img = sensor.snapshot()
- blob = img.find_blobs(threshold, area_threshold=300)
- if blob: #如果找到了目标颜色
- # print(blob)
- # uart.write("B3 B3 ") #一帧数据的帧头
- FH = bytearray([0xb3,0xb3])
- uart.write(FH)
- for b in blob:
- #迭代找到的目标颜色区域
- img.draw_rectangle(b[0:4]) # rect
- img.draw_cross(b[5], b[6]) # cx, cy
- x = b.cx()
- y = b.cy()
-
- print(x, y, end = ',')
-
- data = bytearray([x,y])
- uart.write(data)
- #uart.write("%x %x \r"%(x,y)) #以16进制的格式输出,(16进制不能这样输出啊,浪费了我两天的时间)
-
- #img.draw_circle((50, 50, 30), color = (250, 0, 0))
-
-
- print(clock.fps())
我们主要看while(true)。其中,uart.write(FH)输出的是帧头,uart.write(data)输出的是色块坐标位置信息。
简单分析一下,while(true)是一个大循环,通常情况下,一个大循环才能完成一轮识别,产生一帧数据(这当然取决于你的代码怎么写)。所以会在识别到摄像头识别到颜色(if blob)后首先发送出帧头 0xb3 ,0xb3。然后进入for循环(for b in blob)当for循环完的时候,一帧数据中完整的数据量就产生了。这样就在openmv当中产生了完整的一帧数据,利用串口助手可以观察到
这就是在串口助手中看到的数据内容
特别注意:!!!!
一帧数据的每一个Byte必须要以字节的显示发送(data = bytearray([x,y])),而不能是用16进制发送(uart.write("%x %x \r"%(x,y))),他们两个函数在串口助手里面看到的内容是一样的(大小写的区别),但是后者是无法让单片机接收到的。如果采用后者发送方式,就会出现openmv和单片机分别于PC通讯没问题,但是二者之间却无法通讯的问题,我也是在这里浪费了很多的时间,希望读者特别小心这个问题。
再一个,以上程序数据不一定是6个!!!,当只识别到一个或者两个色块时,就只产生两个或者四个数据!!!!
现在openmv能产生一帧有效数据了。STM32该如何接收到呢?由于stm32串口接收是以中断的方式。
- void USART2_IRQHandler(void)
- {
-
- static uint8_t rebuf[8]={0},i=0;
-
- if(USART_GetITStatus(USART2,USART_IT_RXNE) != RESET)
- {
- rebuf[i++]=USART_ReceiveData(USART2);
- if(rebuf[0]!=0xb3)//帧头
- i=0;
- if((i==2)&&(rebuf[1]!=0xb3))//判断帧头
- i=0;
- if(i>=7)//代表一帧数据完毕
- {
- memcpy(OpenMV_Rx_BUF,rebuf,i);
-
- i = 0;
-
- }
- USART_ClearFlag(USART2,USART_FLAG_RXNE);
- }
- }
其中OpenMV_Rx_BUF是一个外部变量用于保存从openmv接收到的数据,中断子程序中,每当进入中断,会首先判断帧头,如果不是 帧头,会直接丢弃,直到等到帧头的到来。
值得注意的是,中断子程序每进入一次,只会接收一个Byte的数据。也就是说接收完一帧数据需要进入8次中断才行。这一点的理解也比较重要,需要多多体会才行。
当数据保存在OpenMV_Rx_BUF[]后,就可以调用来使用了(注意数据不一定是完整的)使用时最好加以判断。
- void Color_Blob_Show(void)
- {
- OLED_ShowNum(0,6,OpenMV_Rx_BUF[0],3,12);
-
- OLED_ShowNum(20,6,OpenMV_Rx_BUF[1],3,12);
- OLED_ShowNum(40,6,OpenMV_Rx_BUF[2],3,12);
- OLED_ShowNum(60,6,OpenMV_Rx_BUF[3],3,12);
-
- }
显示图像
这样,一帧数据的发送和接受就完成了。
最后我要特别感谢CSDN,给了我一个学习的平台,在这里我学习到了很多知识,解决了我很多问题,感谢各位前辈的无私奉献。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。