600字范文,内容丰富有趣,生活中的好帮手!
600字范文 > 车流量统计(3)

车流量统计(3)

时间:2023-09-06 22:15:37

相关推荐

车流量统计(3)

多目标追踪

实现一个多目标跟踪器,管理多个卡尔曼滤波器对象,主要包括以下内容:

初始化:最大检测数,目标未被检测的最大帧数

目标跟踪结果的更新,即跟踪成功和失败的目标的更新。

def __init__(self,max_age=1,min_hit=3)#最大检测数:目标未被检测到的帧数,超过之后会被删除self.max_age=max_age#目标命中的最小次数,小于该次数不返回self.min_hits=min_hits#卡尔曼跟踪器self.trackers=[]#帧计数self.frame_count=0

目标跟踪结果的更新

该方法实现了SORT算法,输入时当前帧中所有物体检测框的几何,包括score,输出是当前帧标的跟踪框集合,包括目标的跟踪框的id要求即使检测框为空,也必须对每一帧调用此方法,返回一个列类似的数组输出数组,最后一列是目标对象的id,返回的目标对象数量可能与检测框不同

def update(self,dets):self.frame_count+=1#在当前帧逐个预测轨迹位置,记录状态异常的跟踪器的索引#根据当前所有的卡尔曼跟踪器(即上一帧中跟踪器的目标个数)创建二维数组,行号为卡尔曼滤波器的标识索引,列向量为跟踪框的位置和IDtrks=np.zeros(len(self.trackers,5))#存储跟踪器的预测to_del=[]#存储要删除的目标框ret=[]#存储要返回的追踪目标框#循环遍历卡尔曼滤波跟踪器列表for t,trk in enumerate(trks):#使用卡尔曼滤波跟踪器t产生对应目标的跟踪框pos=self.trackers[t].predict()[0]trk[:]=[pos[0],pos[1],pos[2],pos[3],0]if np.any(np.isnan(pos)):to_del.append(t)#trks中存储了上一帧中跟踪的目标并且在当前帧中的预测跟踪框trks=press_rows(np.ma.masked_invalid(trks))#逆向删除异常跟踪器防止破坏索引for t in reversed(to_del):self.trackers.pop(t)matched, unmatched_dets, unmatched_trks = associate_detections_to_trackers(dets, trks)#将跟踪成功的目标框更新到对应的卡尔曼滤波器中for t, trk in enumerate(self.trackers):if t not in unmatched_trks:d = matched[np.where(matched[:, 1] == t)[0], 0]trk.update(dets[d, :][0])# 为新增的目标创建新的卡尔曼滤波器对象进行跟踪for i in unmatched_dets:trk = KalmanBoxTracker(dets[i, :])self.trackers.append(trk)# 自后向前遍历,仅返回在当前帧出现且命中周期大于self.min_hits(除非跟踪刚开始)的跟踪结果;如果未命中时间大于self.max_age则删除跟踪器。i = len(self.trackers)for trk in reversed(self.trackers):# 返回当前边界框的估计值d = trk.get_state()[0]# 跟踪成功目标的box与id放入ret列表中if (trk.time_since_update < 1) and (trk.hit_streak >= self.min_hits or self.frame_count <= self.min_hits):ret.append(np.concatenate((d, [trk.id + 1])).reshape(1, -1))i -= 1if trk.time_since_update > self.max_age:self.trackers.pop(i)# 返回当前画面中所有目标的box与id,以二维矩阵形式返回if len(ret) > 0:return np.concatenate(ret)return np.empty((0, 5))

yoloV3模型

改进:利用多尺度特征进行目标检测,先验框更丰富,调整了网络结构,对象分类使用logistic代替了softmax,更适用于多标签分类任务。

基于yoloV3的目标检测

基于opencv的利用yolov3进行目标检测,只是利用训练好的模型进行目标检测。

基于opencv的DNN模块:

加载已训练好的yolov3模型及其权重参数

将要处理的图像转换为输入到模型的blobs

利用模型对目标进行检测

遍历检测结果

应用非极大值抑制

绘制最终检测结果,并存入到ndarray,供目标追踪使用

#加载可以识别物体的名称,将其存放在LABELS中,一共有80种,在这里我们使用carlabelsPath='./yolo-coco/coco.names'LAEBLS=open(labelsPath).read().strip().split("\n")#设置随机数种子,生成多种不同的颜色,当一个画面中有多个目标时,使用不同颜色的框将其框起来np.random.seed(42)COLORS=np.random.randint(0,255,size=(200,3),dtype='unit8')#加载已经训练好的yolov3网络的权重和相应的配置数据weightsPath='./yolo-coco/yolov3.weights'configPath='./yolo-coco/yolov3.cfg'#加载好数据之后,开始利用上述数据恢复yolo神经网络net=cv2.dnn.readNetFromDarknet(configPath,weightsPath)ln=net.getLayerNames()#获取输出层在网络中的索引位置,并以列表的形式:['yolo_82', 'yolo_94', 'yolo_106']ln = [ln[i[0] - 1] for i in net.getUnconnectedOutLayers()]

#读取图像frame=cv2.imread('./car.jpg')#视频的宽度和高度,即帧尺寸(W,H)=(None,None)if W is None or H is None:(H,W)=frame.shape[:2]#根据输入图像构造blob,利用OPenCV进行深度网络的计算时,一般将图像转换为blob形式,对图片进行预处理#包括缩放,减均值,通道交换等,还可以设置尺寸,一般设置为在进行网络训练时的图像的大小。blob=cv.dnn.blobFromImage(frame,1/255.0,(416,416),swapRB=True,crop=False)

利用模型对目标进行检测

net.setInput(blob)start=time.time()layerOutputs=net.forward(ln)

遍历检测结果,获得检测框

boxes=[] #用于存放识别物体的框的信息confidences=[] #表示识别目标时某种物体的可信度classIDs=[] #表示识别的目标归属哪一类for output in layerOutputs:#遍历某个输出层中的每个目标for detection in output:scores=detection[5:] #当前目标属于某一类别的概率classID=np.argmax(scores)#目标的类别confidence=scores[clssID] #得到目标属于该类别的置信度#只保留置信度大于0.3的边界框,若图片质量较差,可以将置信度调低一些if confidence>0.3:#将边界框的坐标还原至原图片匹配,YOLO返回的是边界框的中心坐标以及边界框的宽度和高度box=detection[0:4]*np.array([W,H,W,H])(centerX,centerY,width,height)=box.astype('int')x = int(centerX - (width / 2))y = int(centerY - (height / 2))boxes.append([x, y, int(width), int(height)])confidences.append(float(confidence))classIDs.append(classID)

非极大值抑制

idx=cv2.dnn.NMSBoxes(boxes,confidence,0.5,0.3)

最终检测结果,绘制并存入ndarray,供目标追踪使用

dets=[]if len(idx)>0:for i in idx.flatten():if LABELS[classIDs[i]] == "car":(x, y) = (boxes[i][0], boxes[i][1]) (w, h) = (boxes[i][2], boxes[i][3]) cv2.rectangle(frame, (x, y), (x+w, y+h), (0,255,0), 2) dets.append([x, y, x + w, y + h, confidences[i]])np.set_printoptions(formatter={'float': lambda x: "{0:0.3f}".format(x)})dets = np.asarray(dets)plt.imshow(frame[:,:,::-1])

SORT目标跟踪

dets=np.asarray(dets) #yolo检测到的检测框tracker = Sort()memory = {}tracks=tracker.update(dets)#跟踪框boxes=[]#置信度indexIDs=[]#前一帧跟踪结果previous=memory.copy()for track in tracks:boxes.append([track[0],track[1],track[2],track[3]])indexIDs.append(int(tracks[4]))memory[indexIDs[-1]]=boxes[-1]

未完。。。。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。