diff --git a/iShot_2024-08-26_15.18.21.png b/iShot_2024-08-26_15.18.21.png new file mode 100644 index 0000000..e9cdd66 Binary files /dev/null and b/iShot_2024-08-26_15.18.21.png differ diff --git a/东北大学秦皇岛分校_白塔岭143队_百度智慧交通.md b/东北大学秦皇岛分校_白塔岭143队_百度智慧交通.md index 6162fa3..caf4411 100644 --- a/东北大学秦皇岛分校_白塔岭143队_百度智慧交通.md +++ b/东北大学秦皇岛分校_白塔岭143队_百度智慧交通.md @@ -99,12 +99,14 @@ x 轴机构安装在一水平放置的微型导轨上,使用齿轮齿条进行 在程序实际运行中,我们发现当推理开启时,一个模型的进程需要占用 2G 左右的内存,即使是在代码中开启了内存优化,并且指定大小,实际占用并没有明显区别。当开启多个推理进程时,会导致内存占满,使得某些进程被 kill 掉。由于规则限制最大只能使用 8G 内存的 nano 板卡,所以挂载了一个较大的 swap 分区,使用磁盘缓存保证不会出现物理内存占用过高的情况,实际测试下,未见明显的性能影响。 -此外,为了保证开机自启的效果,我们构建了一个守护进程,使用 systemctl 管理。 +此外,为了保证开机自启的效果,我们构建了一个守护进程,使用 systemctl 管理我们的人机交互程序。 ### 上位机程序总体设计 为了保证程序的高效运行,上位机程序总体采用“生产者-消费者”模型,所有进程由守护进程管理,首先由图像采集进程采集图像并储存在缓冲区中;推理进程从缓冲区获取图像,推理完成后将推理结果储存;控制线程需要推理结果时,向推理服务器请求暂存的推理结果即可,所有进程间请求均使用 zmq 的 “请求-应答” 模式。通过上述的结构模式,可以保证获取数据最新且请求速度较快。 +![](/Users/snow/Desktop/百度智慧交通/TechDoc-BC2024/无标题-2024-08-26-1601.png) + ### 执行机构接口程序设计 执行机构接口作为 python 模块导入控制进程的程序中,本体基于 C 编译成动态链接库,然后通过 cython 构建成 python 模块。 @@ -113,15 +115,247 @@ x 轴机构安装在一水平放置的微型导轨上,使用齿轮齿条进行 ### 图像采集服务器程序设计 -图像采集服务器程序基于 C/C++ 编写,是一个独立的进程。该进程使用 opencv 读取摄像头图像,每个摄像头对象构造一个采集和应答线程,保证获取和响应的图像最新。 +图像采集服务器程序基于 C/C++ 编写,是一个独立的进程。该进程使用 opencv 读取摄像头图像,每个摄像头对象构造一个采集和应答线程,保证获取和响应的图像最新。使用了多语言支持的zeromq消息传递库建立一个请求-响应模型的 socket 服务器。相关代码如下: + +```c++ +cap = new cv::VideoCapture(index, cv::CAP_V4L2); +sleep(2); +cap->set(cv::CAP_PROP_FRAME_WIDTH, width); +cap->set(cv::CAP_PROP_FRAME_HEIGHT, height); +cap->set(cv::CAP_PROP_FPS, fps); + +context = new zmq::context_t(1); +socket = new zmq::socket_t(*context, ZMQ_REP); +char zmq_bind_port[10] = {0}; +sprintf(zmq_bind_port, "%d", port); +strcat(zmq_bind_addr, zmq_bind_port); +log_info("设置 %d zmq 地址 %s", index, zmq_bind_addr); +socket->bind(zmq_bind_addr); +``` + + ### 推理服务器程序设计 +在备赛过程中,我们注意到在小车通过岔路口时需要使用目标检测检测前方的转向牌从而确定下一步向哪一方向前进,同时巡线模型还需要不断请求前向摄像头以获取转向分量数据,为了解决这种不同的深度模型需要请求不同的图像源的问题,我们设计了推理服务器层。 + +![](无标题-2024-08-26-1600.png) + +以lane_infer巡线推理 server 为例,相关代码如下: + +```python +while True: + camera_socket.send_string("") + message = camera_socket.recv() + np_array = np.frombuffer(message, dtype=np.uint8) + frame = cv2.imdecode(np_array, cv2.IMREAD_COLOR) + frame = cv2.cvtColor(frame, cv2.COLOR_RGB2BGR) + result = predictor.infer(frame) + with lock: + response['data'] = result +``` + +```python +# 处理 server 响应数据 +def server_resp(lane_infer_port): + global response + logger.info("lane server thread init success") + + context = zmq.Context() + socket = context.socket(zmq.REP) + socket.bind(f"tcp://*:{lane_infer_port}") + logger.info("lane infer server init success") + while True: + message = socket.recv_string() + with lock: + socket.send_pyobj(response) +``` + +对于yolo_infer目标检测server,有一个切换摄像头源的过程,相关代码如下: + +```python +def server_resp(yolo_infer_port): + logger.info("yolo server thread init success") + global response + global src_camera_id + + context = zmq.Context() + socket = context.socket(zmq.REP) + socket.bind(f"tcp://*:{yolo_infer_port}") + logger.info("yolo infer server init success") + while not exit_event.is_set(): + try: + message = socket.recv_string() + if message != '': + with lock1: + logger.error(message) + src_camera_id = int(message) + logger.info("switch camera") + socket.send_pyobj(response) + else: + with lock2: + socket.send_pyobj(response) + response['data'] = np.array([]) + except zmq.Again: + time.sleep(0.01) + + socket.close() + context.term() + +while not exit_event.is_set(): + with lock1: + try: + if src_camera_id == 1: + camera1_socket.send_string("") + message = camera1_socket.recv() + else: + camera2_socket.send_string("") + message = camera2_socket.recv() + np_array = np.frombuffer(message, dtype=np.uint8) + with lock3: + frame = cv2.imdecode(np_array, cv2.IMREAD_COLOR) + start = True + except: + time.sleep(0.01) +``` + +模型推理,我们使用原生 PaddleInference,以目标检测为例,官方的 PaddleDection 套件带有许多冗余代码,降低执行效率,所以我们自己实现预处理-推理等过程。 + +```python +import paddle.inference as paddle_infer +import numpy as np +import cv2 +class Yolo_model_infer: + def __init__(self, model_dir="./ppyoloe_plus_crn_t_auxhead_320_300e_coco", target_size=[320, 320]): + # 初始化 paddle 推理 + self.model_dir = model_dir + self.config = paddle_infer.Config(model_dir + "/model.pdmodel", model_dir + "/model.pdiparams") + self.config.disable_glog_info() + self.config.enable_use_gpu(500, 0) + self.config.enable_memory_optim() + self.config.switch_ir_optim() + self.config.switch_use_feed_fetch_ops(False) + self.predictor = paddle_infer.create_predictor(self.config) + self.input_names = self.predictor.get_input_names() + self.input_handle = self.predictor.get_input_handle(self.input_names[0]) + self.input_handle1 = self.predictor.get_input_handle(self.input_names[1]) + self.output_names = self.predictor.get_output_names() + self.output_handle = self.predictor.get_output_handle(self.output_names[0]) + + self.target_size = target_size + origin_shape = (240, 320) + resize_h, resize_w = self.target_size + self.im_scale_y = resize_h / float(origin_shape[0]) + self.im_scale_x = resize_w / float(origin_shape[1]) + self.scale_info = np.array([[self.im_scale_y, self.im_scale_x]]).astype('float32') + def infer(self,src) -> np.ndarray: + image = self.preprocess(src) + self.input_handle.copy_from_cpu(image) + self.input_handle1.copy_from_cpu(self.scale_info) + self.predictor.run() + results = self.output_handle.copy_to_cpu() + return results + def preprocess(self,src): + # resize + # keep_ratio=0 + img = cv2.resize( + src, + None, + None, + fx=self.im_scale_x, + fy=self.im_scale_y, + interpolation=2) + # NormalizeImage + img = img.astype(np.float32, copy=False) + scale = 1.0 / 255.0 + img *= scale + # Permute + img = img.transpose((2, 0, 1)) + img = np.array((img, )) + # .astype('float32') + return img + +``` + ### 赛道线回归模型概述 +官方采用的方案是采集摄像头第一视角+遥控器数据来实现深度巡线,但实际上模型很难通过图像数据学习到遥控器数据的特征,并且官方采用的模型结构过于简单:只有简单的卷积层、池化层,面对复杂的光线条件模型的泛化能力较差。我们的上位机选用Jetson Orin Nano,内存和 GPU 推理能力都很强,因此不需要过于担心模型参数太大的问题,所以应当采用模型参数更大和结构更加先进的网络,面对不同的光线环境才能有较好的效果。 + + + +我们设计了一个网络,输入的图片经过特征提取层和全连接层后输出两个值:跟踪点的横纵坐标,回归出小车需要跟踪的赛道中点的 [x, y]坐标。因为中点坐标和图像数据有着强相关的特征,相比遥控器数据,更加容易被模型学习到这个特征。并且使用 paddlepaddle,可以非常方便的使用很多性能更好的 backbone。 + +```python +import paddle.vision.models as models +feature_extractor = models.resnet18(pretrained=True,num_classes=0) +feature_extractor = models.resnet34(pretrained=True,num_classes=0) +feature_extractor = models.mobilenet_v3_large(pretrained=True,num_classes=0) +``` + +我们使用性能更好的模型的特征提取层作为我们网络的 backbone,并且通过 paddle 可以自动加载预训练参数,在训练网络时可以加快收敛。 + +数据集的制作过程比较复杂,首先需要实现遥控小车的功能,同时打开摄像头保存每一帧的图片。利用保存的图片和我们实现的打标软件标注赛道跟踪点。 + +![](iShot_2024-08-26_15.18.21.png) + +导出的 json 格式如下所示[{"img_path": "200.jpg", "state": [126, 191]}, {"img_path": "201.jpg", "state": [128, 191]}] + +经过多次尝试不同的特征提取层以及不同的超参数,最后选择mobilenet_v3_large作为特征提取层,在模型参数量和模型性能上取得最平衡的效果。 + ### 任务主程序设计 任务主程序将每个任务封装成对象,根据实际需求放入队列。程序执行时,任务对象依次出队。任务的执行按照 “搜寻-执行-后处理” 的方式运行,当执行某一任务时,先循环搜寻任务标志,待搜寻到可以进入任务的条件后,进入任务执行函数,函数内执行校准、夹持、伸展等任务。执行完成后,进入后处理阶段,该阶段可以设置下一任务的相关参数,并将执行机构运动到下一任务的预备位置。如果该任务不被开启,则执行一个任务不开启时才调用的函数,使执行机构运动到中立位置,保证下一任务开启时不会发生冲撞。 -### 守护和交互程序设计 +### 交互程序设计 + +为了满足日常调试的远程开启、关闭和日志实时查看以及正式比赛时的自动启动等需求,我们基于 python flask 、vue 和 element ui 开发了人机交互程序,功能包括推理服务器的日志查看、开启和关闭以及任务程序的日志查看、开启和关闭等功能。 + +推理服务器和任务程序的开启和关闭通过管理进程实现,相关代码如下: + +```python +elif data['type'] == 'operate_task': + # 任务函数 + if data['content'] == 'run': + task_run_flag.set() + # 开启 task 进程前先关闭所有历史进程 + if task_process != None: + task_process.terminate() + time_record = time.perf_counter() + task_process = Process(target=main_func, args=(task_run_flag,queue)) + task_process.start() + logger.info("开启 task") + elif data['content'] == 'stop': + task_run_flag.clear() + if task_process != None: + task_process.terminate() + logger.info(f"任务结束 用时{time.perf_counter() - time_record}s") + logger.info("关闭 task") + elif data['content'] == 'restart': + pass +``` + +我们通过重定向loguru日志库,并且通过 WebSocket 实现多人同时查看的实时日志系统,不同进程之间使用内存安全的共享队列传输日志信息,相关代码如下: + +```python +class Handler(logging.Handler): + def emit(self, record): + log_entry = self.format(record) + _queue.put({'level': record.levelname.lower(), 'content': log_entry}) +logger.remove() +handler = Handler() +logger.add(handler, format="{time:MM-DD HH:mm:ss} {message}", level="DEBUG") +``` + +```python +def thread_function(): + global queue + while True: + try: + log = queue.get() + socketio.emit('log', log) + except multiprocessing.Queue.Empty: + pass +``` + + diff --git a/无标题-2024-08-26-1600.png b/无标题-2024-08-26-1600.png new file mode 100644 index 0000000..3a11ace Binary files /dev/null and b/无标题-2024-08-26-1600.png differ diff --git a/无标题-2024-08-26-1601.png b/无标题-2024-08-26-1601.png new file mode 100644 index 0000000..71ae99e Binary files /dev/null and b/无标题-2024-08-26-1601.png differ