首页 游戏 软件 资讯 排行榜 专题
首页
AI
【车道线+自动驾驶】用Paddle高层API实现车道线转角回归模型+部署

【车道线+自动驾驶】用Paddle高层API实现车道线转角回归模型+部署

热心网友
55
转载
2025-07-25

用Paddle2.2高层API实现车道线打角回归预测模型+Paddle inference边缘设备GPU部署


应该是全网第一个用paddle2.0+高层api实现小车车道线预测回归模型的搭建、训练和部署全流程的项目啦,希望能帮助做小车和机器人的小伙伴快速实现小车的无人驾驶功能~

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

车道线打角回归预测模型也是每年的全国大学生智能汽车竞赛都会包含的基础任务之一,希望能作为一个baseline让大家快速学习起来。

数据采集的整体架构如下图所示:

【车道线+自动驾驶】用Paddle高层API实现车道线转角回归模型+部署 - 游乐网

智能小车上使用标准的广角摄像头作为视觉传感器,其基本参数如下表所示:

【车道线+自动驾驶】用Paddle高层API实现车道线转角回归模型+部署 - 游乐网

采集的数据已上传至AI Studio:车道线检测回归数据集

1、导入必要库

In [4]
import osimport cv2import iofrom tqdm import tqdmimport numpy as npimport matplotlib.pyplot as pltfrom PIL import Image as PilImageimport paddlefrom paddle.nn import functional as Fpaddle.__version__
登录后复制
'2.2.0'
登录后复制In [5]
!unzip -oq /home/aistudio/data/data46903/0728_carline.zip
登录后复制

2、数据集制作+数据预处理

数据采集

通过手柄遥控小车,小车实时记录当前图片和手柄的打角数据,从而得到数据集。


数据集信息

本数据集共13448张图像和对应的打角数据。

数据具体格式

图像 >——> 打角数据

每一张图像都会对应一个打角数据。 图像和打角数据分别保存在img和data.txt下,在dataset的建立过程中,我们只需要将图像和打角数据一一对应进行封装即可。

数据对应形式如图所示:

【车道线+自动驾驶】用Paddle高层API实现车道线转角回归模型+部署 - 游乐网

2.1、定义数据集处理变量

In [2]
img_folder_path = "data/img"dataset_path = "data"txt_path = "data/data.txt"IMAGE_SIZE = (224, 224)
登录后复制In [6]
# 检查数据集中图像和打角数据个数是否对应import os# 1、读取图像数据和角度数据angle_list = []f = open(txt_path)for txt in f.readlines():    txt.split("\n")    angle_num = int(txt)    angle_list.append(angle_num)img_list = []for img_path in tqdm(os.listdir(img_folder_path)):    img_path = os.path.join(img_folder_path, img_path)    img_list.append(img_path)# 2、数据归一化(如果过于发散,模型不容易收敛)# 这里我的打角数据大小为:900-2100,中间值为1500for i, angle in enumerate(angle_list):     angle = (angle-1500)/600    angle_list[i] = angletry:    os.remove(os.path.join(dataset_path, "train.txt"))    os.remove(os.path.join(dataset_path, "eval.txt"))except:    passtrain_txt = open(os.path.join(dataset_path, "train.txt"), "w")eval_txt = open(os.path.join(dataset_path, "eval.txt"), "w")n = 0for img_path, label in tqdm(zip(img_list, angle_list)):    n += 1    if n % 10 != 0:        train_txt.write(img_path+" "+str(label))        train_txt.write("\n")    else:        eval_txt.write(img_path+" "+str(label))        eval_txt.write("\n")train_txt.close()eval_txt.close()
登录后复制

2.3、定义数据集MyDataset


创建PaddlePaddle高层API—Dataloder可直接读入的数据集格式

In [7]
import randomimport iofrom paddle.io import Datasetfrom paddle.vision.transforms import transforms as Tfrom PIL import Image as PilImageimport numpy as npclass MyDataset(Dataset):    """    数据集定义    """    def __init__(self, mode, dataset_path):        """        构造函数        """        self.image_size = IMAGE_SIZE        self.mode = mode.lower()        self.dataset_path = dataset_path                assert self.mode in ['train', 'test', 'eval'], \            "mode should be 'train' or 'test' or 'eval', but got {}".format(self.mode)                self.train_images = []        self.label_list = []        with open(os.path.join(self.dataset_path, ('{}.txt'.format(self.mode))), 'r') as f:                        for line in tqdm(f.readlines()):                image, label = line.strip().split(' ')                                img = PilImage.open(image)                self.train_images.append(image)                self.label_list.append(label)            def _load_img(self, path, color_mode='rgb', transforms=[]):        """        统一的图像处理接口封装,用于规整图像大小和通道        """        with open(path, 'rb') as f:            img = PilImage.open(io.BytesIO(f.read()))            if color_mode == 'grayscale':                # if image is not already an 8-bit, 16-bit or 32-bit grayscale image                # convert it to an 8-bit grayscale image.                if img.mode not in ('L', 'I;16', 'I'):                    img = img.convert('L')            elif color_mode == 'rgba':                if img.mode != 'RGBA':                    img = img.convert('RGBA')            elif color_mode == 'rgb':                if img.mode != 'RGB':                    img = img.convert('RGB')            else:                raise ValueError('color_mode must be "grayscale", "rgb", or "rgba"')                        return T.Compose([                T.Resize(self.image_size)            ] + transforms)(img)    def __getitem__(self, idx):        """        返回 image, label        """        train_image = self._load_img(self.train_images[idx],                                      transforms=[                                         T.Transpose(),                                          T.Normalize(mean=[127.5], std=[127.5]) # 归一化处理,将0~255归一化到-1~1                                     ]) # 加载原始图像        label = self.label_list[idx] # 加载Label            # 返回image, label        train_image = np.array(train_image, dtype='float32')        label = np.array(label, dtype='float32')        return train_image, label            def __len__(self):        """        返回数据集总数        """        return len(self.train_images)# 定义训练集和验证集train_dataset = MyDataset(mode='train', dataset_path=dataset_path) # 训练数据集val_dataset = MyDataset(mode='eval', dataset_path=dataset_path) # 验证数据集
登录后复制
100%|██████████| 13448/13448 [00:01<00:00, 12012.05it/s]100%|██████████| 1494/1494 [00:00<00:00, 12004.41it/s]
登录后复制

2.4、查看数据集的具体格式,并展示一张图像和label的对应关系

In [14]
x, y = val_dataset.__getitem__(0)print(x, y)print(x.shape)print(train_dataset.__len__())with open(os.path.join(dataset_path, 'train.txt'), 'r') as f:    i = 0    for line in f.readlines():        image_path, label = line.strip().split(' ')        image = np.array(PilImage.open(image_path))            if i > 2:            break        # 进行图片的展示        plt.figure()        plt.title(label)        plt.imshow(image.astype('uint8'))        plt.axis('off')        plt.show()        i = i + 1
登录后复制

3、基于高层API自定义模型结构


模型结构可自行修改以获得更好的效果。

In [86]
import paddleimport paddle.nn as nnimport paddle.nn.functional as Fclass My_Model(nn.Layer):    def __init__(self, num_classes):        super(My_Model, self).__init__()        self.conv1 = paddle.nn.Conv2D(in_channels=3, out_channels=32, kernel_size=(3, 3))        self.pool1 = paddle.nn.MaxPool2D(kernel_size=2, stride=2)        self.conv2 = paddle.nn.Conv2D(in_channels=32, out_channels=64, kernel_size=(3,3))        self.pool2 = paddle.nn.MaxPool2D(kernel_size=2, stride=2)        self.conv3 = paddle.nn.Conv2D(in_channels=64, out_channels=32, kernel_size=(3,3))        self.pool3 = paddle.nn.MaxPool2D(kernel_size=2, stride=2)                self.conv4 = paddle.nn.Conv2D(in_channels=32, out_channels=16, kernel_size=(3,3))        self.flatten = paddle.nn.Flatten()        self.linear1 = paddle.nn.Linear(in_features=9216, out_features=16)        self.linear2 = paddle.nn.Linear(in_features=16, out_features=1)    def forward(self, x):        x = self.conv1(x)        x = F.relu(x)        x = self.pool1(x)        x = self.conv2(x)        x = F.relu(x)        x = self.pool2(x)        x = self.conv3(x)        x = F.relu(x)        x = self.pool3(x)        x= self.conv4(x)        x = F.relu(x)        x = self.flatten(x)        x = self.linear1(x)        x = F.relu(x)        x = self.linear2(x)        return xpaddle.summary(My_Model(num_classes=1), input_size=(1,3, 224,224))
登录后复制

4、模型训练

4.1、配置具体模型的优化器、损失函数及其他可选项

In [89]
import paddleclass SaveBestModel(paddle.callbacks.Callback):    def __init__(self, target=0.5, path='./best_model', verbose=0):        self.target = target        self.epoch = None        self.path = path    def on_epoch_end(self, epoch, logs=None):        self.epoch = epoch    def on_eval_end(self, logs=None):        if logs.get('loss')[0] < self.target:            self.target = logs.get('loss')[0]            self.model.save(self.path)            print('best model is loss {} at epoch {}'.format(self.target, self.epoch))callback_visualdl = paddle.callbacks.VisualDL(log_dir='./')callback_savebestmodel = SaveBestModel(target=1, path='./model')callbacks = [callback_visualdl, callback_savebestmodel]# 模型初始化model = paddle.Model(My_Model(num_classes=1)) # 线性回归模型# 优化器optim = paddle.optimizer.Momentum(learning_rate=0.0001,                                  momentum=0.9,                                  parameters=model.parameters())# 损失函数loss = paddle.nn.MSELoss()model.prepare(optimizer=optim, loss=loss) # 线性回归模型一定不能用交叉熵,因为这个自带softmax,需要指定输出类别# 用 DataLoader 实现数据加载train_loader = paddle.io.DataLoader(train_dataset, places=paddle.CUDAPlace(0), batch_size=64)eval_loader = paddle.io.DataLoader(val_dataset, places=paddle.CUDAPlace(0), batch_size= 64)
登录后复制

4.2、模型训练

In [9]
model.fit(train_loader,           eval_loader,           epochs=5,           callbacks=callbacks,          verbose=1)
登录后复制

4.3、保存模型


这里直接保存模型为可本地部署的形式。

In [10]
# training=True时,只会保存优化器参数和模型参数# training=False时,会保存模型结构、参数和优化器结构model.save("./model_dir/model", training=False)
登录后复制

5、边缘端预测


这里的预测部分和本地预测代码相同,需要保证输入图像的预处理和训练时对齐。

In [90]
import cv2import numpy as npfrom paddle.inference import Configfrom paddle.inference import create_predictor# ————————————————图像预处理函数————————————————def resize(img, target_size):    """ resize """    percent = float(target_size) / min(img.shape[0], img.shape[1])    resized_width = int(round(img.shape[1] * percent))    resized_height = int(round(img.shape[0] * percent))    resized_short = cv2.resize(img, (resized_width, resized_height))    resized = cv2.resize(resized_short, (target_size, target_size))    return resizeddef preprocess(img, target_size):    mean = [127.5, 127.5, 127.5]    std = [127.5, 127.5, 127.5]    # resize    img = resize(img, target_size)    # bgr-> rgb && hwc->chw    img = img[:, :, ::-1].astype('float32').transpose((2, 0, 1))    img_mean = np.array(mean).reshape((3, 1, 1))    img_std = np.array(std).reshape((3, 1, 1))    img -= img_mean    img /= img_std    return img[np.newaxis, :]#——————————————————————模型配置、预测相关函数——————————————————————————def predict_config(model_file, params_file):    # 根据预测部署的实际情况,设置Config    config = Config()    # 读取模型文件    config.set_prog_file(model_file)    config.set_params_file(params_file)    # Config默认是使用CPU预测,若要使用GPU预测,需要手动开启,设置运行的GPU卡号和分配的初始显存。    config.enable_use_gpu(500, 0)    # 可以设置开启IR优化、开启内存优化。    config.switch_ir_optim()    config.enable_memory_optim()    predictor = create_predictor(config)    return predictordef predict(image, predictor, target_size):    img = preprocess(image, target_size)    input_names = predictor.get_input_names()    input_tensor = predictor.get_input_handle(input_names[0])    input_tensor.reshape(img.shape)    input_tensor.copy_from_cpu(img.copy())    # 执行Predictor    predictor.run()    # 获取输出    output_names = predictor.get_output_names()    output_tensor = predictor.get_output_handle(output_names[0])    output_data = output_tensor.copy_to_cpu()    print("output_names", output_names)    print("output_tensor", output_tensor)    print("output_data", output_data)    return output_dataif __name__ == '__main__':    model_file = "model_dir/model.pdmodel"    params_file = "model_dir/model.pdiparams"        import random    # image = cv2.imread("data/img/7419.webp")    # image = cv2.imread("data/img/8891.webp")    image = cv2.imread("data/img/{}.webp".format(random.randint(0,5000)))        predictor = predict_config(model_file, params_file)    res = predict(image, predictor, target_size=224)    # 进行图片的展示    plt.figure()    plt.title(res)    image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)    plt.imshow(image.astype('uint8'))    plt.axis('on')    plt.show()
登录后复制
output_names ['relu_0.tmp_0']output_tensor output_data [[0.03796072]]
登录后复制
--- Running analysis [ir_graph_build_pass]--- Running analysis [ir_graph_clean_pass]--- Running analysis [ir_analysis_pass]--- Running IR pass [is_test_pass]--- Running IR pass [simplify_with_basic_ops_pass]--- Running IR pass [conv_affine_channel_fuse_pass]--- Running IR pass [conv_eltwiseadd_affine_channel_fuse_pass]--- Running IR pass [conv_bn_fuse_pass]--- Running IR pass [conv_eltwiseadd_bn_fuse_pass]--- Running IR pass [embedding_eltwise_layernorm_fuse_pass]--- Running IR pass [multihead_matmul_fuse_pass_v2]--- Running IR pass [squeeze2_matmul_fuse_pass]--- Running IR pass [reshape2_matmul_fuse_pass]--- Running IR pass [flatten2_matmul_fuse_pass]--- Running IR pass [map_matmul_v2_to_mul_pass]I1117 16:08:14.154837   128 fuse_pass_base.cc:57] ---  detected 2 subgraphs--- Running IR pass [map_matmul_v2_to_matmul_pass]--- Running IR pass [map_matmul_to_mul_pass]--- Running IR pass [fc_fuse_pass]I1117 16:08:14.155347   128 fuse_pass_base.cc:57] ---  detected 2 subgraphs--- Running IR pass [fc_elementwise_layernorm_fuse_pass]--- Running IR pass [conv_elementwise_add_act_fuse_pass]--- Running IR pass [conv_elementwise_add2_act_fuse_pass]--- Running IR pass [conv_elementwise_add_fuse_pass]--- Running IR pass [transpose_flatten_concat_fuse_pass]--- Running IR pass [runtime_context_cache_pass]--- Running analysis [ir_params_sync_among_devices_pass]I1117 16:08:14.158038   128 ir_params_sync_among_devices_pass.cc:45] Sync params from CPU to GPU--- Running analysis [adjust_cudnn_workspace_size_pass]--- Running analysis [inference_op_replace_pass]--- Running analysis [memory_optimize_pass]I1117 16:08:14.159536   128 memory_optimize_pass.cc:214] Cluster name : x  size: 38535168I1117 16:08:14.159554   128 memory_optimize_pass.cc:214] Cluster name : relu_0.tmp_0  size: 403734528I1117 16:08:14.159556   128 memory_optimize_pass.cc:214] Cluster name : relu_3.tmp_0  size: 2359296I1117 16:08:14.159559   128 memory_optimize_pass.cc:214] Cluster name : pool2d_0.tmp_0  size: 100933632--- Running analysis [ir_graph_to_program_pass]I1117 16:08:14.166565   128 analysis_predictor.cc:717] ======= optimize end =======I1117 16:08:14.166777   128 naive_executor.cc:98] ---  skip [feed], feed -> xI1117 16:08:14.167583   128 naive_executor.cc:98] ---  skip [relu_0.tmp_0], fetch -> fetch
登录后复制
登录后复制

6、车道线自动驾驶效果展示(第一人称视角)

【车道线+自动驾驶】用Paddle高层API实现车道线转角回归模型+部署 - 游乐网

来源:https://www.php.cn/faq/1426973.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

1.4 万亿词元!阿里 Qwen3.6-Plus 刷新全球最大 AI 聚合平台 OpenRouter 日调用量纪录
AI
1.4 万亿词元!阿里 Qwen3.6-Plus 刷新全球最大 AI 聚合平台 OpenRouter 日调用量纪录

1 4 万亿词元!阿里 Qwen3 6-Plus 刷新全球最大 AI 聚合平台 OpenRouter 日调用量纪录 这事儿挺震撼的。就在4月4日,全球最大的AI模型聚合平台OpenRouter在其官方账号上公布了一个爆炸性数字:阿里刚刚发布的千问新模型Qwen3 6-Plus,上线仅仅一天,日调用量

热心网友
04.04
Solidus Ai Tech(AITECH)币是什么?怎么样?AITECH工作原理和代币经济学概述
web3.0
Solidus Ai Tech(AITECH)币是什么?怎么样?AITECH工作原理和代币经济学概述

Solidus AI 是什么 在AI与Web3加速融合的当下,一个名为Solidus AI的项目提出了自己的解决方案。它将自己定位为“Web3原生的AI HPC基础设施”,其蓝图相当清晰:以位于欧洲的环保高性能计算(HPC)数据中心为基石,向上构建一个计算与AI工具市场,并最终通过AITECH代币完

热心网友
04.03
Cardano(ADA)2026 年价格预测:Grok AI 分析与未来走势
web3.0
Cardano(ADA)2026 年价格预测:Grok AI 分析与未来走势

Cardano (ADA) 2026年价格预测:AI深度解析与增长路径 在瞬息万变的加密市场,人工智能分析正成为洞察未来趋势的关键工具。近期,由Grok AI模型发布的Cardano(ADA)2026年价格预测引发了广泛关注,其大胆展望ADA或有望触及两位数美元价格。这不仅彰显了AI数据分析的潜力,

热心网友
04.02
京东发起全民养虾计划 整合AI硬件与服务降低门槛
科技数码
京东发起全民养虾计划 整合AI硬件与服务降低门槛

京东“全民养虾计划”:开启AI助手体验新纪元 科技领域近期迎来一场别开生面的创新活动:京东正式推出“全民养虾计划”。表面看,它与美食相关,实际上是一场针对AI智能体技术普及的宏大实验。该计划通过“购买AI硬件、赠送专业安装服务与趣味小龙虾”的组合策略,为当前热门的开源AI智能体——OpenClaw,

热心网友
04.02
一波资本从以太坊(ETH)流出,进入TRON [TRX]
web3.0
一波资本从以太坊(ETH)流出,进入TRON [TRX]

以太坊资本外溢:TRON为何成为15 2亿美元稳定币新枢纽? 区块链世界的地壳运动从未停止,资本的流向便是其中最敏锐的震感。近期,一场规模惊人的资本迁徙正在上演:大量资金正从以太坊网络流出,涌入TRON生态。这不仅是简单的资产转移,更是一次深刻的行业风向标,揭示了用户对交易成本、网络效率与应用场景的

热心网友
04.02

最新APP

火柴人传奇
火柴人传奇
动作冒险 04-01
街球艺术
街球艺术
体育竞技 04-01
飞行员模拟
飞行员模拟
休闲益智 04-01
史莱姆农场
史莱姆农场
休闲益智 04-01
绝区零
绝区零
角色扮演 04-01

热门推荐

洛克王国世界40级进阶无推图阵容打法
手机教程
洛克王国世界40级进阶无推图阵容打法

洛克王国世界40级进阶无推图阵容打法攻略 在《洛克王国世界》的成长之旅中,达到40级是一个关键的进阶门槛。许多玩家可能会发现自己并未刻意组建一支成型的推图队伍,面对这个挑战时有些无从下手。这篇攻略将为你详细解析一套无需专门推图阵容的通关思路,帮助你利用现有资源,轻松突破40级进阶关卡。 核心阵容搭配

热心网友
04.04
这城有良田主C红品宝玉词条选择逻辑
手机教程
这城有良田主C红品宝玉词条选择逻辑

这城有良田主C僚属红品宝玉词条搭配攻略 在《这城有良田》中,红品宝玉的词条选择,是决定你主C僚属最终伤害上限的核心环节。面对各式各样的属性词条,不少玩家会感到困惑:如何搭配才能最大程度激发核心输出的潜力?本文将为你系统解析主C位红品宝玉的挑选逻辑与进阶策略,助你在资源投入上实现收益最大化,显著提升队

热心网友
04.04
哔哩猫app适配手表设置
游戏攻略
哔哩猫app适配手表设置

哔哩猫手表版优化指南:适配小屏的关键设置 想在智能手表上流畅体验哔哩猫?直接安装手机版本,往往会遇到界面拥挤、操作不便的问题。其实,只需调整几个核心选项,就能让哔哩猫完美匹配手表的小屏幕,操作体验大幅提升。 1、DPI优化:精准调节显示密度 手表屏幕空间有限,默认的显示比例常常导致文字过大、布局浪费

热心网友
04.04
《深海迷航冰点之下》咖啡机使用攻略
游戏攻略
《深海迷航冰点之下》咖啡机使用攻略

《深海迷航冰点之下》咖啡机使用全攻略:生存必备热饮制作指南 在《深海迷航冰点之下》这片危机四伏的极地海域中,新手面临的第一个致命威胁往往是持续不断的体温流失。与前作不同,身体失温在游戏前期是核心生存挑战之一。有效应对失温的方法主要有:尽快解锁并制作抗压潜水服的升级模块——防寒服、靠近能提供热源的炽热

热心网友
04.04
三国志王道天下吕布骑阵容玩法攻略
手机教程
三国志王道天下吕布骑阵容玩法攻略

三国志王道天下吕布骑阵容玩法攻略 在策略手游《三国志王道天下》中,构建强力阵容是核心乐趣。以飞将吕布为核心的群雄骑兵队,以其惊人的爆发力与爽快的操作体验,备受玩家关注。本攻略将为你详细解析这套阵容的构建精髓、核心机制与实战搭配思路,助你打造一支所向披靡的突击铁骑。 阵容构成 这套阵容以纯粹的群雄阵营

热心网友
04.04