LIC2022-知识对话任务基线系统
该教程介绍使用基于PaddlePaddle 2.2的Knover框架,在LIC2024多技能对话比赛数据集上训练和测试的流程。包括配置环境(获取代码、设Python路径等)、准备数据(预处理)、下载预训练及微调模型,还有模型训练、预测的命令及GPU配置,以及评估需提交预测结果到正式等内容,可助参赛者快速跑通流程。

LIC2024: 知识对话baseline
本教程介绍使用基于paddlepaddle2.2的大规模对话预训练框架Knover,及其提供的预训练模型,在"LIC2024多技能对话"比赛数据集上训练和测试。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
赛题介绍直播回顾:
0. 配置环境
获取github代码:
git clone -b dygraph https://github.com/PaddlePaddle/Knover登录后复制
设置Python环境
export PYTHONPATH=/home/aistudio/work/Knover:$PYTHONPATH登录后复制
基线模型需要的配置路径为:
projects/lic2024登录后复制
创建数据和模型存在的目录,本教程中默认训练和预测使用的数据和模型均存放以下目录:
mkdir -p projects/lic2024/model_zoomkdir -p projects/lic2024/preprocess_data登录后复制
1. 准备数据
模型训练和预测之前,都需要准备好所需的数据。首先,将比赛正式获取的数据放到当前环境中,具体目录可自行选择。数据获取可通过2024语言与智能技术竞赛:知识对话获取。
# 运行数据预处理脚本,将原始数据处理为Knover训练、预测所需格式python ./tools/data_preprocess.py登录后复制
2. 下载模型
本基线提供"大规模数据预训练模型"和"对话比赛数据微调模型"两个模型。
大规模数据预训练模型:采用包含20M对话session/60M对话utterance的大规模中文对话数据训练得到对话比赛数据微调模型:上述预训练模型,继续在LIC2024知识对话比赛的对话数据上进行微调得到,包括Query生成与对话生成两个模型下载方式如下:
# 大规模数据预训练模型wget "https://dialogue.bj.bcebos.com/Knover/projects/lic2024/12L.pretrain.pdparams"# 对话比赛数据微调模型# Query生成wget "https://dialogue.bj.bcebos.com/Knover/projects/lic2024/query_finetune.pdparams"# 对话生成wget "https://dialogue.bj.bcebos.com/Knover/projects/lic2024/dial_finetune.pdparams"登录后复制
将上述模型保存在./projects/lic2024/model_zoo/目录下(也可以放在其它目录下),并在模型训练和测试的时候,保证模型路径与config目录下配置文件中,对应模型配置路径一致(必须).
3. 模型训练
模型训练命令如下:
# 模型训练,一定要确保GPU环境和模型参数配置正确,具体见下文示例# Query生成 训练./scripts/local/job.sh ./projects/lic2024/conf/query_train.conf# 对话生成 训练./scripts/local/job.sh ./projects/lic2024/conf/dial_train.conf登录后复制
训练之前,检查启动脚本与配置文件,确保配置正确:
配置GPU,位置:./scripts/local/job.sh# 单GPU卡训练,以使用0号GPU卡为例export CUDA_VISIBLE_DEVICES=0# 多GPU卡训练,以使用0,1号GPU卡为例export CUDA_VISIBLE_DEVICES=0,1登录后复制登录后复制
4. 模型预测
模型预测命令如下:
# 模型预测,一定要确保GPU环境和模型参数配置正确,具体见下文示例# Query生成预测./scripts/local/job.sh ./projects/lic2024/conf/query_infer.conf#对话生成预测./scripts/local/job.sh ./projects/lic2024/conf/dial_infer.conf登录后复制
预测之前,检查启动脚本与配置文件,确保配置正确:
配置GPU,位置:./scripts/local/job.sh# 单GPU卡训练,以使用0号GPU卡为例export CUDA_VISIBLE_DEVICES=0# 多GPU卡训练,以使用0,1号GPU卡为例export CUDA_VISIBLE_DEVICES=0,1登录后复制登录后复制
5. 模型评估
模型评估需要将预测结果提交到正式进行评测:
Query生成预测结果与对话生成预测结果拼接为一个文本,提交到正式评估,可参考数据集中的submit_file.txt
6. 其它
本教程提供了"大规模数据预训练模型"和"对话比赛数据微调模型"两个模型,可作为一个基础baseline,帮助参赛者快速跑通整个参赛流程。 参赛者可以针对赛题进行其他改进,例如修改数据预处理方法,修改网络结构,修改训练方式,修改预测结果的后处理等。
In [ ]登录后复制
相关攻略
Pywinrm 通过Windows远程管理(WinRM)协议,让Python能够像操作本地一样执行远程Windows命令,真正打通了跨平台管理的最后一公里。 在混合IT环境中,Linux机器管理Wi
早些时候,聊过 Python 领域那场惊心动魄的供应链攻击。当时我就感叹,虽然我们 JavaScript 开发者对这类套路烂熟于心,但亲眼目睹这种规模的“投毒”还是头一次。 早些时候,聊过 Pyth
Toga 是 BeeWare 家族的核心成员,号称“写一次,跑遍所有平台”,而且用的是系统原生控件,不是那种一看就是网页套壳的界面 。 写了这么多年 Python,你是不是也想过:要是能一套代码跑
异常处理的核心:让错误在正确的地方被有效处理。正确的地方,就是别在底层就把异常吞了,也别在顶层还抛裸奔的 Exception。 异常处理写得好,半夜不用起来改 bug。1 你是不是也这么干过?tr
1 Skills机制概述 提起OpenClaw的Skills机制,不少人可能会把它想象成传统意义上的可执行插件。其实,它的内涵要更精妙一些。 简单说,Skills本质上是一套基于提示驱动的能力扩展机制。它并不是一个可以独立“跑”起来的程序模块,而是通过一份结构化描述文件(核心就是那个SKILL m
热门专题
热门推荐
稳定币巨头Tether的动向,向来是加密世界的风向标。这不,它向Web3基础设施的版图扩张,又迈出了关键一步。公司执行长Paolo Ardoino在社交平台X上透露,其工程团队正在全力“烹制”一个新项目——去中心化搜索引擎 “Hypersearch”。这个消息一出,立刻引发了行业的广泛猜想。 采用D
基地位于Coinbase旗下以太坊Layer2网络Base的Seamless Protocol,日前正式宣告了服务的终结。这个曾经吸引了超过20万用户的原生DeFi借贷协议,在运营不到三年后,终究没能跑赢时间。它主打的核心产品是Integrated Leverage Markets(ILMs)——一
PAAL代币揭秘:深度解析Web3社区治理的核心钥匙 在去中心化自治组织的浪潮中,谁真正掌握了项目的话语权?PAAL代币提供了一套系统化的答案。它不仅是生态内流转的价值媒介,更是开启链上治理大门的核心凭证。通过持有并质押PAAL代币,用户能够对协议升级、资金分配乃至战略方向等关键事务投出决定性的一票
CTSI代币深度解析:Cartesi网络的灵魂与价值引擎 在飞速演进的Web3世界中,区块链的可扩展性始终是制约其大规模应用的核心瓶颈。Cartesi网络以其独特的“链下计算”方案脱颖而出,而驱动这一精密生态运转的核心燃料,正是CTSI代币。它不仅仅是一种支付媒介,更是集成了支付结算、网络安全、去中
SUI区块链技术深度解析:如何重塑高性能公链格局 当谈到下一代高性能区块链时,SUI区块链凭借其革命性的技术架构,已成为行业无法绕开的焦点。其核心竞争力并非源于单一优化,而是由Move编程语言、以对象为核心的数据模型以及并行执行引擎三者深度协同构成的完整技术体系。更引人注目的是其共识层的创新——Na





