Linux服务器部署大模型_后台常驻运行脚本分享
Linux服务器部署大模型:后台常驻运行脚本全攻略

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
好不容易在Linux服务器上把大模型(比如Qwen2.5-7B、MiniCPM-o-4.5这些)部署起来了,结果一关SSH终端,服务也跟着断了——这事儿是不是挺让人头疼的?这通常意味着你的模型还在“前台交互式运行”模式。别担心,下面这几种后台常驻运行的脚本方案,从轻量级到生产级,总有一款适合你。
一、nohup + 重定向启动脚本
想快速验证或者临时让模型跑上一阵子?这个方案最省事。它不需要安装任何额外组件,核心思路就是忽略终端挂断信号,同时把日志输出到文件,实现最基础的后台化。
具体操作分几步走:
首先,创建启动脚本文件:touch run_model_nohup.sh
接着,赋予它执行权限:chmod +x run_model_nohup.sh
然后,把核心命令写进去。这里以Qwen2.5-7B-Instruct为例,假设服务端口是8000:
#!/bin/bash
cd /root/qwen2.5-7b-instruct
source qwen_env/bin/activate
nohup python qwen_service.py --port 8000 > /var/log/qwen_service.log 2>&1 &
保存后,执行脚本:./run_model_nohup.sh
最后,别忘了验证一下进程是否在后台稳稳地跑着:ps aux | grep qwen_service.py
二、systemd服务单元脚本
如果目标是生产环境的长期、稳定部署,那么systemd无疑是更专业的选择。作为Linux的标准服务管理器,它带来的好处是实打实的:开机自启、崩溃后自动重启、集中的日志管理,还能对资源使用进行限制。
部署起来也不复杂:
第一步,创建服务定义文件:sudo nano /etc/systemd/system/qwen-model.service
第二步,填入标准化的配置。注意,下面的路径、用户和环境变量需要根据你的实际情况调整:
[Unit]
Description=Qwen2.5-7B-Instruct API Service
After=network.target
[Service]
Type=simple
User=root
WorkingDirectory=/root/qwen2.5-7b-instruct
Environment="PATH=/root/qwen_env/bin:/usr/local/bin:/usr/bin:/bin"
ExecStart=/root/qwen_env/bin/python qwen_service.py --port 8000
Restart=always
RestartSec=10
StandardOutput=journal
StandardError=journal
MemoryLimit=24G
[Install]
WantedBy=multi-user.target
第三步,重载配置并立即启用服务:sudo systemctl daemon-reload && sudo systemctl enable --now qwen-model.service
之后,想查看实时运行日志就简单了:sudo journalctl -u qwen-model.service -f
三、docker容器化后台脚本(适用已容器化模型)
对于那些已经封装成Docker镜像的大模型(例如Qwen-Image-2512、Hunyuan-MT-7B-vllm),利用Docker本身的能力来实现后台托管是最优雅的。这种方式几乎零依赖,还能享受镜像带来的环境一致性。
操作流程很清晰:
先编写一个可复用的启动脚本:touch start_model_docker.sh
然后在脚本里填入类似下面的内容。这个示例将容器端口映射到宿主机的8080,启用了GPU,并设置了自动重启策略:
#!/bin/bash
docker run -d \
--gpus all \
--restart unless-stopped \
--name qwen-image-prod \
--volume /data/qwen-output:/app/output \
registry.cn-hangzhou.aliyuncs.com/csdn_ai/qwen-image-2512:latest
最后,执行脚本并确认容器状态:chmod +x start_model_docker.sh && ./start_model_docker.sh && docker ps | grep qwen-image-prod
四、setsid脱离会话脚本(高隔离性场景)
最后这个方案比较特别,适用于对安全性要求高,或者运行环境复杂(比如嵌套终端)的场景。`setsid`命令能让进程彻底脱离当前终端会话,直接成为init进程(PID 1)的子进程,这样无论终端发生什么,都不会影响到模型服务。
实现步骤如下:
新建一个独立的守护脚本:touch run_with_setsid.sh
写入命令。这里换一个模型示例,比如Leather Dress Collection:
#!/bin/bash
cd /root/Leather-Dress-Collection
source leather-env/bin/activate
setsid python app.py --server-port 7861 > /var/log/leather-app.log 2>&1
执行这个脚本,它会立即进入后台且不阻塞当前终端:./run_with_setsid.sh &
如何确认成功了呢?检查一下目标进程的父进程ID是不是1:ps -o pid,ppid,comm -C python | grep app.py
相关攻略
一、准备基础运行环境与依赖 想让一个具备专业领域知识的大模型在本地稳定运行,并且能准确回答你的私有文档问题?那么,一个隔离且配置得当的Python环境是必不可少的起点。这不仅是后续所有操作的基础,更直接决定了向量化处理和检索响应的效率。 具体来说,你需要按顺序完成这几步: 1 创建一个独立的con
在RTX 4090(24GB显存)上部署大模型的五条可行路径 当你手握一块性能强劲的RTX 4090显卡,准备部署大语言或多模态模型时,最常遇到的拦路虎是什么?没错,就是那看似充裕、实则捉襟见肘的24GB显存。模型权重、激活内存、KV缓存层层叠加,很容易就突破了硬件的承载阈值,导致显存溢出、推理卡顿
产品介绍 提起将前沿大模型技术落地到企业实际中,面壁智能是不少业内同行会谈到的一家公司。其核心产品是一个基于大模型技术的AI平台,能力相当扎实。简单来说,它凭借强大的处理和学习内核,为企业提供量身定制的人工智能解决方案。无论是辅助决策、优化内部流程,还是进行复杂的知识管理,这个平台都能找到用武之地,
目光转向生产端,一个标志性的事件已经发生:位于得州的超级工厂,在今年2月成功下线了首台Cybercab量产车型。这可不是一次简单的试产,它正式宣告特斯拉的无人驾驶电动车,已经从实验室和概念阶段,迈入了规模化生产的全新纪元。用马斯克的话来说,随着全球范围内新工厂的陆续投产,以及核心技术的快速迭代,特斯
OPPO携手谷歌Gemini:国际版手机AI体验再升级 这几天,科技圈被一则消息刷屏了:OPPO创始人刘作虎亲自在社交平台宣布,OPPO手机将正式接入谷歌最新的AI大模型Gemini。这可不是一次简单的功能更新,它标志着OPPO在人工智能赛道上迈出了一大步。用刘作虎的话来说,与谷歌的深度合作为他们带
热门专题
热门推荐
蔚来2026年4月交付数据发布:多品牌齐头并进,累计交付突破110万台 最新数据显示,2026年4月,蔚来公司整体交付新车达到29,356台,实现了22 8%的同比增长。这份成绩单背后,是旗下多品牌矩阵的共同发力。 具体来看,作为基石的蔚来品牌交付了19,024台;而面向主流家庭市场的乐道品牌表现稳
集中治理电视剧侵权传播动员会召开,行业版权保护再升级 近日,国家广播电视总局的一场动员会,为视听行业的版权保护工作按下了加速键。这场聚焦于集中治理电视剧侵权传播的会议,传递出的信号明确而有力:打击侵权盗版,维护健康生态,已成行业共识与当务之急。 侵权之害:动摇行业根基 会议一针见血地指出,电视剧乃至
维信诺闪耀SID DW 2026:以“屏台”技术硬核实力,定义下一代显示升级方向 五月初的洛杉矶,再次成为全球显示技术的焦点。当地时间5月5日至7日,国际显示周(SID Display Week)如期而至,这场行业顶级盛会向来是窥探未来显示趋势的绝佳窗口。今年,维信诺携其全尺寸创新成果亮相,可谓阵容
2026年Q1全球手机市场:苹果的“统治力”与安卓的“哑铃困境” 5月6日,市场研究机构Counterpoint发布了2026年第一季度的全球智能手机销量榜单。数据揭示了一个近乎“单方面碾压”的格局:苹果在高端市场展现出绝对的统治力,而安卓阵营则显得有些“无力招架”。 仔细看这份TOP10榜单,iP
快科技5月6日消息:7年前丢的手机发回定位,机主成功找回 今天,一则“7年前丢的手机发回定位,机主找回”的消息,冲上了网络热搜榜。 事件引发广泛讨论后,魅族客服方面向媒体做出了最新回应:只要机主曾在系统中挂失过手机,并且这部手机处于开机联网状态、同时登录了原机主的魅族Flyme账号,手机确实会自动拍





