登录
/
注册
首页
论坛
其它
首页
科技
业界
安全
程序
广播
Follow
关于
导读
排行榜
资讯
发帖说明
登录
/
注册
账号
自动登录
找回密码
密码
登录
立即注册
搜索
搜索
关闭
CSDN热搜
程序园
精品问答
技术交流
资源下载
本版
帖子
用户
软件
问答
教程
代码
写记录
写博客
小组
VIP申请
VIP网盘
网盘
联系我们
发帖说明
道具
勋章
任务
淘帖
动态
分享
留言板
导读
设置
我的收藏
退出
腾讯QQ
微信登录
返回列表
首页
›
业界区
›
业界
›
使用离线部署32B模型实现OpenDeepWiki项目代码自动分析 ...
使用离线部署32B模型实现OpenDeepWiki项目代码自动分析与文档生成
[ 复制链接 ]
官厌
2025-6-2 23:42:18
程序园永久vip申请,500美金$,无限下载程序园所有程序/软件/数据/等
背景介绍
在企业环境中,我们经常需要对公司项目代码进行分析和文档生成。然而,考虑到代码的保密性,将代码上传至公共AI平台存在安全隐患。为解决这一问题,我们可以在公司内部GPU服务器上部署强大的大语言模型(如qwen2.5:32b-instruct-fp16),并结合OpenDeepWiki工具,实现安全、高效的代码仓库分析与文档自动生成。
环境需求
硬件
: 支持qwen2.5:32b-instruct-fp16模型运行的GPU服务器(推荐配置:4*RTX 3090)
软件
: Ollama(用于部署模型)、Docker和Docker Compose环境
网络
: 内部网络环境,确保安全性
部署步骤
1. 部署OpenDeepWiki
在服务器上创建并配置必要文件:
docker-compose.yml
:
services:
koalawiki:
image: crpi-j9ha7sxwhatgtvj4.cn-shenzhen.personal.cr.aliyuncs.com/koala-ai/koala-wiki
environment:
- KOALAWIKI_REPOSITORIES=/repositories
- TASK_MAX_SIZE_PER_USER=5 # 每个用户AI处理文档生成的最大数量
- REPAIR_MERMAID=1 # 是否进行Mermaid修复,1修复,其余不修复
- CHAT_MODEL=qwen2.5:32b-instruct-fp16 # 必须要支持function的模型
- ANALYSIS_MODEL=qwen2.5:32b-instruct-fp16 # 分析模型,用于生成仓库目录结构,这个很重要,模型越强,生成的目录结构越好,为空则使用ChatModel
- CHAT_API_KEY=sk- #您的APIkey
- LANGUAGE=简体中文 # 设置生成语言默认为"中文"
- ENDPOINT=http://您的Ollamaip:11434/v1
- DB_TYPE=sqlite
- DB_CONNECTION_STRING=Data Source=/data/KoalaWiki.db
- UPDATE_INTERVAL=5 # 仓库增量更新间隔,单位天
- EnableSmartFilter=true # 是否启用智能过滤,这可能影响AI得到仓库的文件目录
- PARALLEL_COUNT=1 # The warehouse processes the quantity in parallel
volumes:
- ./repositories:/app/repositories
- ./data:/data
koalawiki-web:
image: crpi-j9ha7sxwhatgtvj4.cn-shenzhen.personal.cr.aliyuncs.com/koala-ai/koala-wiki-web
environment:
- NEXT_PUBLIC_API_URL=http://koalawiki:8080 # 用于提供给server的地址
nginx: # 需要nginx将前端和后端代理到一个端口
image: crpi-j9ha7sxwhatgtvj4.cn-shenzhen.personal.cr.aliyuncs.com/koala-ai/nginx:alpine
ports:
- 8090:80
volumes:
- ./nginx.conf:/etc/nginx/conf.d/default.conf
depends_on:
- koalawiki
- koalawiki-web
复制代码
nginx.conf
:
server {
listen 80;
server_name localhost;
# 设置上传文件大小限制为 100MB
client_max_body_size 100M;
# 日志配置
access_log /var/log/nginx/access.log;
error_log /var/log/nginx/error.log;
# 代理所有 /api/ 请求到后端服务
location /api/ {
proxy_pass http://koalawiki:8080/api/;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection 'upgrade';
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_cache_bypass $http_upgrade;
}
# 其他所有请求转发到前端服务
location / {
proxy_pass http://koalawiki-web:3000;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection 'upgrade';
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_cache_bypass $http_upgrade;
}
}
复制代码
2. 启动服务
创建好上述文件后,在同级目录下执行以下命令:
拉取必要的镜像:
docker-compose pull
复制代码
启动容器:
docker-compose up -d
复制代码
等待服务初始化完成(通常需要几分钟)
3. 访问OpenDeepWiki平台
在浏览器中访问 http://[服务器IP]:8090,即可看到OpenDeepWiki的界面:
使用指南
添加代码仓库进行分析
从以下地址获取OpenDeepWiki源码(推荐国内用户使用Gitee):
GitHub: https://github.com/AIDotNet/OpenDeepWiki
Gitee: https://gitee.com/AIDotNet/OpenDeepWiki
下载源码的ZIP压缩包
在OpenDeepWiki平台点击"添加新仓库":
选择"上传压缩包",填写组织名称和仓库名称(这些字段必填,将影响前端路由显示),然后提交:
上传完成后,系统将开始处理仓库(处理时间约为3-5分钟)。处理中的仓库会显示在列表中:
处理完成后,点击仓库名称即可查看由qwen2.5:32b-instruct-fp16模型自动生成的文档:
系统优势
安全可控
:所有代码分析和文档生成过程都在内部环境完成,确保代码安全
高质量文档
:借助强大的qwen2.5:32b-instruct-fp16模型,生成的文档结构清晰、内容全面
一键操作
:简单的上传流程,无需复杂配置
可扩展性
:支持多种代码仓库格式,适用于不同项目需求
结语
通过部署OpenDeepWiki与qwen2.5:32b-instruct-fp16模型,我们可以安全、高效地为公司代码仓库生成完整文档,大幅提升项目理解和开发效率。
如果您对OpenDeepWiki感兴趣,欢迎访问以下地址并给项目点个Star:
GitHub: https://github.com/AIDotNet/OpenDeepWiki
Gitee: https://gitee.com/AIDotNet/OpenDeepWiki
在线体验地址
:https://opendeep.wiki/
目前已有500+仓库加入!您也可以将您的开源仓库添加进来。
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
使用
离线
部署
32B
模型
相关帖子
当你不再迷信“最强模型”,系统设计才刚刚开始
Gemini 3.0 Pro 迁移避坑指南:OpenAI API 无缝兼容,多模型协同靠 PoloAPI 更高效
追踪链路--使用iptables/ipvs来记录后端pod真实ip
JSAPIThree 加载单体三维模型学习笔记:SimpleModel 简易加载方式
Python包管理告别龟速下载:uv工具国内镜像与离线安装实战
使用Python免费合并PDF文件
大语言模型~Ollama本地模型和java一起体验LLM
使用DNGuard加密并打包C# .NET Core程序为单一EXE文件
最小二乘问题详解9:使用Ceres求解非线性最小二乘
阿里Z-Image图像生成模型容器部署
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
千斤顶
照妖镜
相关推荐
业界
当你不再迷信“最强模型”,系统设计才刚刚开始
0
864
聱嘹
2025-12-16
科技
Gemini 3.0 Pro 迁移避坑指南:OpenAI API 无缝兼容,多模型协同靠 PoloAPI 更高效
0
782
堠秉
2025-12-16
业界
追踪链路--使用iptables/ipvs来记录后端pod真实ip
0
800
硫辨姥
2025-12-17
业界
JSAPIThree 加载单体三维模型学习笔记:SimpleModel 简易加载方式
0
563
上官泰
2025-12-17
业界
Python包管理告别龟速下载:uv工具国内镜像与离线安装实战
0
808
秦欣艷
2025-12-18
安全
使用Python免费合并PDF文件
0
598
洪势
2025-12-18
安全
大语言模型~Ollama本地模型和java一起体验LLM
0
480
裴涛
2025-12-18
安全
使用DNGuard加密并打包C# .NET Core程序为单一EXE文件
1
741
嫁吱裨
2025-12-19
业界
最小二乘问题详解9:使用Ceres求解非线性最小二乘
0
493
挚魉
2025-12-19
科技
阿里Z-Image图像生成模型容器部署
0
996
枢覆引
2025-12-20
回复
(3)
缢闸
2025-11-28 00:55:41
回复
使用道具
举报
照妖镜
猛犸象科技工作室:
网站开发,备案域名,渗透,服务器出租,DDOS/CC攻击,TG加粉引流
谢谢楼主提供!
迫蔺
2025-12-4 05:20:45
回复
使用道具
举报
照妖镜
猛犸象科技工作室:
网站开发,备案域名,渗透,服务器出租,DDOS/CC攻击,TG加粉引流
不错,里面软件多更新就更好了
荏牌
2025-12-7 13:11:29
回复
使用道具
举报
照妖镜
程序园永久vip申请,500美金$,无限下载程序园所有程序/软件/数据/等
过来提前占个楼
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
回复
本版积分规则
回帖并转播
回帖后跳转到最后一页
签约作者
程序园优秀签约作者
发帖
官厌
2025-12-7 13:11:29
关注
0
粉丝关注
26
主题发布
板块介绍填写区域,请于后台编辑
财富榜{圆}
3934307807
991124
anyue1937
9994892
kk14977
6845357
4
xiangqian
638210
5
韶又彤
9997
6
宋子
9982
7
闰咄阅
9993
8
刎唇
9993
9
俞瑛瑶
9998
10
蓬森莉
9950
查看更多
今日好文热榜
995
阿里Z-Image图像生成模型容器部署
306
痞子衡嵌入式:16MB以上NOR Flash地址模式
661
最新AI换脸软件,全面升级可直播,Mirage下
447
热点 Key 与大 Key 治理——识别、拆分、预
645
Media Extended
322
vlookup的终结者splookup,9个案例讲透查询
850
ROS2之Launch介绍
886
精选 8 个 .NET 开发实用的类库,效率提升
82
精选 8 个 .NET 开发实用的类库,效率提升
573
精选 8 个 .NET 开发实用的类库,效率提升
143
精选 8 个 .NET 开发实用的类库,效率提升
114
精选 8 个 .NET 开发实用的类库,效率提升
609
alist如何将默认布局设置为图片布局
1011
Kali2025.4+Cherry Studio一键配置HexStrik
419
PHP 之高级面向对象编程 深入理解设计模式
416
PHP 之高级面向对象编程 深入理解设计模式
572
升级curl版本,及升级后引起的动态库链接不
297
2025年GEO优化服务商全景对比:五大核心维
779
AI Agent详解
983
Buildah 简明教程:让镜像构建更轻量,告别