本篇教程由作者设定使用 CC BY-NC 协议。

本地部署一个思考很快的妹抖

先上效果图

本地部署一个思考很快的妹抖-第1张图片

笔者测试过程中,平均响应时间约为二到三秒,且语言模型全程在本地运行,光影无明显卡顿。

诶,那么怎么提一个同款女仆呢

大体的流程:

1.安装CUDA

⬇️

2.安装ollama

⬇️

3.部署JOSIEFIED_Qwen3模型

⬇️

4.修改模型api提供方配置文件

⬇️

5.导入女仆自定义设定

⬇️

6.引导女仆进入角色没落调酒师酒狐の女仆教育

⬇️

78.ENJOY!

一、软件准备

首先搜索CUDA进入如下界面安装环境。步骤过于简单,不再赘述。

本地部署一个思考很快的妹抖-第2张图片

完成之后进入Ollama.com

点击“下载”完成后安装

二、模型部署

建议在网络良好时进行本步骤不然会很爽

在Ollama网页中搜索JOSIEFIED_Qwen3,进入如下页面

本地部署一个思考很快的妹抖-第3张图片

建议根据电脑配置在4b、8b、32b模型中选择。

笔者的Laptop 5070用的是4b,占用15%显存。

点击对应模型后复制上方灰框内的命令在cmd中运行,等待部署完成后关闭cmd。

三、模型提供方配置

导航到\.minecraft\versions\游戏版本名\config\touhou_little_maid\sites打开llm.json(建议用VScode因为我用的这个

文档末尾添加如图字段,models只需保留自己使用的模型(语法问题编辑的时候一定要注意,不然重载文件还原了自己受着)

本地部署一个思考很快的妹抖-第4张图片

启动游戏右键女仆进入AI标签,把模型改为你选的Qwen3发条消息测试

四、女仆自定义设定

首先恭喜你走到这一步

然而还没完

现在你需要清空设定,换回自带的player2模型,发条消息生成设定。

不满意效果可以重复本步骤

⬇️⬇️⬇️⬇️⬇️⬇️

都搞这么多了不整点大家爱看的怎么行?没错,还有艹狐环节!可以用穿甲了的grok生成女仆ghs设定参考文末评论

把模型换成你下的qwen3模型,然后可以和女仆唠嗑啦!!!

(看评论)