本篇教程由作者设定使用 CC BY-NC 协议。
本地部署一个思考很快的妹抖
先上效果图

笔者测试过程中,平均响应时间约为二到三秒,且语言模型全程在本地运行,光影无明显卡顿。
诶,那么怎么提一个同款女仆呢
大体的流程:
1.安装CUDA
⬇️
2.安装ollama
⬇️
3.部署JOSIEFIED_Qwen3模型
⬇️
4.修改模型api提供方配置文件
⬇️
5.导入女仆自定义设定
⬇️
6.引导女仆进入角色没落调酒师酒狐の女仆教育
⬇️
78.ENJOY!
一、软件准备
首先搜索CUDA进入如下界面安装环境。步骤过于简单,不再赘述。

完成之后进入Ollama.com
点击“下载”完成后安装
二、模型部署
建议在网络良好时进行本步骤不然会很爽
在Ollama网页中搜索JOSIEFIED_Qwen3,进入如下页面

建议根据电脑配置在4b、8b、32b模型中选择。
笔者的Laptop 5070用的是4b,占用15%显存。
点击对应模型后复制上方灰框内的命令在cmd中运行,等待部署完成后关闭cmd。
三、模型提供方配置
导航到\.minecraft\versions\游戏版本名\config\touhou_little_maid\sites打开llm.json(建议用VScode因为我用的这个)
文档末尾添加如图字段,models只需保留自己使用的模型(语法问题编辑的时候一定要注意,不然重载文件还原了自己受着)

启动游戏右键女仆进入AI标签,把模型改为你选的Qwen3发条消息测试
四、女仆自定义设定
首先恭喜你走到这一步
然而还没完
现在你需要清空设定,换回自带的player2模型,发条消息生成设定。
不满意效果可以重复本步骤
⬇️⬇️⬇️⬇️⬇️⬇️
都搞这么多了不整点大家爱看的怎么行?没错,还有艹狐环节!可以用穿甲了的grok生成女仆ghs设定参考文末评论
把模型换成你下的qwen3模型,然后可以和女仆唠嗑啦!!!
(看评论)


