在使用秋叶SD-WebUI启动器时会出现一个“找不到llama_cpp模块”的报错,导致某些扩展插件无法使用,那么怎样解决这个问题呢?
很多人给出的答案是直接使用pip install llama-cpp-python
代码来安装,但真这么简单就不会报错了,这样运行之后,其实是不能直接安装的!所以你可以尝试下面的解决办法!
1、打开网站:
https://abetlen.github.io/llama-cpp-python/whl/cu121/llama-cpp-python/
下载与你的python和cuda版本对应的文件。比如我安装的python环境是3.10.11,cuda版本是121,那就找包含python-310 和cuda 121的文件下载就行了!
考虑到大家的网络问题可能下载较慢,我下载了十几分钟,这里我打包了4个版本的文件放到网盘,大家可以直接下载!
https://www.123pan.com/s/BYzrVv-FrDA3.html 提取码:NFdw
包含python3.9/3.10/3.11/3.12 cuad121的四个版本:
llama_cpp_python-0.2.82-cp310-cp310-win_amd64.whl
llama_cpp_python-0.2.82-cp311-cp311-win_amd64.whl
llama_cpp_python-0.2.82-cp312-cp312-win_amd64.whl
llama_cpp_python-0.2.82-cp39-cp39-win_amd64.whl
比如,这里,我选择0.2.82版本的文件llama_cpp_python-0.2.82-cp310-cp310-win_amd64.whl
2,、下载完成之后,把这个whl文件,放到你的启动器里面的python文件夹内,比如我的是在F:\Novelai\sd-webui-aki-v4.8\python
,然后在这个文件夹的地址栏输入cmd ,进入命令行
3、在命令行里输入下面的代码,即可完成安装!注意后面的文件名要与你下载的保持一致!不要直接复制我的!
python -m pip install llama_cpp_python-0.2.82-cp310-cp310-win_amd64.whl
完成之后,再去启动SD就不会报找不到llama_cpp模块的错误了!