自从用了ollama后工作轻松多了。对于我等小白,要想简单使用ai还是比较难的。难得学习了shepherd[AI奇技淫巧系列],经过3个月的攻坚终于建好了pinokio。在pinokio里面安装好了openwebui和comfyui。然后在pinokio里面安装了xtts等模型。简单总结一下:
pinokio比较方便统一管理模型,然后能够很方便的进行数据迁移。包括迁移openwebui和comfyui里面下载的模型。
1、pinokio和ollama是不同的两个app,我用的是windows的。分别下载安装,尽量安装在d盘等专门存放数据的地方,以免撑爆c盘。现在ollama已经更新到在ollama软件的设置里面就可以设置model的存放位置。pinokio也一样。2、遇到问题怎么办?刚开始我是deepseek,只能文字描述无法解决问题。后面用chatgpt能够直接截屏让它回答,但是我没有会员,只有固定的询问次数。最后我安装了cursor最终解决了所有的安装问题,期间我删除了所有的ai程序和文档,然后chatgpt还建议我弃用pinokio,重新按照平行的ollama、anythtingllm、openwebui、comfyui建立一个ai服务,配置更麻烦。后面使用cursor后直接定位到pinokio文件夹,把所有出现的故障直接贴上,然后他会读取文件夹内相关的文件记录,帮我们解决故障。所有问题迎刃而解。3、说一下思路:在pinokio里面安装ai,pinokio就是一个容器(就像docker)然后在里面安装ai就需要各种环境。安装前更新显卡驱动到最新。要在本机装好git(需要用git克隆comfyui才能安装comfyui)。要在本机装好cursor(报故障可以直接问)。4、很重要的是网络环境。一般不需要网络环境,但是GitHub偶尔抽风,安装comfyui然后在huggingface里下载模型必须需要网络环境。我是用nthing。5、注意:pinokio里面的python和本机的python不相关。里面每个模型或者app都会有自己的环境,注意安装时要带目录,chatgpt就没有提醒我这一点然后老是失败,害我老是整个目录删除重装。比如安装comfyui(最难搞定)时在pinokio里面点击安装后会提示:dependencies isnot iterable。需要安装完git后用系统的powershell,x:\pinokio\api\confyui.pinokio.git目录下执行gitclone https://github.com/com/comfyanonymymous/comfyui.git。 然后在x:\pinokio\api\confyui.pinokio.git目录下分别执行这三条命令(注意\前面的点):.\env\scripts\python.exe -mensurepip --default-pip。.\env\scripts\python.exe-m pip install --upgrade pip。.\env\scripts\python.exe-m pip install -r requirements.txt。安装完毕后注意comfyui的启动有两个一个是gpu版本,一个是cpu版本,如果驱动不对还是不能运行gpu版本。个人具体情况询问cursor最方便直接。我完整安装完毕后的comfyui大小是6.19GB。剩下的就是自己使用了。使用cursor和pinokio里面挑选几个模型用熟用精已经能够解决一般人80%的问题了。至于最新的openclaw我们就别吃了。静静等待,未来已经在路上很快就会来临。
赞(82)