ollama吧 关注:90贴子:233
  • 18回复贴,共1

ollama相关网站

只看楼主收藏回复

Ollama官网:https://ollama.com/
Ollama Github:https://github.com/ollama/ollama
MaxKB:https://github.com/1Panel-dev/MaxKB
MaxKB部署&离线部署:https://github.com/1Panel-dev/MaxKB/wiki/1-%E5%AE%89%E8%A3%85%E9%83%A8%E7%BD%B2#15-%E7%A6%BB%E7%BA%BF%E9%83%A8%E7%BD%B2
Ollama离线部署:https://github.com/1Panel-dev/MaxKB/wiki/%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8Ollama%E7%A6%BB%E7%BA%BF%E9%83%A8%E7%BD%B2LLM%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B
docker容器下载较慢时可以考虑更换国内源:https://gist.github.com/y0ngb1n/7e8f16af3242c7815e7ca2f0833d3ea6
***来自b站up主玄离199


IP属地:河南来自iPhone客户端1楼2024-07-16 13:52回复
    教程BV1bU411Z7e0


    IP属地:河南来自iPhone客户端2楼2024-07-16 13:52
    回复
      大佬,我用Linux服务器部署ollama,修改环境变量后他的监听端口只有ipv6,但是公网ip是ipv4的,无法外部访问,改了环境变量不应该是ipv4也支持吗


      IP属地:安徽来自Android客户端20楼2024-07-20 17:03
      收起回复
        llama runner process has terminated: error loading model: unable to allocate backend buffer,请问一下加载一个80g的框架的时候显示的


        IP属地:湖北27楼2024-07-25 16:26
        收起回复
          大佬,我想让ollama后台运行,这样我就可以在anythingllm里用ollama,我在控制台里输了ollama serve,但是老是回答我不相关的问题,这是为啥,是我的代码输错了吗


          IP属地:河南来自Android客户端28楼2024-07-25 22:31
          收起回复
            32G内存能运行llama3.1 70b吗,40个G
            我显卡8G显存


            IP属地:浙江来自Android客户端40楼2024-08-31 03:15
            回复
              大佬,我用官网下载为什么下载速度慢?而且还会出现下载失败,需要认证的情况


              IP属地:黑龙江来自Android客户端41楼2024-09-05 07:09
              回复
                我配置了离线模型,但是它只能CPU运行,网络上说我的处理器核显性能相当于1650,有足够的内存分配。
                已设置HIP_VISIBLE_DEVICES,值是“0”。已设置HSA_OVERRIDE_GFX_VERSION,值是“11.0.3”。HIP SDK经过了扫描之后,显示是支持的,并且已经安装上。但是当前这个软件还是不能使用核显。
                出现这种只调用CPU的情况一般是什么原因呢?


                IP属地:广东来自Android客户端42楼2024-10-12 18:36
                回复