-
-
3
-
14一、如何拯救岌岌可危的C盘空间? Ollama默认将模型存储到C:\Users\%USERNAME%\.ollama中,我们可以使用环境变量OLLAMA_MODELS重新指定存储路径,此后我们拉取新模型时就会存储到新路径,对于已存在于C盘的模型可以将blobs与manifests文件夹移动到新路径即可 二、如何对外开放Ollama服务? Ollama默认仅对本地网络(127.0.0.1)开放服务,若想使局域网或者互联网设备访问服务,我们可以使用环境变量OLLAMA_HOST来指定访问的IP与端口(值格式为:IP地址:端口号),例如:0.0.0
-
1一直显示这个,跑不起来
-
14
-
5Ollama 是一个开源项目,其目标是构建一个易于使用的基于LLaMA(Large Language Model Meta AI)的开源聊天机器人。LLaMA 是由Meta AI(前身为Facebook AI)研发的一种大型语言模型,它旨在为研究人员和开发者提供一种强大而灵活的工具,用于各种自然语言处理任务。以下是关于Ollama的一些特点: 1. 开源性质:Ollama 是开源的,这意味着任何人都可以免费使用、修改和分发它。 2. 基于LLaMA模型:Ollama 是基于LLaMA模型的,LLaMA模型具有不同的版本,参数量从7B到65B不
-
0在vscode里面跑ollama+graphrag代码时 在索引创建这一步跑的特别慢 打开任务管理器发现GPU基本上没有利用到 应该怎么办?
-
18Ollama官网:https://ollama.com/ Ollama Github:https://github.com/ollama/ollama MaxKB:https://github.com/1Panel-dev/MaxKB MaxKB部署&离线部署:https://github.com/1Panel-dev/MaxKB/wiki/1-%E5%AE%89%E8%A3%85%E9%83%A8%E7%BD%B2#15-%E7%A6%BB%E7%BA%BF%E9%83%A8%E7%BD%B2 Ollama离线部署:https://github.com/1Panel-dev/MaxKB/wiki/%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8Ollama%E7%A6%BB%E7%BA%BF%E9%83%A8%E7%BD%B2LLM%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B docker容器下载较慢时可以考虑更换国内源:https://gist.github.com/y0ngb1n/7e8f16af3242c7815e7ca2f0833d3ea6 ***来自b
-
0
-
564g内存,运行占用大概38g,为啥老慢了? 纯小白,了解了想下下来玩玩
-
0
-
1被搞晕了,以前都是在线上搞ai的,现在官网没了,类似被卡脖子了,想在本地部署一个,但奈何cpu有点小弱,显卡好像是5600xt, Cpu是e5v2,我根据最基础的教程,已经布置完毕了,也可以正常使用,但只会调动cpu,不会调动gpu,听说a卡也支持,好像也只支持6系列部分和7系列,但好像已经有人出了教程可以加上去旧a卡,也提供了下载,但他们的版本也太老了ollama都已经出3.1,他们那些教程的还是1.41,自行编程环境太困难了。 你们有没有最新的ollama
-
2
-
3
-
8在open-webUI 里试着传了些pdf、doc文档给gemma2,但它拒绝阅读,说 ‘ 很抱歉,我不能访问互联网或特定文件,包括你提到的 "*******" 文件。 我是一个文本语言模型,只能处理和生成文本。 ’... 所以想请教一下,该如何使它能阅读文档,或访问某网 址?
-
3用ollama生成内容的时候一开始很快,然后越来越慢。 重启电脑以后生成最快,过了一会就变慢了,我也没开别的进程啊,这是为什么呢?
-
6突然发现无法向对话框内粘贴内容,总不能再一字一字敲进去吧? 另外,每输入一行,回车后gemma2 就开始回答了,可我想输入几行后再让它回答,比如输入几行程序让他修改,该怎么做?
-
1是否有人尝试抓取ollama大模型的下载URL,或者说它托管在哪里。我希望使用motrix一类的下载器下载 对于230G的大模型,我太需要断点断续的功能了。
-
0
-
0
-
6
-
1
-
5Win10系统,被误导安装了Gemma2语言包,用的是 ollama run gemma2 命令,看它下载了5个多G,然后也不知道安哪去了。 结果很难用,离线翻译点漫画,告知有敏感词,翻译不了!我去,翻译不了要它何用? 现在问题是找不到它被装在哪了,请知道的大佬告知,多谢!
-
1anythingLLM下载完后运行不了,点了没反应
-
3亲爱的各位吧友:欢迎来到ollama
-
1ecs-aitest ollama[982]: /go/src/github.com/ollama/ollama/llm/llama.cpp/ggml/src/ggml-cuda/template-instances/../mmq.cuh:2422: ERROR: CUDA kernel mul_mat_q has no device code compatible with CUDA arch 700. ggml-cuda.cu was compiled for: __CUDA_ARCH_LIST__ 程序连上ollama后,提示这个东西是怎么回事