Ollama 端口暴露
Ollama 服务 默认的地址是 localhost(127.0.0.1),只能本地服务使用,但 ollama […]
AI 技术
今天推荐一个 HuggingFace 的网站 https://hf-mirror.com 方法一:网页下载 在
下载Hugging Face模型的国内站点 Read More »
适用于 Linux 的 Windows 子系统 (WSL) 2 是由 Microsoft 构建的完整 Linu
WSL2 使用 Windows 上的 Docker Desktop Read More »
本教程使用了surya-ocr库,实现本地RAG, 使用了嵌入模型 bert-base-multilingua
RAG 入门教程(PDF-Ollama) Read More »
本教程使用了surya-ocr库,实现本地RAG, 使用了嵌入模型 bert-base-multilingua
RAG 入门教程(PDF-WSL2) Read More »
一种常见的RAG(Retrieval-Augmented Generation)的实现方式,其中利用一个较小的
一种常见的RAG(Retrieval-Augmented Generation)的实现方式 Read More »
这是我们著名的“5 行代码”入门示例,其中包含本地LLM和嵌入模型。我们将使用 nomic-embe
LlamaIndex 入门教程 (Ollama) Read More »