置顶 推荐 Famd M3U8下载器
Flutter   2023-10-25 15:57   13219   27  
FamdM3U8视频下载器源码已在GitHub上全部开源。您可在GitHub上免费下载源码以及安装包。 如果您想支持一下作者,您可以前往B站小店请作者喝杯奶茶表示鼓励。
Tauri   2026-01-09 10:46   130   0  
最近遇到一个项目要在内网使用,还要加载离线地图。为了下载离线地图,几乎找遍了全网,大多数都要收费。不过好在找到了几款免费的工具下载到了地图。为了不受制于人,我决定自己开发一款地图下载器。
Tauri   2026-01-27 15:53   90   0  
在开发 Gisvip 地图下载器的过程中,用户可通过托盘快速唤起窗口或退出程序。本文将详细拆解 Tauri 中系统托盘的创建、配置与功能实现,分享从基础用法到完整实战的全过程。
Tauri   2026-01-12 09:59   102   0  
在给 Tauri2 项目打包生成 exe 可执行文件时,我遇到了频繁打包失败的问题——终端总是提示某处 TypeScript 代码存在语法或类型错误。哪怕是一些不影响功能运行的类型提示,都会被判定为“错误”从而中断打包。
AI   2025-05-22 10:18   487   0  
上个视频中说到了按照官方文档安装的Xinference 启动的模型是使用CPU推理的 并没有调用GPU来推理 这个视频就来说说如何调用GPU 我在GitHub这里找到了解决方案 上个视频中升级了llama-cpp-python 但是只是升级还不够 还需要在安装llama-cpp-python的时候加一个参数
AI   2025-05-22 10:17   455   0  
上个视频中说到的HUB目录到模型文件的路径 可以参考视频顶部我这里的路径 我这里填写的是Q5_K_M的模型路径 模型大小这里填写1.5,也就是1.5B的意思 量化这里填写就填Q5_K_M 量化的具体说明可以我观看上一个视频 如果你下载了多个GGUF文件的话 比如我这里还下载了Q6_K、Q8_0模型
AI   2025-05-11 19:40   409   0  
现在来说说适用于Xinference的模型格式选择与下载 我们需要手动下载模型文件来部署 所以xinference首页这里的内置模型就不用理会了 点击左侧的“注册模型”按钮切换到模型注册页面 后面模型文件下载之后就在这里配置和部署 模型文件可以在魔塔社区下载 在搜索这里搜索自己想要下载的模型即可
AI   2025-05-07 15:27   408   0  
因为我这里上面已经有一个Xinference容器了 所以这里我把端口和容器名都改一下 这里注释掉的配置是目录的映射配置 目录映射这里有3个目录需要映射
AI   2025-05-06 17:05   439   0  
我这里选择在WSL2中使用Docker安装Dify 先用Xshell登录WSL2 接下来的操作都在Xshell里操作 安装步骤比较简单 跟着Dify官方文档一步一步来就行了 首先克隆源代码到本地 克隆后面的版本号可以改成最新的版本号 源代码也可以到GitHub去下载 最新版本号可以到Releases这里查看
AI   2025-05-06 17:04   481   0  
搭建一个本地知识库问答机器人需要在本地部署两个工具 AI 知识库构建平台和AI大模型部署工具 AI 知识库构建平台的选择有:Dify、FastGPT AI大模型部署工具:Xinference、Ollama 本视频集选择的是Dify和Xinference Dify和FastGPT各有优缺点