Lumos:本地大模型Chrome插件


Lumos 是浏览网页的大模型副驾驶,由本地大语言模型 (Ollama) 提供支持。

  • - 总结问题跟踪网站、论坛和社交媒体网站上的长主题
  • - 总结新闻文章
  • - 询问有关业务和产品页面评论的问题
  • - 询问有关长技术文档的问题

此 Chrome 扩展程序由Ollama提供支持。推理是在本地计算机上完成的,无需任何外部服务器支持。然而,由于Chrome扩展平台的安全限制,该应用程序确实依赖本地服务器支持来运行LLM。

嵌入数据库和 LLM 推理需要本地 Ollama 服务器。在此处下载并安装 Ollama 和 CLI 。

Ollama 服务器也可以在 Docker 容器中运行。容器应将OLLAMA_ORIGINS环境变量设置为chrome-extension://*。

docker run使用标志运行-e以设置OLLAMA_ORIGINS环境变量:
docker run -e OLLAMA_ORIGINS="chrome-extension://*" -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

根据需要更新主机和端口 ( src/scripts/background.ts):
const OLLAMA_BASE_URL = "http://0.0.0.0:11434";

构建Chrome 扩展程序
在项目目录中,您可以运行:
npm test
在交互式监视模式下启动测试运行程序。有关详细信息,请参阅有关运行测试的部分。
npm run build
将用于生产的应用程序构建到dist文件夹中。它在生产模式下正确捆绑 React 并优化构建以获得最佳性能。
构建被缩小,文件名包含哈希值。您的应用程序已准备好部署!
有关详细信息,请参阅有关部署的部分。

安装Chrome插件
加载解压的扩展(安装)
load-unpacked>https://developer.chrome.com/docs/extensions/mv3/getstarted/development-basics/load-unpacked