用一堆开源工具(主要是 KVM、openSUSE 和 Ollama),在你自己的电脑或服务器上搭建一个能跑人工智能(AI)的本地系统。这样你就不用把所有数据都传到云上,既保护隐私,速度又快。
核心思想:“边缘AI”就是把AI计算能力放在离数据产生的地方很近的地方(比如工厂、家里),而不是千里之外的数据中心。这篇文章就是教你怎么自己搭一个这样的系统。
需要啥准备?
- 一台能跑 KVM 虚拟机的电脑(算是基础环境)。
- 给每个虚拟机至少分 8GB 内存(想玩大模型最好16GB)。
- 懂点 Kubernetes(K8s,容器管理工具)和网络的基础知识。
- 先弄个虚拟机:
- 用作者写好的自动化脚本,一口气装好一个叫 edge-ai-01 的虚拟机,系统用 openSUSE Leap 15.6。
- 设个固定IP地址,方便以后找它。
- 给它起个主机名,顺便把防火墙关了(为了好调试,生产环境别乱关)。
- 用系统自带的软件管理器 zypper 安装一堆Kubernetes和存储需要的工具。
- 给虚拟机挂载一块硬盘,格式化一下,专门用来存AI模型和数据。
- 通过一个叫 Rancher 的管理界面,创建一个K3s(轻量版K8s)集群,然后把我们的虚拟机加进去。这样就能用kubectl命令管理了。
- 一条命令安装Ollama,它就是个能让你在本地跑各种AI大模型(如Phi3)的工具。
- 配置一下,让Ollama能被集群里的其他服务访问到。
- 根据你的电脑内存大小,选择下载不同的模型。内存小就下“精简版”(量化模型),内存大就下“完整版”。
- “精简版”模型能省大约75%的内存,效果差不多。
- 把作者准备好的示例应用(一个叫Streamlit的网页界面)部署到Kubernetes集群里。
- 告诉这个应用,Ollama在哪里,让它能调用AI模型。
- 部署Longhorn,这样集群里所有虚拟机都能共享存储了,模型和数据在哪台机器上都能访问。
- 可以照葫芦画瓢,再搞几台虚拟机(edge-ai-02, edge-ai-03),都加入集群。
- 给不同的机器打上标签,比如有的专门用GPU跑大模型,有的用CPU跑小模型,合理分配任务。
- 部署Prometheus和Grafana这样的监控工具,就能在网页上看到集群的性能怎么样,比如CPU、内存用了多少。
- 文章给了很多命令,用来查看状态、管理模型、扩缩容服务。
- 也提供了各种访问地址:比如AI应用的页面、监控面板等。
- 还列出了常见问题的解决办法(比如虚拟机连不上了、Ollama服务出错了怎么办)。
这么搞有啥好处?
- 数据隐私:所有数据都在自己家里跑,不会泄露到公网。
- 扩展性强:用Kubernetes,想加机器就加,很容易扩容。
- 稳定可靠:多台机器加共享存储,一台坏了别的还能顶上一阵。
- 省钱:用自己的硬件,不用没完没了地给云服务商交钱。
- 灵活:不管你是土豪设备还是平民设备,都能找到合适的模型来跑。
总结:这篇文章是一份非常详细的“家庭实验室”指南,教技术爱好者如何用开源软件搭建一个私有的、功能强大的AI计算平台,让你完全掌控自己的AI和数据。详细点击标题。