这个AI Model Capability Analyzer是一个Python工具,可以检查系统的硬件,并告诉您哪些AI模型可以在本地实际运行。点击标题
它自动:
- 检测CPU、RAM、GPU和可用磁盘空间
- 获取200多个AI模型的元数据(来自Ollama和相关来源)
- 将系统资源与每个型号的要求进行比较
- 生成包含建议的详细兼容性报告
运行该工具后,您将获得一个报告,显示:
- 您的系统支持多少型号
- 哪些比较合适
- 建议的优化(量化、GPU使用等)
目标受众
该项目主要用于:
- 开发人员尝试使用本地LLM
- 在消费类硬件上运行AI模型的新手
- 任何人在浪费带宽和磁盘空间之前决定哪些模型值得下载
比较
与现有替代品相比:
- Ollama告诉您如何运行模型,但不告诉您的硬件可以处理哪些模型
- 硬件需求表通常是静态的、不完整的或特定于型号的
- 手动检查需要自己处理VRAM、RAM、量化和磁盘估计
- 集中模型数据
- 自动化系统检查
- 提供适合您的计算机的单一兼容性视图
关键特征
- 自动硬件检测(CPU、RAM、GPU、磁盘)
- 200+支持的模型(Llama,Mistral,Qwen,Gemma,Code models,Vision models,embeddings)
- NVIDIA AMD GPU支持(包括多GPU系统)
- 基于真实的资源约束的兼容性评分
- 人类可读的报告输出(ai_capability_report.txt)
✓ CPU: 12 cores |
如何工作(高水平)
- 分析系统硬件
- 获取AI模型要求(参数、量化、RAM/VRAM、磁盘)
- 根据可用资源对兼容性进行评分
- 生成建议和优化提示
- Python 3.7+
- psutil,请求,BeautifulSoup
- GPUtil(GPU检测)
- Windows(Windows支持)
限制
- 兼容性分数是估计值,不是保证
- VRAM检测可能因驱动程序和操作系统而异
- 主要针对NVIDIA和AMD GPU进行优化