Ssenseii/ariana:了解您的硬件可以运行哪些AI模型的开源工具


这个AI Model Capability Analyzer是一个Python工具,可以检查系统的硬件,并告诉您哪些AI模型可以在本地实际运行。点击标题

它自动:

  • 检测CPU、RAM、GPU和可用磁盘空间
  • 获取200多个AI模型的元数据(来自Ollama和相关来源)
  • 将系统资源与每个型号的要求进行比较
  • 生成包含建议的详细兼容性报告
我们的目标是消除诸如“我的机器能运行这个模型吗?”之类的问题的猜测。或者“我应该先尝试哪种模式”

运行该工具后,您将获得一个报告,显示:

  • 您的系统支持多少型号
  • 哪些比较合适
  • 建议的优化(量化、GPU使用等)

目标受众
该项目主要用于:

  • 开发人员尝试使用本地LLM
  • 在消费类硬件上运行AI模型的新手
  • 任何人在浪费带宽和磁盘空间之前决定哪些模型值得下载
它不适用于生产调度或基准测试。将其视为实用的分析和学习工具,而不是部署解决方案。

比较
与现有替代品相比:

  • Ollama告诉您如何运行模型,但不告诉您的硬件可以处理哪些模型
  • 硬件需求表通常是静态的、不完整的或特定于型号的
  • 手动检查需要自己处理VRAM、RAM、量化和磁盘估计
该工具:
  • 集中模型数据
  • 自动化系统检查
  • 提供适合您的计算机的单一兼容性视图
它不能取代基准测试,但它大大缩短了试错阶段。

关键特征

  • 自动硬件检测(CPU、RAM、GPU、磁盘)
  • 200+支持的模型(Llama,Mistral,Qwen,Gemma,Code models,Vision models,embeddings)
  • NVIDIA AMD GPU支持(包括多GPU系统)
  • 基于真实的资源约束的兼容性评分
  • 人类可读的报告输出(ai_capability_report.txt)
示例输出
✓ CPU: 12 cores
✓ RAM: 31.11 GB available
✓ GPU: NVIDIA GeForce RTX 5060 Ti (15.93 GB VRAM)

✓ Retrieved 217 AI models
✓ You can run 158 out of 217 models
✓ Report generated: ai_capability_report.txt

如何工作(高水平)

  1. 分析系统硬件
  2. 获取AI模型要求(参数、量化、RAM/VRAM、磁盘)
  3. 根据可用资源对兼容性进行评分
  4. 生成建议和优化提示
技术堆栈
  • Python 3.7+
  • psutil,请求,BeautifulSoup
  • GPUtil(GPU检测)
  • Windows(Windows支持)
适用于Windows、Linux和macOS。

限制

  • 兼容性分数是估计值,不是保证
  • VRAM检测可能因驱动程序和操作系统而异
  • 主要针对NVIDIA和AMD GPU进行优化
实际性能仍然取决于模型实现、驱动程序和系统负载。