• 有一种观点: 您不需要分布式系统!如今的计算机速度如此之快,您只需一台机器即可为所有客户提供服务 这种论点是愚蠢和简单化的。 这一论点基于一个事实: 现代机器非常强大,每秒可以完成大量工作,甚至可以将一些大
  • 道生一、一生二、二生三、三生万物,生成式人工智能是如何从人类一步步生成思维中获得帮助? 加法运算:你所需要的只是纸和笔以及一点耐心。从 1 位开始,一步一步向左加,很快你就能轻松堆出五万亿。 像这样的问题
  • “扩展数据库的最佳方式就是不要数据库”——Cursor 联合创始人/CTO 1、AI的规模和传统互联网不一样。以前说“规模大”就是网站访问量多。但AI的规模大,意味着每天要在自己的电脑上处理上亿次昂贵的智能 icon
  • BitNet b1.58 2B4T是微软研究院开发的第一个开源、纯1比特大语言模型(LLM),规模达到20亿参数。 它用4万亿个token训练而成,证明了纯1比特的大语言模型性能可以媲美同尺寸的主流开源全精度模型,同时在计算效率(内存占用、能耗、响应速度) icon
  • Kubernetes 作为容器编排平台,对于解决许多企业采用微服务带来的问题至关重要。公司越来越多地使用微服务跨多个平台管理大量小型容器,如果网络管理和资源分配管理不当,可能会导致性能问题。然而,当可扩展性和可用性得到成功管理时,这些问题就不再是一个问题。 icon
  • Apache Kafka 到目前为止已经非常适合开发可靠的互联网规模的流应用程序,这些应用程序还具有容错能力,并且能够处理实时和可扩展的需求。在本文中,我们将重点介绍 Java 中的 Kafka 集群架构。 在本文中,我们将了解 Apache Kafka icon
  • 谷歌的Griffin论文完美地展示了缩放定律。由于参数扩展了 7 倍,任务性能提高了大约 10%。全部都使用相同的 3000 亿代币数据进行训练。当您跨参数 icon
  • 在本文中,通过 Docker Compose 运行的实际演示来了解数据库 (MariaDB) 的高可用性和弹性。 关键任务应用程序需要高可用性。高可用性的目标是为用户提供对服务或资源的一致访问,最大限度地减少中断的可能性。自动故障转移是用于实现高可用性的特 icon
  • 数据库对于信息系统至关重要,尤其是在高负载的微服务架构中。经过适当设计和优化的基础可确保系统的高性能、可扩展性和稳定性。在本文中,我们讨论了用于有效管理微服务环境中的数据库的各种策略和技术。 1、水平扩展:分片水平 icon
  • 随着机器学习模型变得越来越复杂和数据集变得越来越大,可扩展性成为从业者和研究人员的一个重要关注点。虽然 Python 的 scikit-learn 库提供了广泛的机器学习算法,但其有效处理大型数据集的可扩展性一直是人们感兴趣的话题。在这篇博文中,我们将探索使用 scikit-learn 实现可扩展学 icon
  • 我们搞了个AI模型"闪电启动器",让大模型像Windows休眠功能一样秒开秒关! 以前跑AI大模型特别麻烦——每次用都要重新加载,像开电脑等系统启动一样慢,而且显卡内存根本塞不下几个模型。现在我们搞出了新方法,2-5秒就能唤醒一个AI(130亿到650亿参 icon
  • 有很多因素会影响数据库的性能。一些重要的因素如下: 数据项大小:数据库中存储的项目的平均有效负载大小决定了工作负载是受 CPU 限制还是受存储限制。 数据项类型:项目类型直接影响可能的压缩类型。例如,如果您存储的是文本,则可以利用高压缩率。但存储图像、视频或加密数据时,压缩率 icon
  • 在本教程中,我们讨论了 Apache Accumulo,这是一个多功能、可扩展的数据库,擅长处理具有复杂访问要求的海量数据集。 其独特的功能(例如单元级安全性、迭代器和灵活的数据模型)使其成为需要安全高效的数据管理(用于实时分析、安全数据处理或大规模数据存 icon
  • 想要让您的 API 网关在流量增长时保持平稳运行?以下是如何扩展并保持可用性的方法:负载平衡:跨服务器分散请求添加更多服务器:提高处 icon
  • Dario是2020 年原始扩展定律论文的作者,他谈了对当前 AI 模型扩展趋势的看法,特别是对 DeepSeek v3 和 Claude 3.5 Sonnet 的分析。 Dario 指出,AI 领域不断涌现出各种创新,这些创新可能是对模型架构的改进(比如 icon
  • 人们已经完全改写了 "缩放定律 scaling laws"的本意:最初的意思是: 在更多的数据上预训更大的大语言模型LLM会带来更多的 icon
  • 人工智能研究员 François Chollet最近在谷歌工作十年后离开,创办了自己的公司。他的 icon
  • 当多家公司的多份媒体报告都报告了收益递减,Open AI奥特曼发推特说:there is no wall. 收益递减一说来自与OpenAI宫斗出局的伊利亚Ilya,他说靠大规模计算资源实现智能涌现的收益已经开始递减,此路不通。 icon