• 3D 建模是使用 3D 计算机视觉中的专业工具为项目的任何 3D 面创建数学模型的技术。3D 模型似乎是产品的名称。建筑师可以手动或机械地构建模型。简单:这里有详尽的解释,包括定义、起源、类型和应用。3D 建模是使用专业软件通过改变复制的 3D 空间中的边缘、顶点和顶点,在三个维度中
  • 对于数据库行业来说,这是疯狂的一年,随着年底的临近,在我们进入 2022 年时值得反思和评估。以下是一些亮点以及我对它们对数据库领域可能意味着什么的一些想法。 PostgreSQL 的统治地位开发人员的传统观念已经转变:Postgre
  • 有望替代Hadoop的MinIO最新的 NVMe 基准测试打破了之前的记录:读取速度达到 2.6Tbps。在这篇文章中,我们将介绍基准测试环境、工具、如何自行复制以及详细的结果。总的来说,MinIO实现了 1.32 Tbps 的 PUT 吞吐量和 2.6 Tbps 的 GET icon
  • 在这篇文章中,我们将看到如何使用 WSL 在同一台 Windows 11 机器上安装完整的 Hadoop 环境。 安装依赖您需要安装两个重要的依赖项才能使 icon
  • 数据湖 通常与面向 Hadoop 的对象存储相关联。在这种情况下,组织的数据首先上传到 Hadoop 平台,然后对驻留在 Hadoop 集群节点上的数据应用数据挖掘和分析工具。我们发现 Hadoop 的核心是它的存储层HDFS(Hadoop 分布式文件系统),它可以跨多个服务器存储和 icon
  • Data Fabric和Data Mesh数据网格都认为:在物理上集中所有数据是徒劳的。他们都认识到数据量只会增长,而数据源只会成倍增加。结果,这两者有时往往会混为一谈。但是它们在理念和实施方面都非常不同,并且每种方法都有很大的优点。从本质上讲,数据网格是一种类似于联 icon
  • 在处理数据分析项目时,应该遵循一些固定的任务来获得预期的输出。所以在这里我们将构建一个数据分析项目周期,这将是一组标准的数据驱动流程,以有效地将数据引导到洞察力。项目生命周期的定义数据分析过程应遵循使用输入数据集有效实现目标的序列。该数据分析过程可能包括识别数据分析问题、设计和收集数据集、数 icon
  • Hadoop 和 NoSQL 都与大数据密切相关。它们都非常适合管理大型数据集和处理各种数据格式。看起来他们是竞争对手,但事实是,他们不是。 尽管 它们都用于大数据处理,但它们都是为不同的工作负载而 设计 的。Hadoop 适用于分析和历史档案用例, icon
  • Polars 是使用 Apache Arrow Columnar Format 作为内存模型在 Rust 中实现的速度极快的 DataFrame 库。 懒惰 | 急切的执行 多线程 SIMD 查询优化 强大的表达API Polars 可 icon
  • 以下数据来自福布斯,“大数据景观”: - 日志数据应用程序:Splunk、Loggly、Sumo Logic - 垂直应用:Predictive Policing、BloomReach、Atigeo、Myrrix - 作为/媒体应用:Media Science icon
  • 作为提取、转换和加载 (ETL) 处理的临时平台,Hadoop 在数据仓库中的重要性正在迅速发展。提到 ETL,Hadoop 被视为数据准备和转换的逻辑平台,因为它允许他们完美地管理大量、多样性和速度的数据。Hadoop 被广泛认为是 ETL 的最佳平台,因为它被认为是企业大数据的通用暂存区 icon
  • 在过去的几年里,Hadoop 得到了无数赞誉——Hadoop 是一个以大象命名的强大的、用于存储和处理数据的开源框架。许多在 Hadoop 生态系统中投入巨资的组织发现自己处于十字路口,想知道 Hadoop 之后的生活是什么样的,以及未来会怎样。本文讨论了 Hadoop 之后的生活,并为进入 icon
  • 2022年会崛起的项目有: DBT:使用 dbt,数据团队直接在仓库内工作,为报告、ML 建模和操作工作流生成可信数据集。dbt 帮助数据团队像软件工程师一样 icon
  • 在这篇博文中,我们将看看面试中出现的一些最常见的 apache hive 面试问题和答案。1. 什么是Apache Hive?Apache Hive 是一个构建在 Hadoop 之上的数据仓库基础设施,并在HDFS(Hadoop 分布式文件系 icon
  • 21. 如果上传一个 500MB 的文件到 HDFS。如果 100MB 的数据已经在 HDFS 中成功上传,而另一个客户端即将读取上传的数据,而上传仍在进行中。那么会发生什么呢?上传的那100MB数据是否会显示?Hadoop1x 的默认块大小为 64MB,Hadoop2x 的默认块大小为 1 icon
  • 本文将列出您在面试当天可能遇到的一些最常见的问题。无论您的接触程度如何,此列表都包含从基础到高级问题的所有内容,涉及 Hadoop 集群、HDFS、MapReduce、HBase、Pig 和 Hive。1.什么是大数据?任何难以捕获、整理或分析的数据形式都可以称为“大数据”。然而,在 icon
  • Apache Pulsar 是一个开源的分布式发布-订阅消息系统,与kaffka根本不同的是持久性存储。在 Kafka 中,日志保存在代理上,而 Pulsar 使用Apache BookKeeper,这似乎是一个真正的优势,尤其是在扩展方面。BookKeeper 的另一个诱人特性是分层存储。 icon
  • 问:Hadoop 是用来做什么的? 答: Hadoop 是一个开源软件框架,用于存储数据,然后在商用硬件组上运行应用程序。Hadoop 为任何类型的数据提供巨大的存储空间、强大的处理能力以及处理几乎无限并发任务的能力。 问:如何准备大数据面试? 答:准备大数据 icon