Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
DevOps教程
亚马逊AI把码农逼成码头工人
最近亚马逊的程序员们集体破防了!他们发现自己的工作越来越像仓库里搬箱子的——每天被AI催着赶工,脑子都快转不动了。不过也有人觉得真香,这到底咋回事呢? 亚马逊的程序员兄弟们最近有点儿烦。这事儿得从工业革命说
Eclipse OpenJ9 JVM 指南
在本教程中,我们了解了 OpenJ9 在减少内存使用和加快启动速度方面如何成为绝佳选择。它非常适合云工作负载、微服务和容器化应用。然而,在生产环境中使用 OpenJ9 之前,我们应该根据具体工作负载进行测试。 同样的建议也适用于 GC 策略的选择。每个策略
Chrome插件:浏览器MCP智能遥控器
MCP 是用来管理你的浏览器的工具。这个浏览器MCP其实就是一个"遥控器服务器",能让VS Code、Claude这些程序像用遥控器一样操作你的浏览器。 它能干嘛呢: 自动上网和填表格 从网页里整理出规整的数据 用A
OSHI:获取系统和硬件信息Java库
在本文中,我们了解到 OSHI 是一个功能强大但轻量级的 Java 库,用于检索系统和硬件信息。它消除了处理本机系统命令、JNI 或特定于平台的依赖项的麻烦,使其成为需要跨平台系统监控的开发人员的绝佳选择。 在本教程中,我们将学习一些有趣的东西,它们可以帮
autoMate:理解屏幕的开源智能助手
人工智能驱动的本地自动化助手,让你的计算机为你工作,类似manus和
Jolokia 与 Spring Boot 集成实现监控
在本文中,我们学习了如何将 Jolokia 与 Spring Boot 集成。首先,我们了解了初始设置和一些基本命令。 接下来,我们探讨了如何保护各种 MBean 的访问和操作,即通过限制 IP 地址、将命令列入白名单以及允许或拒绝某些 MBean 及其属
Crane:类似llama.cpp实现本地运行模型
基于纯 Rust 的 LLM 推理引擎,由 Candle 框架提供支持。 Crane 专注于利用 candle 框架中内核的强大功能来加速 LLM 推理速度,同时减少开发开销,使其在 CPU 和 GPU 上都具有可移植性和快速运行模型。 <
常见的 Go 性能模式
优化 Go 应用程序需要了解有助于减少延迟、提高内存效率和增强并发性的常见模式。本指南将 15 种关键技术分为四个实用类别。内存管理和效率 这些策略有助于减少内存流失,避免过度分配,并改善缓存行为。
微服务:创业者的毒鸡汤!
这篇文章出自一个安全至上的作者视角,或者说智勇双全中的勇敢缺乏了点,是安全利他主义,不是加速主义世界观: 创业公司怎么选技术架构?别被"微服务"忽悠瘸了!(就像盖房子,你见过谁家茅草屋非要装电梯吗?)1. 创业公司保命秘诀:(ban
TLS证书有效期将正式缩短至47天
CA和浏览器大佬们开会投票决定:以后网站安全证书(TLS证书)的有效期要缩短,证书里验证过的信息也不能一直重复用了。第一批变化2026年3月开始生效。 这个决定吵了很久,改了好多版,听了发证机构和用证书的人的意见。投票在2025年4月11日结束,总算定下来
请求折叠:更智能的缓存,更快的响应
想象一下,有很多人同时去问同一个问题,想要得到同样的答案。如果这个答案还没有准备好,每个人都得自己去查一遍,这样不仅浪费时间,还会让系统变得很慢。 请求折叠就是为了解决这个问题。它让第一个人去查答案,其他人就等着。等第一个人查到了,大家就都用这个答案。这样
2025年4月系统集成文章摘要
2025年4月集成摘要: 10 API链接器和描述验证器
API密钥≠密码!真实翻车现场
API密钥不是密码!这些血泪教训让你秒懂区别 你的API密钥不是密码!把它们当密码用?灾难正在路上。
Objenesis:跳过构造函数直接创建对象
在本文中,我们探讨了 Objenesis 库,它允许我们在不调用构造函数的情况下创建对象,这使其对于序列化、模拟和代理框架很有用。 我们探索了它的工作原理,在项目中进行了设置,并通过实际示例了解了它的功能。然而,尽管 Objenesis 功能强大,但我们应
Subtrace:用于Docker容器的Wireshark
一个基于Go的Wireshark,用于你的Docker容器。它允许开发人员在后端服务器中查看所有传入和传出的请求,以更快地解决生产问题。 仅使用一个命令即可查看 Docker 容器中的所有传入和传出请求
使用Supervisor+Nginx部署Go API
这篇文章中,我将向您展示如何使用 Supervisor 部署一个简单的 Go API 来管理该进程,并使用 Nginx 作为 Web 服务器为其提供服务。 在深入部署步骤之前,让我们简单讨论一下为什么使用 Supervisor 和 Nginx。 <
Valet Key模式:安全直访数据,绕过中介提升效率
软件应用程序通常需要一个中间人(比如服务器)来帮忙管理数据的流动、共享和存储。当客户端想要获取数据时,它会向这个服务请求数据。然后,服务会从存储数据的地方找到数据,并把它传给客户端。 举个例子,云服务可能会先在自己的服务器上接收用户上传的文件,然后再把这些
在Docker中将能运行本地AI模型
Docker Model Runner 通过消除复杂设置、处理依赖项和优化硬件,使运行大模型 LLM 变得毫不费力 为基于云的推理提供安全、低延迟的替代方案,所有这些都无缝集成到 Docker Desktop 中。 直接从 Dock
上页
下页