Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
限定上下文BC
抽象两种方法:上下文与类型
“抽象”的中文意思是“抽出象形”。奥妙就在于实现手段有很多,也是创新所在,这里比较三种手段: 首先是中文字面意思上的“抽象”:抽出象形,中国文化谓之为神,例如中国水墨国画,还有古诗词:“窗前明月光疑是地上霜”,明月光和地上霜是两个有实在内容的实体,李白把它
什么是大语言模型的检索增强生成 (RAG)?
RAG(Retrieval-Augmented Generation:检索增强生成) 是一个人工智能框架,用于减轻大模型的“幻觉”问题。 大语言模型的回答经常可能不一致。有时他们会确定问题的答案,有时他们会从训练数据中反省随机事实。如果他们有时听起来像是不
微服务不是问题,无能才是!
微服务不是问题,认知能力才是关键,无法意识到"认知负荷"存在的人,是无能的人,是组织无能 微服务本身并不是问题,对于较小的产品,单体架构也不一定更适合。 无能软件
Clean架构的文件夹、模块和包结构举例
简洁Clean架构是构建应用程序的一种流行方法。 这是一个分层架构,将项目分为四个层次:DomainApplicationInfrastructurePresentation</
逻辑形式错误:连续谬误
连续谬误(Continuum Fallacy):拒绝一项要求,因为它处于两个极端之间的连续体上。因为不精确而拒绝一个主张。 也称为胡子谬误、画线谬误、或决策点谬误、索里特sorites悖论、胡须谬误、画线谬误、堆谬误、串联谬误和秃头人谬误</
DDD领域消息建模表示法
设计松耦合系统需要的不仅仅是精心设计的边界。仔细定义有界上下文之间的交互同样重要。 有界上下文BC是软件架构中与域的一部分对齐保持一致的子系统。它可以作为微服务或单体中的模块来实现。 领域消息流程图是一个
GPT-4-turbo是长上下文的RAG
GPT-4-turbo 现在可以处理 128K 输入令牌!这是下一代 RAG:长上下文 RAG! 什么是RAG?RAG(Retrieval-Augmented Generation:检索增强生成) 是一个人工智能框
经合组织通过了人工智能系统的新定义
这个新定义反映了过去五年人工智能的发展。更新后的经合组织定义将继续作为经合组织国家和其他地方立法和监管的基础。 新定义如下:人工智能系统是一种基于机器的系统,为了明确或隐含的目标,从接收到的输入推断如何生成输出,例如预测、内容、建议、或可能
什么是“4P知识”
我们被困在名为 "自我 "的心灵软件程序中 ,关键是无法自知,不知道自己有哪些不知道的知识? 约翰-韦尔韦克(John Vervaeke)提出的知识的 4P(4Ps of knowledge)。 - 命题知识(事实知识) - 程序性
DDD界限上下文与模块化实现的矛盾
在构建Web应用时,使用Java的原生模块或Maven模块都无法实现有界上下文(Bounded Context)。Maven模块和Java自己模块都无法构建隐含有界上下文的模块。Maven模块在构建Web应用程序时鼓励错误的共享,如需要为每个业务上下文定义不同的模型
如何构建实实在在的能力模型?
业务能力是组织规划生态系统的核心。能力映射有多种用途,其中两个至关重要。首先,业务能力有助于更快地确定优先级,首先关注最有利可图的计划。其次,精心设计、扎实的、基于能力的详细路线图可以实现更准确、风险更低、时间更短的敏捷项目规划。 什么是能
可操作的辩证法:格塔德-冈特的控制论系统
本文介绍了格塔德-冈特(Gotthard Günther)富有远见的工作,他试图通过二阶控制论来操作黑格尔的辩证法,促使人们探索解决计算系统中复杂性的挑战。 古典形而上学假设知识过程中只存在两种位置:知识的主体和产生知识的客体。
Rust中变量的作用域、上下文与生命周期
在 Rust 中,变量的作用域和上下文由所有权、借用和生命周期规则决定。Rust 的所有权系统无需垃圾回收就能确保内存安全。以下是 Rust 中的主要变量类型及其作用域: 1.本地变量: 作用域:局部变量在
Java中变量的作用域、上下文与生命周期
在 Java 中,变量的作用域和上下文决定了变量的访问位置以及在内存中的保留时间。变量有多种类型,每种类型都有自己的作用域和上下文: 1.本地变量: 作用域:局部变量在方法、构造函数或代码块中声明。 上下文:它们只能在声明它
如何按照功能设计模块包?
下图是一个高耦合、低相干性的两个包调用设计:
新研究:AI加速复杂上下文中的问题解决
研究人员开发了一种新的数据驱动的机器学习技术,可以加速用于解决复杂优化问题的软件程序,这些问题可能有数百万个潜在的解决方案。他们的方法可以应用于许多复杂的物流挑战,例如包裹路线、疫苗分发和电网管理。 问题目标: 对于像联邦快递这样的
大语言模型如何在上下文中绑定实体?
心理学家长期以来一直在研究绑定问题:人类如何将一个对象的特征识别为与该对象绑定,而不是与其他对象绑定? 现代大模型LM毫不费力地解决了这些任务。 当给出 "绿色正方形 "和 "蓝色圆形 "的上下文时,语言
基于语境上下文学习推理是AI下一步大事情
对真正的超级人工智能(ASI)或类人人工智能(AHI)的看法。表面上,定义已经改变,但目标应该是深刻而又极其简单的。 这个目标应该是“hello world”,让AI从说hello开始,正如人类婴儿刚开始发第一次说话声音一样,之后开始与父母沟通交流和学习。
上页
下页