Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
DeepSeek大模型
美国AI闭源等死,中国AI开源碾压
本文来自一美国博文:我们需要一个美国版的深度求索(DeepSeek)。 我们需要一个自主、开源的通用人工智能(AGI)巨头,而且现在就要。 因为美国的前沿实验室正在输掉这场竞赛。 不信? 每出现一个美国的闭源或专有模型,我们就能看
本体管道:秘制语义知识库AI引擎
本体管道(Ontology Pipeline)怎么帮AI系统更好地理解知识? 现在要让AI和大语言模型表现好,必须给它们喂"有营养的知识"——就是那些整理得井井有条、带标签分类的知识库。但很多人对知识库有两种误解:
英伟达华硕重磅推出本地部署AI电脑
两款支持大模型本地开发和云部署的新AI计算机发布:华硕推出了Ascent GX10 AI超级计算机,搭载NVIDIA GB10 Grace Blackwell超级芯片,性能强大,支持高达1,000 TOPS的AI处理能力和128GB内存,适合处理大型AI模型。英伟达
Gemma、Mistral、QwQ挑战Deepseek,谁能胜出?
这是Gemma 3 27b vs. 阿里千问QwQ 32b vs. Mistral 24b vs. Deepseek r1测试。 上周,谷歌和Mistral公司分别发布了两个新的人工智能模型,叫做
DeepSeek V3升级版:M3每秒20个token
中国人工智能实验室 DeepSeek 刚刚发布了其庞大的 DeepSeek v3 模型的最新版本,并将发布日期融入名称中DeepSeek-V3-0324。 这是 DeepSeek v3 的更新版本,现在采用 MIT 许可证(以前是自定义的 Deep
法国顶级小模型Mistral Small 3.1发布,比肩阿里千问!
Mistral Small 3.1 是一个很厉害的、真正优秀的本地模型,用的是 Apache 2.0 许可证。现在的 AI 应用需要很多功能——比如处理文字、理解多种类型的输入(比如图片)、支持多种语言、还能处理很长的上下文内容,同时还要反应快、成本低。
Gemma 3微调提速1.6倍,VRAM节省60%
Gemma 3 现已在 Unsloth 中进行微调 - 速度提高 1.6 倍,VRAM 减少 60% Gemma 3 现已在 Unsloth 中支持微调,显著提升了训练效率。Unsloth 通过优化算法和硬件适配,使微调速度提高了 1.6 倍,同时
LangManus:LangChain+LangGraph开源智能体
LangManus 是一个社区驱动的 AI 自动化框架,它建立在开源社区的出色工作之上。我们的目标是将语言模型与专用工具结合起来,以完成网页搜索、抓取和 Python 代码执行等任务,同时回馈使这一目标成为可能的社区。 演示
1.78bit DeepSeek-V3-0324 - 230GB Unsloth 动态 GGUF
我们最初提供的是Deepseek-v3-03241.58 位版本,您仍然可以使用,但其输出效果不是最好的。因此,我们发现有必要通过增加向下项目大小来升级到 1
低耗高能!DeepSeek-V3 4bit 20tk/s仅200w
这可能是在消费硬件上运行 DeepSeek-V3 的最佳和最用户友好的方式,也可能是最实惠的方式。听起来你终于可以在家里本地运行 GPT-4o 级别的模型了,而且可能质量更好。 DeepSeek-V3 现在在 Mac Studio 上以每秒
2025年推理计算让大模型好像开挂了
这篇文章(点击标题)主要聊的是怎么让大语言模型(LLM)变得更会“推理”,尤其是通过“推理时计算”(inference-time compute)这个方法来提升它们的表现。2025年这块儿特别火,因为推理能力强了,模型就能解决更复杂的问题,用处更大。
睡不好觉,李开复全面拥抱Deepseek
前谷歌中国区负责人李开复正在调整他的人工智能初创公司01.AI,全面采用Deepseek的开源模型,并认为这对OpenAI的商业模式构成了挑战。
谷歌Gemma 3:单GPU性能超DeepSeek
谷歌认为自家Gemma 3是“世界上最好的单加速器模型”,在单个 GPU 上比 Facebook 的 Llama、DeepSeek和 OpenAI 的模型都强,而且在
12条用DeepSeek写作提示秘笈
Deepseek如何帮助我写和出版一本书,有12个简单的提示: 1. 头脑风暴和提纲 “写一本关于[主题]的书,目标读者是[目标受众]。帮我头脑风暴一些独特的角度,并创建一个详细的章节提纲。” 2.
llama4发布之前,Meta AI主管离职!
乔尔·皮诺(Joëlle Pineau)是Meta公司搞人工智能研究的顶梁柱,在干了快八年后,她决定5月30号走人。她走的时候正好赶上公司内部战略大调整。 皮诺是Meta最顶尖的AI研究员之一,从2023年开始领导公司的基础AI研究部门(FAIR)。在那里
本地部署+算法优化破解AI能耗危机
2024年11月,美国管电的部门FERC对亚马逊说:"不行!"原来亚马逊想从宾州一个核电站直接买电给自己数据中心用,这样能多买180兆瓦(够18万户家庭用)。但政府说这对其他用户不公平:这就像插队买奶茶,你爽了别人就得等更久。 美国电不够用了?过去20年美
AI竞赛白热化,谷歌开始技术封锁
谷歌旗下的人工智能团队DeepMind最近"一直捂着自家厉害的研究成果不发",就是为了在AI竞赛中不掉队。他们现在搞了个新规矩:凡是重要的AI研究论文,必须憋够六个月才能公开。 DeepMind有位研究员说了句大实话:"要是搁现在,我们打死也不会把
比尔盖茨:AI十年内将取代医生和教师
盖茨说,未来十年,人工智能会变得超级厉害,厉害到世界上“大部分事情”都不需要人来做了。 他在一个电视节目里跟一个喜剧演员说,现在很多事情还得靠人,比如厉害的医生、厉害的老师,因为这些专家比较少。 但是,未
上页
下页
关闭