Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
AGI通用人工智能
比GPT-4o更聪明:OpenAI的o1已上线
OpenAI的山姆奥特曼在推特上透露:新范式的开始了,o1将是能够进行通用复杂推理的人工智能。o1-preview 和 o1-mini 现在可以在 ChatGPT Plus 和团队用户以及我们为 5 级用户开放的 API 中使用(在几个小时内逐步推出)。
OpenAI 推出迄今为止最先进的推理模型 o3
宣布推出基于推理模型的全新 AI 模型 o3,在复杂推理任务中取得突破性性能。高性价比的迷你版将于 2025 年 1 月下旬推出,随后将推出完整版。
OpenAI草莓Q星可怕之处
人类在说话言语之间其实隐藏着推理,现在OpenAI大模型已经学会了这个技巧:字里行间的推理。 大语言模型1.0时代:注意力机制,也就是基于上下文的模式匹配; 大语言模型2.0时代:字里行间的推理 OpenAI的草
什么是雅各布森的6个语言功能?
如今LLM 大语言模型遇到天花板,语言远不止表现不同词语之间的统计模式,以及根据提示生成这些模式这么简单。 另外,大多数攻读大模型的人都没有接受过正规的语言学培训,-如果你想让*语言模型*发挥作用,那么掌握一些关于*语言*如何运作的理论知识确实非常
南辕北辙:大语言模型不会通向AGI?
这些有意义吗? 微软正在重新启动三哩岛核电站,以便为其下一代 AI 数据中心之一提供电力。 Anthropic.ai 的首席执行官预测,我们很快将需要价值 1000 亿美元的模型。 萨姆·奥特曼 正在寻求 7 万亿美元来实现 AGI。 是的,大语言模型 (L
我们正处于五大黑科技门口
我们正处于 AGI、长寿逃逸速度、基因重编程、FDVR 和行星探索的门口。 现在起要照顾好自己。 享受未来将提供的一切。 AGI(通用人工智能):机器能够自主进行学习和决
OpenAI推出12 天大模型新功能持续发布:第一天
OpenAI 在 X 上宣布了一系列 12 场直播,展示“一系列大大小小的新事物”: 第一天要点: OpenAI 推出了 ChatGPT 的新高级版本,称为 ChatGPT Pro,它可以无限制地访问更强大
Deepseek:引领中国人工智能竞赛的静默巨人
Deepseek 是一家中国 AI 初创公司,其最新 R1 模型在多个推理基准测试中击败了 OpenAI 的 o1。尽管 Deepseek 低
OpenAI的草榴AI在X开始自说自话
昨天,OpenAI 的许多人同时发布了一些神秘消息,然后这个X帐户@iruletheworldmo 就启动了自说自话发帖:
MIT论文:人工智能对科学创新的巨大好处
这篇论文《人工智能、科学发现与产品创新》由Aidan Toner-Rodgers撰写,来自麻省理工学院(MIT),发表于2024年11月6日。论文研究了人工智能对创新的影响,特别是通过随机引入一种新的材料发现技术给一家大型美国公司研发实验室的1018名科学家。
解决ARC的关键可能是解决AGI的关键
这是如何使用Sonnet 3.5和一种名为“Evolutionary Test-time Compute”的方法在ARC-AGI-Pub上取得第一名的文章,这篇文章由Jeremy Berman撰写,并发表在Params网站上。
中国新型计算架构“受人脑启发”可实现 AGI
由于一种新颖的计算架构彻底重新定义了人工神经元如何形成智能系统,AGI 可能即将问世。 当今最先进的人工智能模型(主要是大型语言模型 (LLM),如ChatGPT或Claude 3)都使用神经网络。这些是机器学习算法的集合,它们以类似于人脑的方式分层处理数
OpenAI o3模型引入强化学习实现推理计算
OpenAI 报告称其新的o3 推理模型取得了突破性进展。该公司将这一进步归功于强化学习,这是一种成熟的人工智能训练方法,在某些任务上具有显著优势,但在其他任务上具有
AGI将开发出人类无法理解的“语言 2.0 ”
AGI 将开发出一种人类可能永远无法理解的多维“语言 2.0 ”。 维特根斯坦的哲学是“我的语言的极限意味着我的世界的极限 ” Google Deepmind最近对 LL
大模型缩放定律已修改
人们已经完全改写了 "缩放定律 scaling laws"的本意:最初的意思是: 在更多的数据上预训更大的大语言模型LLM会带来更多的
人类直觉中模式识别可用AI完成
如何判断某件事可用深度学习来解决呢? 用下面这个标准作为启发式判断标准: 领域专家能否无需有意识地思考。100%凭直觉完成这件事? 如果是,那么纯模式识别就是解决这个问题的合适方法:只要呢有足够的数据,你就能够产生一个有效的深度学习
OpenAI 12天新功能发布第2天:RFT
OpenAI 今日公告摘要: - 引入 o1 的强化微调 (RFT) - 调整 o1 以学习在自定义域中以新的方式进行推理 - RFT 比常规微调更好、更有效; 生物化学、安全、法律和医疗保健是 OpenAI 研
奥特曼说大语言模型前面没有阻挡
当多家公司的多份媒体报告都报告了收益递减,Open AI奥特曼发推特说:there is no wall. 收益递减一说来自与OpenAI宫斗出局的伊利亚Ilya,他说靠大规模计算资源实现智能涌现的收益已经开始递减,此路不通。
上页
下页
关闭