• OpenAI的山姆奥特曼在推特上透露:新范式的开始了,o1将是能够进行通用复杂推理的人工智能。o1-preview 和 o1-mini 现在可以在 ChatGPT Plus 和团队用户以及我们为 5 级用户开放的 API 中使用(在几个小时内逐步推出)。
  • 人类在说话言语之间其实隐藏着推理,现在OpenAI大模型已经学会了这个技巧:字里行间的推理。 大语言模型1.0时代:注意力机制,也就是基于上下文的模式匹配; 大语言模型2.0时代:字里行间的推理 OpenAI的草 icon
  • 如今LLM 大语言模型遇到天花板,语言远不止表现不同词语之间的统计模式,以及根据提示生成这些模式这么简单。 另外,大多数攻读大模型的人都没有接受过正规的语言学培训,-如果你想让*语言模型*发挥作用,那么掌握一些关于*语言*如何运作的理论知识确实非常 icon
  • 这些有意义吗? 微软正在重新启动三哩岛核电站,以便为其下一代 AI 数据中心之一提供电力。 Anthropic.ai 的首席执行官预测,我们很快将需要价值 1000 亿美元的模型。 萨姆·奥特曼 正在寻求 7 万亿美元来实现 AGI。 是的,大语言模型 (L icon
  • 我们正处于 AGI、长寿逃逸速度、基因重编程、FDVR 和行星探索的门口。 现在起要照顾好自己。 享受未来将提供的一切。 AGI(通用人工智能):机器能够自主进行学习和决 icon
  • OpenAI 在 X 上宣布了一系列 12 场直播,展示“一系列大大小小的新事物”: 第一天要点: OpenAI 推出了 ChatGPT 的新高级版本,称为 ChatGPT Pro,它可以无限制地访问更强大 icon
  • Deepseek 是一家中国 AI 初创公司,其最新 R1 模型在多个推理基准测试中击败了 OpenAI 的 o1。尽管 Deepseek 低 icon
  • 昨天,OpenAI 的许多人同时发布了一些神秘消息,然后这个X帐户@iruletheworldmo 就启动了自说自话发帖: icon
  • 这篇论文《人工智能、科学发现与产品创新》由Aidan Toner-Rodgers撰写,来自麻省理工学院(MIT),发表于2024年11月6日。论文研究了人工智能对创新的影响,特别是通过随机引入一种新的材料发现技术给一家大型美国公司研发实验室的1018名科学家。 icon
  • 这是如何使用Sonnet 3.5和一种名为“Evolutionary Test-time Compute”的方法在ARC-AGI-Pub上取得第一名的文章,这篇文章由Jeremy Berman撰写,并发表在Params网站上。 icon
  • 由于一种新颖的计算架构彻底重新定义了人工神经元如何形成智能系统,AGI 可能即将问世。 当今最先进的人工智能模型(主要是大型语言模型 (LLM),如ChatGPT或Claude 3)都使用神经网络。这些是机器学习算法的集合,它们以类似于人脑的方式分层处理数 icon
  • OpenAI 报告称其新的o3 推理模型取得了突破性进展。该公司将这一进步归功于强化学习,这是一种成熟的人工智能训练方法,在某些任务上具有显著优势,但在其他任务上具有 icon
  • AGI 将开发出一种人类可能永远无法理解的多维“语言 2.0 ”。 维特根斯坦的哲学是“我的语言的极限意味着我的世界的极限 ” Google Deepmind最近对 LL icon
  • 人们已经完全改写了 "缩放定律 scaling laws"的本意:最初的意思是: 在更多的数据上预训更大的大语言模型LLM会带来更多的 icon
  • 如何判断某件事可用深度学习来解决呢? 用下面这个标准作为启发式判断标准: 领域专家能否无需有意识地思考。100%凭直觉完成这件事? 如果是,那么纯模式识别就是解决这个问题的合适方法:只要呢有足够的数据,你就能够产生一个有效的深度学习 icon
  • OpenAI 今日公告摘要: - 引入 o1 的强化微调 (RFT) - 调整 o1 以学习在自定义域中以新的方式进行推理 - RFT 比常规微调更好、更有效; 生物化学、安全、法律和医疗保健是 OpenAI 研 icon
  • 当多家公司的多份媒体报告都报告了收益递减,Open AI奥特曼发推特说:there is no wall. 收益递减一说来自与OpenAI宫斗出局的伊利亚Ilya,他说靠大规模计算资源实现智能涌现的收益已经开始递减,此路不通。 icon