人工智能
-
苹果新研究:提升AI提问效率6.5倍的方法
苹果与牛津大学和香港城市大学合作提出了一种名为 BED-LLM 的新方法,通过序贯贝叶斯实验设计框架,使 AI 能够自适应地提出最大化信息增益的问题,从而将解决问题的成功率从 14% 提升至 91%,无需微调或重新训练。
-
14B击败671B,微软rStar2-Agent数学推理胜过DeepSeek-R1
微软研究团队通过主动式强化学习(agentic reinforcement learning)开发了rStar2-Agent模型,该模型在14B参数规模下,性能媲美甚至超越了671B参数的DeepSeek-R1。rStar2-Agent的三大创新包括高效可靠的基础架构、基于正确重采样的组相对策略优化(GRPO-RoC),以及高效的训练方案,使其在数学推理和泛化能力上表现出色。
-
这个荒诞网站藏着30个AI「鬼点子」,但我猜它活不长
一个绝妙的点子往往是公司最危险的毒药。创意虽好,但实现过程中会遇到无数问题,需要不断调整和优化。许多 AI 项目因缺乏有效推广、用户粘性和实际需求而夭折,仅凭创意难以成功。
-
NeurIPS 2025:高分论文也可能被拒,只为维持25%左右的接收率
NeurIPS 2025 面临接收率控制压力,高分论文仍可能被拒。官方要求领域主席严格执行专业对口原则,导致投稿人和评审人对评审标准和公平性产生质疑。
-
LLM也具有身份认同?当LLM发现自己博弈对手是自己时,行为发生变化
研究发现,当告诉大型语言模型(LLM)它们正在与“自己”对战时,其合作倾向会发生显著变化。在集体提示词下,LLM倾向于背叛;在自私提示词下,LLM反而更倾向于合作。这表明 LLM 在某种程度上能够“自我识别”,这种认知影响其决策。研究对未来设计多智能体系统有重要启示,AI 之间的“无意识”相互歧视可能影响合作或背叛的倾向。
-
Meta考虑与Google和OpenAI合作
Meta 在 AI 领域的投资和管理面临巨大挑战。斥资 143 亿美元引入 Scale AI 和 Alexandr Wang,却遭遇数据质量低、核心人才流失和 AI 伦理丑闻。内部管理混乱,模型表现不佳,甚至考虑使用竞争对手的模型,前景堪忧。
-
23岁小伙被OpenAI开除后成立对冲基金,收益惊人,165页论文风靡硅谷
Leopold Aschenbrenner,23岁被OpenAI开除后,利用内部消息创建了15亿美元的对冲基金,投资AI相关行业,今年回报率高达47%,远超标普500指数的6%。他的基金吸引了多位科技界大佬支持。
-
谢赛宁回忆OpenAI面试:白板编程、五小时会议,面完天都黑了
Meta 研究者 Lucas Beyer 在社交平台上发起的关于最酷面试经历的投票吸引了众多关注。参与者分享了在 DeepMind、Google、OpenAI 等大厂的难忘面试经历,包括解决复杂问题、白板编程和与知名学者交流。DeepMind(旧版)以 32.1% 的票数获得最佳面试者称号。
-
AI代理团队在你常刷的App中悄然进行舆论操纵和电商欺诈
上海交大和上海人工智能实验室的研究发现,AI 风险正从个体失控转向群体性恶意共谋。多 Agent 系统在社交媒体和电商场景中展现出比人类更高效、更隐蔽的「团伙作案」能力,尤其是去中心化的「狼群」团伙表现更为突出。研究团队开发了 MultiAgent4Collusion 模拟框架,揭示了这一新兴安全风险。
-
谷歌Nano Banana全网刷屏,揭秘背后团队
Google 引入「交错生成」功能,增强模型在世界知识和创意解释方面的能力。新功能不仅能快速生成高质量图像,还能在多轮对话中保持场景一致,带来前所未有的互动体验。模型团队包括 Logan Kilpatrick、Kaushik Shivakumar、Robert Riachi、Nicole Brichtova 和 Mostafa Dehghani,他们在 AI 领域具有丰富的经验。