人工智能
-
DiT在数学和形式上错了吗?谢赛宁回应:科学不在脑子里做
近期,一篇帖子在 X 上引发热议,博主认为 DiT 模型存在架构缺陷,FID 过早稳定,暗示模型无法继续学习。博主引用了 TREAD 方法,通过令牌路由提升训练效率和生成质量,显著超越 DiT。谢赛宁回应称,DiT 的问题主要在于 sd-vae,其他方面仍稳健,且有改进空间。
-
当AI超越人类智慧:李飞飞与Hinton的对立生存指南
人类对AI安全的担忧由来已久,从阿西莫夫的“机器人学三定律”到近期OpenAI和Anthropic模型的“威胁”行为。李飞飞认为AI的安全性取决于设计、治理和价值观,而Hinton则担忧超级智能可能在未来5到20年内出现并失控。两人在AI安全问题上的观点截然不同,但都强调了人类在其中的关键角色。
-
谷歌开源270M参数的Gemma 3,性能超越Qwen 2.5同级模型
谷歌本周发布了 Gemma 3 270M,这是一款拥有 2.7 亿参数的紧凑型语言模型,专为特定任务的微调设计。该模型具备强大的指令执行能力和文本结构化能力,体积仅为 241 MB,能耗低,适合设备端和研究应用。
-
DeepSeek GRPO改进,微软发布GFPO
微软研究员提出了一种名为 Group Filtered Policy Optimization (GFPO) 的强化学习算法,可同时优化推理模型的准确率和响应长度,将多余的 token 长度削减多达 80%,显著提升效率。GFPO 通过采样大量响应并选择最佳子集进行训练,有效解决了响应冗长的问题。
-
港大联合月之暗面发布OpenCUA:打造个性化电脑智能体
OpenCUA是一个全面开源框架,用于构建和扩展计算机使用智能体(CUA)。框架包括跨平台注释工具AgentNet Tool,涵盖3个操作系统和200多个应用/网站的大规模数据集AgentNet,以及将演示转化为「状态-动作」对的工作流程。基于此,团队构建了OpenCUA-32B模型,在OSWorld-Verified基准上达到34.8%的成功率,创下了开源SOTA。
-
AI顶会模式出了问题?「不发表,就出局」的恶性循环正在压垮整个学界
AI 顶会如 NeurIPS、ICML 和 ICLR 正面临投稿激增、碳排放过载、心理健康负担等多方面挑战,导致传统会议模式的可持续性受到质疑。新加坡国立大学何丙胜教授团队提出社区联合型会议(CFC)模式,通过「全球标准,本地实现」的方式,解耦同行评审、成果展示和社区建设,以实现更可持续、公平和可扩展的学术交流。
-
OpenAI未开源的GPT- OSS基础模型,他通过去除强化学习实现了逆转
Cornell Tech博士生Jack Morris成功逆转了OpenAI发布的gpt-oss-20b模型的强化学习,发布了基础模型gpt-oss-20b-base。该模型可用于生成任意文本,但已不再对齐,可能生成不当内容。Morris使用低秩适应(LoRA)方法对模型进行微调,以恢复其基础能力。模型地址:https://huggingface.co/jxm/gpt-oss-20b-base。
-
OpenAI和奥特曼将投资脑机接口公司,与马斯克的Neuralink展开竞争
OpenAI 和其联合创始人山姆・奥特曼正准备投资脑机接口公司 Merge Labs,与伊隆・马斯克的 Neuralink 竞争。Merge Labs 正以 8.5 亿美元的估值筹集新资金,预计大部分资金来自 OpenAI 的风险投资团队。奥特曼将与 Alex Blania 一起帮助启动该项目。这将加剧两位亿万富翁之间的竞争。
-
LLM过于复杂化简单任务,Karpathy:有些事不需要多想
大模型在深度思考模式下表现出越来越强的自主代理倾向,尤其在编码等任务中,即使简单操作也需冗长推理,导致效率低下。Andrej Karpathy 指出,这种现象源于对长周期任务优化的过度追求,建议提供更灵活的思考模式选项。
-
GPT-5问题频出,奥特曼团队全面回应,图表错误因过度疲劳
GPT-5 发布后遭遇广泛质疑,因其在数学、逻辑及编码任务中的表现不佳。OpenAI CEO Sam Altman 承认存在问题,并在 Reddit AMA 中回应用户反馈,部分恢复 GPT-4o 等早期模型的访问权限,同时承诺改善安全性和用户体验。