科技
-
大厂AI「氛围编程」:老工程师现身说法引热议
氛围编程(vibe coding)在 FAANG 等大型科技公司逐渐流行,但对其是否真正符合氛围编程的定义仍存在争议。一位拥有十多年经验的 AI 软件工程师在 Reddit 分享了其使用 AI 辅助编程的方法,强调从设计文档和技术评审开始,采用测试驱动开发和详细规范,AI 主要用于编写测试和代码审核。尽管有 AI 加持,大型公司流程繁琐仍影响研发速度。
-
全球百万网友沉迷赛博养鱼,AI小丑鱼让我也着迷了
最近流行的AI小游戏Draw A Fish,用户只需画一条小鱼,便能在虚拟鱼缸中看到它游动。游戏通过AI实时反馈和互动,带来强烈的创作成就感,类似《王者荣耀》的上分体验,吸引全球百万网友参与。低门槛设计和社区氛围使其广受欢迎。
-
全球首款AI原生游戏引擎再进化:GTA6不来,我们自己AI一个
GTA 6 跳票至明年,但 AI 驱动的游戏引擎发展迅速。Mirage 2 作为生成式世界引擎,实现了更灵敏的提示控制、更低的游戏延迟和通用领域建模。尽管仍存在动作控制精度和视觉一致性问题,但进步显著,未来值得期待。
-
微软AI CEO警告:警惕看似有意识的AI
AI 是否有意识仍无定论,但其复杂性令人难以理解。微软 AI CEO Mustafa Suleyman 提出「看似有意识的 AI」(SCAI)概念,强调其可能带来的社会、道德和法律影响,呼吁构建人文主义 AI,避免将 AI 视为有意识实体。
-
DiT在数学和形式上错了吗?谢赛宁回应:科学不在脑子里做
近期,一篇帖子在 X 上引发热议,博主认为 DiT 模型存在架构缺陷,FID 过早稳定,暗示模型无法继续学习。博主引用了 TREAD 方法,通过令牌路由提升训练效率和生成质量,显著超越 DiT。谢赛宁回应称,DiT 的问题主要在于 sd-vae,其他方面仍稳健,且有改进空间。
-
当AI超越人类智慧:李飞飞与Hinton的对立生存指南
人类对AI安全的担忧由来已久,从阿西莫夫的“机器人学三定律”到近期OpenAI和Anthropic模型的“威胁”行为。李飞飞认为AI的安全性取决于设计、治理和价值观,而Hinton则担忧超级智能可能在未来5到20年内出现并失控。两人在AI安全问题上的观点截然不同,但都强调了人类在其中的关键角色。
-
谷歌开源270M参数的Gemma 3,性能超越Qwen 2.5同级模型
谷歌本周发布了 Gemma 3 270M,这是一款拥有 2.7 亿参数的紧凑型语言模型,专为特定任务的微调设计。该模型具备强大的指令执行能力和文本结构化能力,体积仅为 241 MB,能耗低,适合设备端和研究应用。
-
DeepSeek GRPO改进,微软发布GFPO
微软研究员提出了一种名为 Group Filtered Policy Optimization (GFPO) 的强化学习算法,可同时优化推理模型的准确率和响应长度,将多余的 token 长度削减多达 80%,显著提升效率。GFPO 通过采样大量响应并选择最佳子集进行训练,有效解决了响应冗长的问题。
-
港大联合月之暗面发布OpenCUA:打造个性化电脑智能体
OpenCUA是一个全面开源框架,用于构建和扩展计算机使用智能体(CUA)。框架包括跨平台注释工具AgentNet Tool,涵盖3个操作系统和200多个应用/网站的大规模数据集AgentNet,以及将演示转化为「状态-动作」对的工作流程。基于此,团队构建了OpenCUA-32B模型,在OSWorld-Verified基准上达到34.8%的成功率,创下了开源SOTA。
-
AI顶会模式出了问题?「不发表,就出局」的恶性循环正在压垮整个学界
AI 顶会如 NeurIPS、ICML 和 ICLR 正面临投稿激增、碳排放过载、心理健康负担等多方面挑战,导致传统会议模式的可持续性受到质疑。新加坡国立大学何丙胜教授团队提出社区联合型会议(CFC)模式,通过「全球标准,本地实现」的方式,解耦同行评审、成果展示和社区建设,以实现更可持续、公平和可扩展的学术交流。