科技
-
23岁小伙被OpenAI开除后成立对冲基金,收益惊人,165页论文风靡硅谷
Leopold Aschenbrenner,23岁被OpenAI开除后,利用内部消息创建了15亿美元的对冲基金,投资AI相关行业,今年回报率高达47%,远超标普500指数的6%。他的基金吸引了多位科技界大佬支持。
-
谢赛宁回忆OpenAI面试:白板编程、五小时会议,面完天都黑了
Meta 研究者 Lucas Beyer 在社交平台上发起的关于最酷面试经历的投票吸引了众多关注。参与者分享了在 DeepMind、Google、OpenAI 等大厂的难忘面试经历,包括解决复杂问题、白板编程和与知名学者交流。DeepMind(旧版)以 32.1% 的票数获得最佳面试者称号。
-
AI代理团队在你常刷的App中悄然进行舆论操纵和电商欺诈
上海交大和上海人工智能实验室的研究发现,AI 风险正从个体失控转向群体性恶意共谋。多 Agent 系统在社交媒体和电商场景中展现出比人类更高效、更隐蔽的「团伙作案」能力,尤其是去中心化的「狼群」团伙表现更为突出。研究团队开发了 MultiAgent4Collusion 模拟框架,揭示了这一新兴安全风险。
-
谷歌Nano Banana全网刷屏,揭秘背后团队
Google 引入「交错生成」功能,增强模型在世界知识和创意解释方面的能力。新功能不仅能快速生成高质量图像,还能在多轮对话中保持场景一致,带来前所未有的互动体验。模型团队包括 Logan Kilpatrick、Kaushik Shivakumar、Robert Riachi、Nicole Brichtova 和 Mostafa Dehghani,他们在 AI 领域具有丰富的经验。
-
谷歌又赢了,nano banana改名后网友搞出7种神仙玩法
谷歌发布了 Gemini 2.5 Flash Image 模型,可在 Gemini 应用和 Google AI Studio 免费体验。该模型能将图像转化为等距模型、标注现实世界、生成地图实景、转换 OOTD 和漫画风格等,功能强大且多样。用户只需上传图片或输入文字提示词,即可实现多种创意效果。
-
AAAI-26投稿量激增:近3万篇论文,其中2万篇来自中国,评审系统面临巨大压力
AAAI-2026 会议投稿量创历史新高,主技术轨道接收近 29000 篇论文,其中中国投稿接近 20000 篇,占三分之二。评审系统面临巨大挑战,AAAI 招募 28000 多名项目委员会成员以保障评审质量。研究关键词前三为计算机视觉、机器学习和自然语言处理。
-
中科大、智源发布推理检索框架BGE-Reasoner,突破RAG思考瓶颈
BGE-Reasoner 是由中国多个机构联合研发的推理密集型信息检索解决方案,通过查询理解、向量检索与重排序三个模块,显著提升了搜索引擎在复杂推理任务中的表现。在 BRIGHT 基准测试中,BGE-Reasoner 以 45.2 分刷新了最佳纪录,展示了其在查询改写、数据合成和强化学习方面的创新与突破。
-
谷歌nano banana正式上线:单图成本低于3毛,比OpenAI便宜95%
谷歌推出 gemini-2.5-flash-image-preview 模型,支持 32k 上下文,提供温度调整等高级设置,可在 Google AI Studio 和 Gemini API 中免费试用。该模型生成每张图像的成本约为 0.039 美元,远低于 OpenAI 的图像生成成本,并支持换装、合成照片和混合设计等多种玩法。
-
FlashAttention-4震撼发布,原生适配Blackwell GPU,英伟达护城河再加深
在 Hot Chips 2025 上,TogetherAI 首席科学家 Tri Dao 发布了 FlashAttention-4。该版本在 Backwell GPU 上比英伟达 cuDNN 库快 22%,采用两项算法改进:在线 softmax 算法和指数的软件模拟。此外,FlashAttention-4 使用 CUTLASS CuTe Python DSL,移植到 ROCm HIP 更具挑战性。Tri Dao 的多数核代码开源给英伟达开发者,助力英伟达 GPU 生态系统。 FLASHAttention 的 GitHub 软件库已获得了 1.91 万星,但 FlashAttention-4 的技术报告尚未发布。
-
英伟达推出通用机器人芯片:AI算力提升7.5倍,宇树和银河通用已搭载
英伟达发布了新一代机器人专用芯片 Jetson Thor,大幅提升算力,支持人形机器人等各种形态。其 AI 计算能力是上一代的 7.5 倍,最高达到 2070 FP4 TFLOPS,功耗 130W,能效是上一代的 3.5 倍。内存容量提升至 128G,显存带宽为 273GB/s。Jetson Thor 专为生成式 AI 模型的推理打造,支持下一代「物理 AI」智能体,能够端侧实时运行,降低对云端的依赖。