Rain科技10月19日消息,近日,字节跳动实习生攻击大模型训练事件引发广泛关注,迅速登上热搜。事件的真相究竟如何?本文将结合多方信息,进行客观分析。
据“大厂青年”爆料,内部人士证实了模型训练确实遭到破坏,但网络上流传的一些说法夸大其词,甚至存在虚构成分。
据了解,事件发生在六月底。一位来自知名高校的博士生田某某,在字节跳动商业化技术团队实习期间,因对团队资源分配不满,利用攻击代码破坏了团队的模型训练任务。
首先需要明确的是,受影响的并非字节跳动的主力大模型,而是商业化技术团队用于广告业务的模型训练任务。这与部分网传信息中“攻击了字节跳动核心大模型”的说法存在出入。
关于网络上盛传的“损失上千万美元”的说法,显然过于夸张。目前尚未有可靠证据支持这一说法,其真实损失规模有待进一步考证。
此外,“实习生被送进去”的说法纯属谣言。据了解,该实习生的处理结果是解雇,同时字节跳动还将情况通报给了行业联盟和学校。
事件曝光后,涉事实习生田某某试图在社交平台上进行辟谣,并试图将责任推卸给他人,但这一说法很快被接近字节跳动的人士否认。
据一位知情人士在GitHub上的陈述,“你(指田某)在长达两个月的时间里对集群代码进行恶意攻击,对公司近30位各级员工造成巨大伤害,让你的同事近一个季度的努力付诸东流。所有的记录和审查都证明这是不容狡辩的事实!” 这也从侧面印证了事件的严重性。

据悉,田某某利用Hugging Face (HF) 平台的漏洞,在公司的共享模型中植入了破坏性代码,导致模型训练结果波动剧烈,无法达到预期效果。这暴露出平台安全漏洞以及企业内部权限管理方面可能存在不足。
一位前字节技术员工指出,“字节AI Lab的实习生权限与正式员工权限差距不大”,这为事件的发生提供了条件。他也表达了对事件恶性影响的担忧,并预测“这件事之后肯定会极大地收缩实习生的权限”。 此次事件也为其他企业敲响警钟,需要加强对实习生的权限管理和安全教育,完善安全防护体系,避免类似事件再次发生。