AI快讯网1月27日消息,阿里云通义开源支持100万Tokens上下文的Qwen2.5-1M模型,推出7B及14B两个尺寸,同时开源推理框架,在处理百万级别长文本输入时可实现近7倍的提速。据了解,百万Tokens长文本,可换算成10本长篇小说、150小时演讲稿或3万行代码。
AI快讯网1月27日消息,阿里云通义开源支持100万Tokens上下文的Qwen2.5-1M模型,推出7B及14B两个尺寸,同时开源推理框架,在处理百万级别长文本输入时可实现近7倍的提速。据了解,百万Tokens长文本,可换算成10本长篇小说、150小时演讲稿或3万行代码。