15B硬刚GPT

新智元报道编辑,犀牛KingHZ,新智元导读,CMU团队用LCPO训练了一个15亿参数的L1模型,结果令人震惊,在数学推理任务中,它比S1相对提升100%以上,在逻辑推理和MMLU等非训练任务上也能稳...
3周前
02380

32B击败DeepSeek

新智元报道编辑,桃子好困,新智元导读,32B小模型在超硬核,时间线索,推理谜题中,一举击败了o1、o3,mini、DeepSeek,R1,核心秘密武器便是GRPO,最关键的是训练成本暴降100倍,用上...
4周前
01680