Latest episodes of the podcast AI Podcast
Mostrando página 7 de 20
ProRL: 延长强化学习拓展大语言模型推理边界
03/06/2025
深入剖析DAPO:大规模开源LLM强化学习系统
02/06/2025
HybridFlow:灵活高效的RLHF框架深度解析
02/06/2025
揭秘AceReason-Nemotron:强化学习如何革新AI数学与代码推理
02/06/2025
深入探讨Tülu 3:开放语言模型后训练的新前沿
02/06/2025
深入探讨DeepSeekMath:开源语言模型数学推理的新高峰
02/06/2025
深入探讨小米MiMo-VL:下一代视觉语言模型
01/06/2025
MiMo-7B:解锁语言模型的推理潜力
01/06/2025
深入探讨Atlas:学习在测试时优化记忆上下文
31/05/2025
深入探讨Linear-MoE:线性序列建模与专家混合的结合
30/05/2025
BAGEL模型:统一多模态预训练的新里程碑
26/05/2025
深入探讨LoRA:大型语言模型的低秩适应技术
25/05/2025
深入剖析Phi-4推理:微软的新一代小型推理语言模型
23/05/2025
探索小型推理语言模型的极限:Phi-4-Mini-Reasoning 的数学能力
23/05/2025
深入探讨神经网络的量化与训练:实现高效纯整数算术推理
22/05/2025
深入探讨 Gemma 3:谷歌的最新轻量级开放模型
22/05/2025
S1模型:简单测试时扩展与高效推理
22/05/2025
MatFormer:弹性推理的嵌套Transformer
22/05/2025
SmolLM2探秘:小模型的大作为
21/05/2025
ZARZA We are Zarza, the prestigious firm behind major projects in information technology.