人工智能大模型,不是越大越好? 虎嗅网 • 8月前 扫码分享 我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。 近期,谷歌和霍普金斯大学联合发布了一篇论文,研究显示,对于像Sora这样的潜在扩散模型,并不是越大越好。大模型参数越多,效果并不一定会越好。在计算资源少的时候,想要达到效率和质量的平衡,什么比参数量更重要呢? 随意打赏