0%

llama4看到的一些东西

带着有色眼镜果然容易看错一些东西,我对于llama就有不少误解。特此记录,警醒自己。

我从没想过llama最大的开源模型之一会不支持中文。这一点实在是太过离谱了。但是对此也引发了我新的疑问:大语言模型的多语言能力是怎么来的呢?为什么没有中文的模型居然可以训练出中文语义呢?

另一个震撼我的地方是llama4糟糕的图像识别能力,这代表他不能真的胜任多模态任务。我实在懒得加图,下次一定。然后这也是一个疑问:原生多模态大模型就一定比非原生多模态大模型好吗?

阅读论文的过程中,我总是习惯性扫一眼就路过,但这是不行的。我需要边阅读,边弄大纲。最好的做法我认为是先去看网上的解读,然后带着一个基础认识自己去读一遍。虽然难免带上其他人的主观,但在我知识不足的现在,这一步是必要的。

-------------本文结束感谢您的阅读-------------

总访问量
总访客数