-
Notifications
You must be signed in to change notification settings - Fork 497
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请教如何调整model的参数配置 #40
Comments
现在LMconfig就是配置的最小参数:https://github.com/jingyaogong/minimind/blob/master/model/LMConfig.py |
有提到哦
“将模型调成最小的”不知道你说的是调整成我训练过的几个版本里最小的 |
非常感谢二位的帮助和指出!! |
当时还不太明白,现在明白了。Mac上一些加速不支持(比如bfloat16,autocast)。已经尝试通过把模型调成128 + 4来减少训练时间了。 |
对的,用更小的参数训练必然更快,能跑通流程,但是效果肯定就完全丧失了
可以简单的理解成,需要一个模型刷题,刷成千上万的题,全人类的语言百科都给他刷一遍,但是只给它分配了160万的记忆细胞,一定是学完就忘,白学一遍,对草履虫弹琴。 想象一下,160万参数模型,权重文件占10MB左右的文件。训练假设学了10GB的文本语料,相当于把10GB的文件知识点全部无损压缩到10MB模型权重里面去,压缩率是1000倍。听起来不可思议,确实是不可能的。 但是0~1M量级的模型,也有很多它用武之地。 具备2600万记忆细胞的 |
学到了!不过macbook本地很多cuda加速不能用,如果直接改的话一个epoch预计要350min,太恐怖了。可能还是得先本地先跑一轮然后之后尝试租用一些云上的英伟达GPU再去做512+8。 |
在README.md 中,有一个提示是“2.3 在./model/LMConfig.py 中调整model的参数配置“。能请教一下如何比如将模型调成最小的吗?
The text was updated successfully, but these errors were encountered: