多谢,我正在学习模型微调。我的显卡也是3090,发现现存不够,想升级双显卡3090+4090 D,不知道双卡是否能跑起来。
使用3090微调Baichuan-7B,使大模型具有聊天以及推理能力这段时间一直在研究大模型的微调,从ChatGPT到ChatGLM,再到这篇文章的Baichuan,感触颇深,不外乎就是大模型的训练时间很长,成本很高,效果并没有想象中的那么好...
多谢,我正在学习模型微调。我的显卡也是3090,发现现存不够,想升级双显卡3090+4090 D,不知道双卡是否能跑起来。
使用3090微调Baichuan-7B,使大模型具有聊天以及推理能力这段时间一直在研究大模型的微调,从ChatGPT到ChatGLM,再到这篇文章的Baichuan,感触颇深,不外乎就是大模型的训练时间很长,成本很高,效果并没有想象中的那么好...
这段时间一直在研究大模型的微调,从ChatGPT到ChatGLM,再到这篇文章的Baichuan,感触颇深,不外乎就是大模型的训练时间很长,成本很高,效果并没有想象中的那么好...