为了促进大语言模型在中文NLP社区的开放研究,本项目开源了中文LLaMA2模型的医疗领域微调大语言模型。模型在原版LLaMA2的基础上扩充了约55万条医疗Chat中文开源语料进行二次预训练,进一步提升了中文医疗基础语义理解能力。使用这些指令数据进行精调,显著提升了模型对指令的理解和执行能力。本模型仅限于科学研究与学术讨论,不作为真实场景应用依据,很多不确定的问题还需后续进行验证与迭代升级。