chatglm2-6b pytorch peft ft sft DPO RLHF Transformer

StarGLM

我们整合了司天工程相关的语料数据与知识库资料,训练得到了天文大模型StarGLM(ChatGLM for Variable Star)。

以期缓解大语言模型在天文通用知识和部分前沿变星领域的幻觉现象,为接下来可处理天文多模态任务、部署于望远镜阵列的观测Agent——司天大脑(数据智能处理)打下基础。

版本更新:

通过修改训练方法、添加长文本回答语料、人工反馈强化学习/直接偏好优化等方法进行了优化,很大程度缓解了先前版本的灾难性遗忘问题,并提高了模型基于知识库回答的质量与逻辑性。

【已通过高质量GPT4生成、人工标注语料微调GPT3.5 Turbo,预计最近会开放体验demo】

功能展示

监督微调

<br>

链接知识库

<br>

链接SD

<br>

RLHF

<br>

多模态探索

<br>

未来计划

安装指南

1.基础模型安装(推荐显存>=16G):

可直接通过transformer库导入使用。

对于精确问答,建议设置temperature=0.01,top_p=0.8。

import sys
from peft import PeftModel
from transformers import AutoModel, AutoTokenizer
sys.path.append('..')
model = AutoModel.from_pretrained("Yu-Yang-Li/StarGLM",  device_map='auto', trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("Yu-Yang-Li/StarGLM", trust_remote_code=True)
sents = ['什么是引力透镜。\n答:']
for s in sents:
    response = model.chat(tokenizer, s, max_length=128, eos_token_id=tokenizer.eos_token_id)
    print(response)

2.链接知识库/StableDiffusion:

建议使用Wenda(闻达)实现,基于StarGLM,能够进行多种天文相关的文本处理、知识库回答、AI绘画等任务。

(注:考虑到版权因素,暂不直接提供知识库文件,经典书籍可参考example/books,感谢张家硕同学提供。变星领域相关知识,将在司天-变星知识图谱完成后一同发布。推荐StableDiffusion使用的基模型与Lora权重见“使用/推荐的相关项目”)

司天工程

司天工程是我国天文学家面向时域天文学所提出的“十五五”天文重大基础设施,一期计划在国内多个优选观测台址布置54台(18组)口径1米级的大视场望远镜,组成多波段同时监测网络,每30分钟完成1万平方度天区的高精度三色“凝视”巡天。司天的采样频率比全球其它巡天项目高近两个量级,将突破目前探测时标的限制,在新的空域和时域下发现大批新天体、新现象,在宇宙极端高能爆发源、引力波电磁对应体、系外行星和太阳系天体等理论和观测研究中形成新的突破,在“两暗一黑三起源”等重大科学问题研究以及地球文明灾难预警等国家空间安全问题方面发挥重要作用。

sitian

其中司天"大脑"作为数据智能处理中枢,需要适配于天文的AI工具。StarGLM作为其备选方案,在使用大模型整合天文知识的同时,探索多模态解决具体天文问题的可能性。

许可证信息

项目源码遵从Apache-2.0 license,ChatGLM2-6B的模型权重使用需遵从相应许可。

使用/推荐的相关项目

To do list

大语言模型(科普方式)

专业多模态(科研工具)

观测Agent(司天大脑)

引用

如果这篇工作对你有帮助,请引用:

@Misc{chatglm-for-variable-star,

title = {StarGLM},

author = {YuYang Li, CunShi Wang, MengWei Qu, Yu Bai, Roberto Soria, JiFeng Liu},

howpublished = {\url{https://github.com/Yu-Yang-Li/StarGLM}},

year = {2023}

}