概述
基于大规模中医医案数据在BERT中文模型上继续训练300轮得到的预训练模型
使用方式
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("lucashu/TcmYiAnBERT")
model = AutoModelForMaskedLM.from_pretrained("lucashu/TcmYiAnBERT")
基于大规模中医医案数据在BERT中文模型上继续训练300轮得到的预训练模型
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("lucashu/TcmYiAnBERT")
model = AutoModelForMaskedLM.from_pretrained("lucashu/TcmYiAnBERT")