使用transformsers的pipeline函数:
QA_tokenizer = AutoTokenizer.from_pretrained(model_path)
QA_model = MRC_model(model_path)
QA = pipeline('question-answering', model=QA_model, tokenizer=QA_tokenizer)
其中QA_tokenizer 是bert预训练模型给定的,QA_model 是自定义网络训练出来的ckpt格式的模型,请问这样会有什么问题么?
也就是说pipeline的模型输入支持自定义格式么,还是必须得是类似于官方bert模型的bin格式模型之类的?
1、从代码上看,没有明显的问题。pipeline函数支持自定义模型,只要满足输入和输出格式的要求即可。
2、pipeline函数的模型输入支持多种格式,不仅仅限于官方的BERT模型格式(例如.pt、.bin、.h5等格式)。在使用自定义模型时,只需要将模型导入到Python中,并将模型传递给pipeline函数即可。