build_transformer_model
还有两个问题:
1.如果不返回keras的bert模型返回的是什么?
bert = build_transformer_model(
config_path=config_path,
checkpoint_path=checkpoint_path,
return_keras_model=False,
)
2.在关系抽取里特意的上了mask防止那部分信息被回传,但是ner的代码包括这篇文章都padding了。却没有上padding的原因是什么?
1.返回bert4keras自带的模型基类。这些只需要看看bert4keras的源码就知道了,没必要问。
2.不知道你说什么,请表达清楚意思
苏老师,有这么一种说法,取bert的倒数第二层的输出是比较好的,因为最后一层的输出和最后的目标太近,前面的层没有学习到抽象的语义,/u012526436/article/details/87697242 可以让这个模型抽取向量能到任意制定层吗
自己实现了一个bert4keras - 科学空间|Scientific Spaces