最近做的一项任务,需要同时运行多个二分类模型(如果这些二分类结果稳定了,即可转为一个多标签分类模型)。
问题描述
假定分类模型分别为A和B
示例代码如下:
# 将kerasutil_A 与kerasutil_B 作为全局变量,可以一次加载多次应用,从而提升性能kerasutil_A = KerasUtil(rawtextpath=r'A.csv', lstmmodelpath=r'A.h5', modeltype='bilstm') kerasutil_B = KerasUtil(rawtextpath=r'B.csv', lstmmodelpath=r'B.h5', modeltype='bilstm')
具体的使用方式为:
resultlist = []if categoryid == 'A': resultlist = kerasutil_A.predictcategory(sentence)elif categoryid == 'B': resultlist = kerasutil_B.predictcategory(sentence)
但是在运行过程中,发现莫名奇妙的问题。
比如有两个与类别B相关的句子:
sentence_B_1, Positive
sentence_B_2, Negative
在多个model实例加载完毕后,
如果按照sentence_B_1, sentence_B_2的顺序去跑,会得到sentence_B_1:Positive, sentence_B_2依然是Positive的结果;
如果按照sentence_B_2, sentence_B_1的顺序去跑,会得到sentence_B_2:Negative, sentence_B_1依然是Negative的结果;
但是如果只在一个进程加载Model B,则无论sentence_B_1, sentence_B_2按照什么顺序去跑,结果都是正确的。
事实上,KerasUtil中没有任何静态或类级别的变量,都是实例级别的变量(每个实例中的属性都是使用独立的内存地址):
class KerasUtil: def __init__(self, rawtextpath, lstmmodelpath, modeltype='lstm', multiplelabels=False): self.max_fatures = 2000 self.modelrawtextpath = rawtextpath self.modelpath = lstmmodelpath self.modeltype = modeltype self.multiplelabels = multiplelabels self.data = None self.lstmmodel = None self.tokenizer = None self.initialtokenizer()
data,lstmmodel, tokenizer都是在实例化的时候,才去赋值,经过跟踪调试堆栈信息,也能够得出kerasutil_A与kerasutil_B中的属性都是独立,拥有各自特征的值。
这确实是太奇怪了!!
目前尚不能确定是否是底层的Tensorflow对同一个进程的多个模型的应用,导致出现类似问题。(模型内的张量出现混乱?)
不过事实证明,基于Tensorflow的Keras在多模型同时运行时,无论是单纯的执行predict方法(容易出现错误,需要clear session或者重新加载模型),还是执行某个模型的分类结果,都是诡异的。
解决方案
将模型的初始化与加载逻辑,放置在应用业务分类的函数内。
即每次函数执行完毕,模型对象都会被释放。
def confirmwithmachinelearning(categoryid, sentencelist): # 用多个model时,出于性能考虑,之前是作为全局变量加载的 # 之后发现同时run多个文档的的时候,结果居然与单独去跑某个文档的结果不一致 # 猜测是否是底层的tensorflow的张量信息缺失或互相窜了 # 目前这种方式是在函数内加载对应模型,虽然慢了几秒,但结果是准确的 kerasutil = None if categoryid == 'A': kerasutil = KerasUtil(rawtextpath=r'A.csv', lstmmodelpath=r'A.h5', modeltype='bilstm') if categoryid == 'B': kerasutil = KerasUtil(rawtextpath=r'B.csv', lstmmodelpath=r'B.h5', modeltype='bilstm') for sentence in sentencelist: resultlist = kerasutil.predictcategory(sentence) ...
经过验证,诡异的现象消失了,类别结果不会因为多模型加载而造成不同的结果。
附注:这种方式对于相对较小的模型,不会带来性能方面的明显损耗,但是对于较大的多个模型共用,建议API分离,才能通过全局变量一次加载多次应用的benefit
还有需要注意的地方:
就是模型加载的地方:
我们经常会这样写:
def initialforlstm(self): if not os.path.exists(self.modelpath): self.trainlstmmodel() self.lstmmodel = load_model(self.modelpath) elif self.lstmmodel is None: try: keras.backend.clear_session() except Exception as e: logger.info(e) logger.info('Load model: {0}'.format(self.modelpath)) self.lstmmodel = load_model(self.modelpath)
在Windows下启动模型有关的API,非常顺畅。
但是发布到LINUX的Dev服务器,问题来了:
会出现这个问题,然后就崩了:
segmentation fault
经过搜索万能的谷歌,发现类似的问题,但没有解决方案:
Keras segmentation fault on load_model on Linux and not on Windows
不过因为有之前发布加载Keras模型API的经验,尝试将clear_session的顺序倒置一下(clear_session是必须要的,否则无法在Flask加载任何Keras的模型)
def initialforlstm(self): if not os.path.exists(self.modelpath): self.trainlstmmodel() self.lstmmodel = load_model(self.modelpath) elif self.lstmmodel is None: logger.info('Load model: {0}'.format(self.modelpath)) try: self.lstmmodel = load_model(self.modelpath) except Exception as e: logger.info(e) keras.backend.clear_session() self.lstmmodel = load_model(self.modelpath)
作者:何高山
链接:https://www.jianshu.com/p/5f74eddaa81c
共同学习,写下你的评论
评论加载中...
作者其他优质文章