TypeError: unhashable type: 'numpy.ndarray'
遇到这个错误一定要仔细检查自己的变量名是否误重合,我就是犯了这样的傻瓜错误...
另外在网上找到一个解决方法应该也会有帮助:传送门
ValueError: Cannot create a tensor proto whose content is larger than 2GB.
向网络图中输入的数据太大导致内存溢出而报错。我是在tf.Variable时候传入的embedding map太大导致这个错误,目前的解决方法是在batch_split阶段就对embedding map进行划分。
其他解释:传送门
tensorflow.python.framework.errors_impl.DataLossError: Unable to open table file /bert_checkpoint/bert_model.ckpt.data-00000-of-00001: Data loss: not an sstable (bad magic number): perhaps your file is in a different file format and you need to use a different restore operator?
在模型中加载训好的bert模型参数的时候报这个错了。
我这里加载ckpt的代码块如下:
(assignment_map, initialized_variable_names) = modeling.get_assignment_map_from_checkpoint(tvars, config.init_checkpoint_file)
tf.train.init_from_checkpoint(config.init_checkpoint_file, assignment_map)
init_checkpoint文件夹下面有:
然后init_checkpoint_file要定位到
bert_model.ckpt
,因为加载模型参数包括data、index、meta
三个文件。
FailedPreconditionError (see above for traceback): Attempting to use uninitialized value accuracy/total
测试tf.metrics时候报了这个错,后查明原因是因为tf.metrics.accuracy会产生两个局部变量 count 和 total,因此测试代码里要对local variable也进行初始化。示例如下:tensorflow 1.12 是真的爆坑 巨坑无比 我愿称之为坑王 当之无愧 生气!
扩展维度 tf.expand_dims
tensor 复制 tf.tile
tf.matmul() tensor和权重的维度还必须维护到一致 服了 torch这方面就很人性化,直接相乘 啥事没有 大无语!