赞
踩
https://storage.googleapis.com
最后在网上见到了好心人分享的百度网盘链接,附上原博地址https://blog.csdn.net/Wentage_Tsai/article/details/114278437,以及百度网盘地址
链接:https://pan.baidu.com/s/1eGVoQUOgEi_RtBj15InevA
提取码:m003
最后下载好的数据集是这个亚子的
作者给的邮箱jienengchen01 AT gmail.com并不能找到,可能因为它是谷歌邮箱的缘故(ps:每次涉及到科学上网的部分就再次给我科研的路上增添一块绊脚石),想去synapse网站上直接下载然后按作者说的处理方式处理,结果这个网站根本不会用。那看把自己的数据集处理一下看可不可以用。
2.1今天学习到的
使用迁移学习
在使用训练好的模型时,其中有一种保存的模型文件格式叫.npy。
打开方式·实现代码:
import numpy as np
test=np.load('./bvlc_alexnet.npy',encoding = "latin1") #加载文件
doc = open('1.txt', 'a') #打开一个存储文件,并依次写入
print(test, file=doc) #将打印内容写入文件中
模型文件(.npy)刨析:
import numpy as np
from numpy import * #使用numpy的属性且不需要在前面加上numpy
import tensorflow as tf
#模型文件(.npy)部分内容如下:由一个字典组成,字典中的每一个键对应一层网络模型参数。(包括权重w和偏置b)
a = {'conv1':[array([[1,2],[3,4]],dtype=float32),array([5,6],dtype=float32)],'conv2':[array([[1,2],[3,4]],dtype=float32),array([5,6],dtype=float32)]}
conv1_w = a['conv1'][0]
conv1_b = a['conv1'][1]
conv2_w = a['conv2'][0]
conv2_b = a['conv2'][1]
print(conv1_w)
print(tf.Variable(conv1_w))
print(conv1_b)
print(tf.Variable(conv1_b))
结果:
[[ 1. 2.]
[ 3. 4.]]
<tf.Variable ‘Variable:0’ shape=(2, 2) dtype=float32_ref>
[ 5. 6.]
<tf.Variable ‘Variable_1:0’ shape=(2,) dtype=float32_ref>
原文链接:https://blog.csdn.net/weixin_43838785/article/details/103462604
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。