一、tensorflow是软件吗?
tensorflow不是软件,TensorFlow 是由 Google Brain 团队为深度神经网络(DNN)开发的功能强大的开源软件库,于 2015 年 11 月首次发布,在 Apache 2.x 协议许可下可用。截至今天,短短的两年内,其 GitHub 库大约 845 个贡献者共提交超过 17000 次,这本身就是衡量 TensorFlow 流行度和性能的一个指标。
二、tensorflow人脸识别优点?
和TensorFlow对应的是Theano,Torch,而Caffe专精于图像处理。如果就是一个标准图像处理应用,Caffe会很方便,仍然有其存在的价值。而在一般的DL task上,Caffe本来就不如Theano之流,也无所谓取代。
三、opencv与tensorflow区别?
OpenCV是计算机视觉库,Tensorflow是深度学习框架。
包含了大量的图像处理和计算机视觉的算法,但是在机器学习方面明显不足,ML模块只有SVM,MLP,kNN等有限的几种算法。dnn模块也是调用别的框架。
Tensorflow是专为深度学习而生,可以方便的实现各种深度学习算法。
二者不属于同一领域,做视觉用OpenCV,做深度学习用Tensorflow。或者二者结合做图像识别等等。
四、tensorflow下不了咋办?
TensorFlow在Windows中的安装
首先安装最新版的 Anaconda(>= Python 3.6)
Windows+R,输入 CMD 打开命令窗,安装 CPU 版本
pip install --upgrade tensorflow
GPU版本的安装过程则相对复杂,除了要考虑电脑是否支持GPU版本(主要是看显卡)外,还有cuda等的安装以及版本号对应的问题
五、pycharm下载不了tensorflow?
可以在设置中进行下载,网络可能有延迟
六、anaconda和tensorflow关系?
我们需要Anaconda帮我们把房间打好隔断,然后我们再在书房装上TensorFlow来进行我们的任务。
七、pycharm安装tensorflow太慢?
安装tensorflow的速度取决于电脑内存和网速大小。
八、sklearn和tensorflow区别?
sklearn定位是通用机器学习库;tensorflow定位是深度学习库。
sklearn提供强大的特征工程处理函数,如降维、特征选择等;tensorflow没有。
sklearn更倾向于使用者可以自行对数据进行处理;tensorflow则是通过深度学习机制学习数据表征。
sklearn主要适合中小型、实用机器学习项目,对硬件要求相对较低,尤其是那种数量级不大且需要使用者手动对数据进行处理,并选择合适模型的项目;
tensorflow主要适合已经明确了解需要深度学习,且数据处理要求不高的项目,那种数据量较大且最终需要的京都要求更高的项目比较适用(一般需要GPU加速应用)。
九、anaconda安装tensorflow时间?
用conda安装比pip安装要方便,依赖库都是兼容的,直接通过网址下载较慢,可以先下载tensorflow.whl,然后本地安装即可,这种方式是最快的,大概一分钟时间。
十、tensorflow读取各层输出?
tf1.0中通过带weight的pb文件与get_tensor_by_name函数可以获取每一层的输出
import os
import os.path as ops
import argparse
import time
import math
import tensorflow as tf
import glob
import numpy as np
import matplotlib.pyplot as plt
import cv2
os.environ["CUDA_VISIBLE_DEVICES"] = "-1"
gragh_path = './model.pb'
image_path = './lvds1901.JPG'
inputtensorname = 'input_tensor:0'
tensorname = 'loss/inference/encode/resize_images/ResizeBilinear'
filepath='./net_output.txt'
HEIGHT=256
WIDTH=256
VGG_MEAN = [103.939, 116.779, 123.68]
with tf.Graph().as_default():
graph_def = tf.GraphDef()
with tf.gfile.GFile(gragh_path, 'rb') as fid:
serialized_graph = fid.read()
graph_def.ParseFromString(serialized_graph)
tf.import_graph_def(graph_def, name='')
image = cv2.imread(image_path)
image = cv2.resize(image, (WIDTH, HEIGHT), interpolation=cv2.INTER_CUBIC)
image_np = np.array(image)
image_np = image_np - VGG_MEAN
image_np_expanded = np.expand_dims(image_np, axis=0)
with tf.Session() as sess:
ops = tf.get_default_graph().get_operations()
tensor_name = tensorname + ':0'
tensor_dict = tf.get_default_graph().get_tensor_by_name(tensor_name)
image_tensor = tf.get_default_graph().get_tensor_by_name(inputtensorname)
output = sess.run(tensor_dict, feed_dict={image_tensor: image_np_expanded})
ftxt = open(filepath,'w')
transform = output.transpose(0, 3, 1, 2)
transform = transform.flatten()
weight_count = 0
for i in transform:
if weight_count % 10 == 0 and weight_count != 0:
ftxt.write('\n')
ftxt.write(str(i) + ',')
weight_count += 1
ftxt.close()