我如何获得/定义我的图的输入输出名称或以适当的形式冻结它
大家好,我们一直在尝试以.bytes格式保存模型,以便我们可以在C#脚本中使用它. 我们正在使用TensorFlow 1.7.0 这是我们的模型: bsize=16 # define cnn model def define_model(): # load model model = VGG16(include_top=False, input_shape=(224, 224, 3)) # mark loaded layers as not trainable for layer in model.layers: layer.trainable = False # add new classifier layers flat1 = Flatten()(model.layers[-1].output) class1 = Dense(128, activation='relu', kernel_initiali
8 2024-04-24
编程技术问答社区
手动将 tf.contrib.slim 升级到 tf 2.0
我对使用tf.contrib.slim功能的Python代码有问题,并且在升级为2.0后不再工作. 如何将以下升级为TF 2.0: import tensorflow.contrib.slim as slim import tensorflow.contrib.slim.nets # ... net = slim.conv2d( inp, dim, [3, 3], rate=1, normalizer_fn=slim.layer_norm, activation_fn=lrelu, scope='g_' + str(width) + '_conv1') 谢谢. 解决方案 您可以使用tf_slim软件包( https://github.com/Google-Research/tf-slim ) 但是,将软件包更新为TF2的推送请求仍在待处理中.因此您应该从分支机构安装 pip install gi
22 2024-04-22
编程技术问答社区
在 TensorFlow 中使用共享 GPU 内存?
因此,我在Windows 10机器上安装了GPU版本的Tensorflow,上面有GeForce GTX 980图形卡. 诚然,我对图形卡知之甚少,但是根据DXDIAG的说法,它确实有: 4060MB专用内存(VRAM)和; 共享内存的 8163MB 总共大约12224MB. 我注意到的是,这种"共享"记忆似乎几乎没有用.当我开始训练模型时,VRAM将填充,如果内存需求超过这些4GB,则TensorFlow会随着"资源耗尽"的错误消息崩溃. 当然,我可以通过选择批处理大小来避免达到这一点专用的内存. 解决方案 共享内存是为图形保留的主系统RAM的一个区域.参考: /www.makeuseof.com/tag/can-shared-graphics-finally-compete-with-a-dedicated-graphics-card/ https://youtube.com/watch?v=e5wyjyjy1zwcq 这种类型
20 2024-04-22
编程技术问答社区
无法加载DLL 'tensorflow'或其某个依赖项(ML.NET)。
我使用Microsoft的ML.NET Framework. 在我的开发机器上,我可以运行代码,并且一切都很好. 但是,当我将其部署到我的登台服务器时,我会在运行时获得此错误: System.Reflection.TargetInvocationException: Exception has been thrown by the target of an invocation. System.DllNotFoundException: Unable to load DLL 'tensorflow' or one of its dependencies: The specified module could not be found. (0x8007007E) at Tensorflow.c_api.TF_NewGraph() at Tensorflow.Graph..ctor() at Microsoft.ML.Transforms
10 2024-04-15
编程技术问答社区
Tensorflow C API-输入张量的问题
我正在使用Tensorflow API来为C加载Python中的预训练模型,并在嵌入式编译程序中运行预测. 我正在使用的模型将字符串作为输入,该输入转换为张量,并给出单个浮子作为输出. API将模型加载良好并在不抱怨的情况下进行会话. 我面临的问题是,无论我输入哪些数据到C API会话中,我总是得到完全相同的输出张量.所以我猜我做错了什么,我看不到它是什么.但是我假设我不会以C API期望的方式格式化输入数据. 这是saved_model_cli的输出: The given SavedModel SignatureDef contains the following input(s): inputs['lstm_input'] tensor_info: dtype: DT_FLOAT shape: (-1, 64, 88) name: serving_default_lstm_input:0 The given SavedM
0 2024-04-09
编程技术问答社区
TensorFlow自定义分配器和从Tensor访问数据
在TensorFlow中,您可以出于各种原因创建自定义分配器(我是为新硬件而进行的).由于设备的结构,我需要使用一些元素作为我的数据指针,分配器将其返回为void*. 在我正在写的内核中,我可以访问张量,但我需要获取我编写的指针结构.检查课程,似乎我可以通过做tensor_t.buf_->data() 来获得该结构 Tensor::buf_ Tensor::buf_ /p> 问题是我找不到执行此操作的代码,我担心它不安全(很可能!),或者有一种更标准的方法. 有人可以确认这是一个好主意吗?并提供替代方案,如果存在? 解决方案 您也可以使用其他解决方案 四天后... void* GetBase(const Tensor* src) { return const_cast(DMAHelper::base(src)); } 来自
2 2024-04-09
编程技术问答社区
当使用TF_SessionRun在C语言(非C++)中运行TensorFlow图时出现分段故障
我正在尝试使用C API加载并运行TensorFlow图(我需要在Tensorflow Project之外构建,最好是没有Bazel,因此不能使用C ++). 该图是一个3层LSTM-RNN,将3个元素的特征向量分为9个类之一.该图是在Python中构建和训练的,我已经在Python和C ++中进行了测试. 到目前为止,我已经加载了图形,但是一旦加载图,我就很难运行会话.我已经四处挖掘了一些挖掘,但是我只找到了一个使用C API的示例(在此),这不包括运行图. 我已经设法将以下内容组合在一起,但是它会产生细分故障(如果我评论tf_sessionrun()呼叫,我可以成功运行代码,但是当包括tf_sessionrun(包括)时,我会得到seg错误.这是代码: #include "tensorflow/c/c_api.h" #include #include #include #include
2 2024-04-08
编程技术问答社区
从检查点加载权重在Keras模型中不工作
我对此感到疯狂. i使用TensorFlow Keras定义了一个顺序模型: model = tf.keras.Sequential([tf.keras.layer.Dense(128,input_shape(784,),activation="relu"), tf.keras.layer.Dense(10,activation="softmax"]) model.compile(optimizer="adam",loss="mse") keras.experimental.export_saved_model(model,"keras_model") 我在 c程序将权重保存在检查点文件中. 尝试从检查点文件中恢复Python中的权重时,请使用: keras.experimental.load_from_saved_model("keras_model/") #OR model = tf.keras.S
6 2024-04-06
编程技术问答社区
如何用maven为特定的操作系统构建一个jar?
我正在使用Maven进行Eclipse来构建将在远程服务器上运行的JAR.我的系统正在运行OS X,服务器正在运行Cestos. 对于该项目,我需要 TensorFlow库. Maven成功解决了依赖项,因此我能够在本地运行该项目.但是,在服务器上,我遇到了tensorflow库不存在的错误,因为默认情况下仅包含MacOSX版本.在构建过程中,我如何强迫Maven用Linux版本替换MacOSX版本? 可以找到用于不同平台的TensorFlow Java库在这里. P.S.我已经尝试在系统范围指向JAR的POM中添加依赖性. 解决方案 在您的POM中尝试一下: org.bytedeco.javacpp-presets tensorflow 0.9.0-1.2
24 2024-04-05
编程技术问答社区
如何在tensorflow中读取utf-8编码的二进制字符串?
我试图将编码的字节字符串转换回TensorFlow图中的原始数组(使用TensorFlow操作),以便在Tensorflow模型中进行预测.到字节转换的阵列基于这个答案,这是对Tensorflow模型预测的建议输入. def array_request_example(input_array): input_array = input_array.astype(np.float32) byte_string = input_array.tostring() string_encoded_contents = base64.b64encode(byte_string) return string_encoded_contents.decode('utf-8')} TensorFlow代码 byte_string = tf.placeholder(dtype=tf.string) audio_samples = tf.decode_raw(by
0 2024-04-05
编程技术问答社区
ERROR: 配置值cuda没有在任何.rc文件中定义 INFO: Invocation ID: 1faa4ce7-96be-42d3-80bc-10cac6a8f3a7
我正在关注此 https://Alliseesolutions.wordpress.com/2016/07/05/how-to-install-gpu-tensorflow-0-9-from-sources-ubuntu-14-04/ 系统信息: ubuntu 14.04 Python 2.7 Bazel版本0.22 cuda/cudnn版本9.0/7.4 gpu:nvidia gtx 1050 描述问题: 错误:config value cuda未在任何.rc文件 中定义 信息:调用ID:1FAA4CE7-96BE-42D3-80BC-100CAC6A8F3A 请帮助我 预先感谢您 解决方案 Bazel的版本太新了,无法构建的张量. 请参阅此页面: https://www.tensorflow.org/install/source 对于每次张力量的Bazel级别,用于使用什么水平. Short summary: T
6 2024-04-05
编程技术问答社区
在Bazel项目中建立CMAKE库
我已经在tensorflow的私人叉子上写了一个模块,该模块使用 nanomsg . 对于我的本地开发服务器,我使用cmake install安装nanomsg(/usr/local),并从其安装的位置访问了标头文件.该项目在本地运行良好. 但是,我现在需要在Tensorflow工作区中包装纳米格.我已经尝试了以下两种方法,并且都不感到满意: 类似于这个答案对于OpenCV,我将Nanomsg预先编译到一个私人存储库中,将其加载到我的工作空间中( tensorflow/workspace.bzl)使用相关构建脚本中的库.这运行良好,但不是便携式解决方案. 一个更便携的解决方案,我创建了一个genrule来运行可用于构建纳米格的cmake命令的特定序列.这种方法是整洁的,但是genrule不能重复使用cmake其他项目. (我提到此讨论). 显然,cmake不受巴泽尔建造中的一流公民的支持.是否有人在您自己的项目中遇到了这个问题的人创建了一种通用的,便携式的方
14 2024-04-05
编程技术问答社区
tensorflow构建失败,gcc错误'as'。
我尝试从源构建张量,但由于GCC错误而失败. 错误日志: gcc: error trying to exec 'as': execvp: No such file or directory ERROR: /home/pcy/tensorflow-r0.10/tensorflow/core/kernels/BUILD:369:1: output 'tensorflow/core/kernels/_objs/batch_matrix_band_part_op_gpu/tensorflow/core/kernels/batch_matrix_band_part_op_gpu.cu.pic.o' was not created. ERROR: /home/pcy/tensorflow-r0.10/tensorflow/core/kernels/BUILD:369:1: not all outputs were created. Target //tensorflow/tools/p
0 2024-04-04
编程技术问答社区
是否可以在Windows上使用TensorFlow C++ API?
我有兴趣将TensorFlow纳入Windows 10上的Visual Studio内置的C ++服务器应用程序,我需要知道是否可能. Google最近宣布了Windows支持TensorFlow的支持: 但是我可以告诉这只是一个更常用的python软件包的PIP安装,并且要使用C ++ API,您需要自己从源构建仓库:如何构建和使用Google Tensorflow C ++ API 我尝试使用Bazel自己构建该项目,但遇到了试图配置构建的问题. 是否有一种方法可以使TensorFlow C ++在本机Windows中工作(我看过其他人帖子,不使用Docker或New Windows 10 Linux子系统)? )? 谢谢, ian 解决方案 当然可能在Windows上使用Tensorflow的C ++ API,但目前不是很容易 Easy . Right now, the easiest way to build against the C++ API o
4 2024-04-04
编程技术问答社区
AWS SageMaker端点:调用boto3.client(" s3")时,最大递归深度超过了错误
当我尝试在部署的sagemaker端点上调用.predict()时(对于TensorFlow模型)时,我遇到的最大递归深度超过了错误.我已经在推理脚本中放置了记录语句,特别是在我的input_handler函数和处理程序调用的数据阅读/清洁功能中. 日志表明所有内容都在工作,直到我在user_heart_rate_uri上调用我的第一个read_latest_file()函数为止.因此,log "Called all user_data_uri functions"在CloudWatch中打印,但未打印"read_latest_file on heart rate called".我已经进一步将记录语句放入read_latest_file()中,我想我知道问题发生在哪里. **这是我的Input_handler函数的一部分: ** def input_handler(data, context): logger.info("input_handler ente
50 2024-04-03
编程技术问答社区
Tensorflow。如何编码和读取bmp图像?
我正在尝试读取.bmp映像,对这些图像进行一些增强,将它们保存到.tfrecords文件,然后打开.tfrecords文件,然后使用图像进行图像分类.我知道有一个tf.image.encode_jpeg()和tf.image.encode_png()函数,但是没有tf.image.encode.encode_bmp()函数.我知道.bmp映像是未压缩的,因此我尝试简单地base64-endodode,np.tostring()和np.tobytes()图像,但是当试图解码这些格式时,我会收到以下错误: tensorflow.python.framework.errors_impl.InvalidArgumentError: channels attribute 3 does not match bits per pixel from file 我的看法是,在编码jpeg或png的张力流中,对图像的字节编码做了一些额外的事情.保存有关数组维
6 2024-04-01
编程技术问答社区
我可以在Maya , Blender中导入Tensorflow和Keras吗?
我正在参加一个研讨会,我们需要在其中自动钻机字符.也许,我们将使用深度学习方法.任务是识别身体部位.我的问题:有没有办法将TensorFlow和Keras或其他神经网络连接到3D软件? ? 解决方案 对于搅拌机,您可以按照本教程, 遵循 https://wwwww.youtube.com/watch?v 我通过导入pytorch, opencv, sklearn等在Blender 2.81和Python 3.7中进行了测试.视频中提供的测试代码正确.您不需要遵循教程中显示的大熊猫安装和git克隆.让其与其他较大的软件包安装或与Conda一起安装. conda环境创造,. conda create -n MyNamedEnv python=3.7 创建环境后,请安装您所需的软件包.如果您有多个环境,则通常在Anaconda3/envs文件夹中.命令建立链接, mklink /j python C:\Users\computer\Anaconda3\en
8 2024-04-01
编程技术问答社区
在tensorflow中用许多输入数据文件获得良好的混合效果
我正在与Tensorflow合作,希望训练一个深入的CNN,以进行游戏的预测.我创建的数据集由100,000个二进制数据文件组成,其中每个数据文件对应于录制的游戏,并包含大约200个培训样本(游戏中的每一步一个).我相信,使用SGD时进行良好的混合非常重要.我希望我的批次包含来自不同游戏的样本和不同游戏阶段的样本.因此,例如,只需从100个文件开始时就读取一个样本,然后改组不是好的b/c,这些100个样本都是每个游戏的第一步. 我已经阅读了有关文件馈送数据的教程,但我不确定他们提供的库是否可以完成我需要的内容.如果我自己要硬编码,我基本上会将一堆文件指针初始化到每个文件中的随机位置,然后从随机文件中提取样本,从而相应地增加文件指针. 那么,我的问题是TensorFlow是否提供了这种功能,还是更容易编写自己的代码来创建批处理? 解决方案 是的 - 您想要的是使用两件事的组合. (请注意,此答案是为TensorFlow V1编写的,并且某些功能已被新的TF.DATA管道
10 2024-03-30
编程技术问答社区
打印一个二进制的整数张量
我有一个tf.int32类型的张量 我想使用tf.Print,但我需要结果以二进制. 这甚至可能吗? 它是用于调试. 示例: constant = tf.constant(5) #magic tf.Print(constant) # prints 101 解决方案 您可以使用x = tf.placeholder(tf.int32) bin_op = tf.py_function(lambda dec: bin(int(dec))[2:], [x], tf.string) bin_op.eval(feed_dict={x: 5}) # '101' ,但请注意,tf.py_function在图中创建一个节点.因此,如果您想打印许多张量,可以在tf.Print之前用tf.py_function包裹它们,但是在循环中这样做可能会导致腹胀.
12 2024-03-30
编程技术问答社区