我有一个简单的Java项目,我必须将一些数据写入HDF5文件.我在Windows下使用Netbeans.通常,我是用各自的jar-files构建库.我的知识如何做事;) 我从 p.s.:我找到有很多不同的页面试图解释这件事,我以某种方式失去了概述.有人可以帮我吗?解释中的较高细节将不胜感激;) 解决方案 如果您没有义务使用特定的Java HDF5库,则可能需要查看 从 http://www.hdfql.com/pload下载HDFQL并解开它. 打开NetBeans. 选择菜单选项File > New Project(标题为New Project的对话框应弹出). 内部对话框New Project: 4.1.选择类别的Java,而Java Application为项目选择. 4.2.按按钮Next. 4.3.指定项目及其位置的名称. 4.4.按按钮Finish. 选择菜单选项Run > Set Project Configu
以下是关于 hdf5 的编程技术问答
我无法在Windows设想中进行iSntall lib,也找不到解决方案,错误是关于HDF5 Intalling和HDF5目录! 有人知道如何解决这个问题? 错误是: C:\Users\thiago.bueno>pip install --upgrade tables Collecting tables Using cached https://files.pythonhosted.org/packages/4d/53/8f34ce887c2a2ad8051 8980419a5f6f41defc85a287a355987e559ce9385/tables-3.4.4.tar.gz Complete output from command python setup.py egg_info: H5closextvivw_e.c C:\Users\THIAGO~1.BUE\AppData\Local\Temp\H5closextvivw_e
我正在使用pandas/python以HDFStore格式保存数据框架.当我应用 my_data_frame.to_hdf(参数...)命令时,我有一个错误消息:警告! *** HDF5库版本不匹配错误 ***,我的程序被停止. 我正在使用python 3.5.2 :: anaconda 4.1.1(64位). 我一直在阅读有关此错误消息的信息,正如它所说的那样,这是我的计算机上安装的HDF5与Anacondas使用的版本之间的问题. this post,一个简单的 " = 1.8.18" 可以解决我的问题,但我仍然有相同的消息错误. 感谢您的帮助. 在这里,我完整地记录了错误: Warning! ***HDF5 library version mismatched error*** The HDF5 header files used to compile this application do not match the ver
我无法与R中的HDF文件一起工作.我相信r package hdf5是我使用这些文件所需的方法,但是很难安装它.我得到以下警告: > install.packages("hdf5") Installing package(s) into ‘C:/Users/ME/Documents/R/win-library/2.15’ (as ‘lib’ is unspecified) --- Please select a CRAN mirror for use in this session --- package ‘hdf5’ is available as a source package but not as a binary Warning message: package ‘hdf5’ is not available (for R version 2.15.2) 有人是否有建立R Windows OS版本的R来阅读和使用HDF文件的经验?我希望使用的HDF
任何帮助都非常感谢.尝试使用使用VCPKG安装的HDF5库时,我会有链接错误,Windows 10. . 我使用VCPKG在Windows 10上安装了HDF5 1.12.0: PowerShell:.\vcpkg install hdf5 hdf5:x64-windows 然后,我尝试使用Visual Studio 2019来构建使用HDF5的项目,但我一直在获得以下 lnk2001 错误. 未解决的外部符号 h5t_ieee_f64be_g 未解决的外部符号 h5t_std_i64be_g 未解决的外部符号 h5t_c_s1_g 未解决的外部符号 h5t_native_int_g 未解决的外部符号 h5t_native_double_g 我试图通过直接添加 在vcpkg/packages/for HDF5,szip和zlib下的 ,这些目录会自动安装,这些目录是自动安装的,这些目录是自动安装的,作为HDF5安装步骤的一部分以前,我还按照HDF5文档规定的
我想通过Visual Studio 2010 在Windows 7上与Intel Fortran 2011编译的Fortran90程序创建HDF5数据集 我可以使用预制的二进制文件,还是如何构建新的二进制文件 解决方案 我成功地获得了高性能标记: 这是我所做的(不确定一切都是必要的): 下载并安装Cmake 下载并安装HDF5 [Windows(32位),编译器:CMAKE vs 2010 C,C ++,IVF 12,RWDI] 设置环境变量:hdf5_dir = c:/program文件/hdf_group/hdf5/1.8.x/cmake/hdf5 下载HDF5来源 制作空构建文件夹 从开始菜单运行CMAKE(CMAKE-GUI) 设置源(HDF5源)和目标(空构建文件夹) 配置 将生成器设置为Visual Studio 10 指定本地编译器[C:"",C ++:",fortran:" \ ifort.exe"] 检查:build_share
我正在使用MS Visual C ++ 2010 Express构建插件,我想包括 HDF5库.我已经尝试了使用CMAKE来源构建HDF5,并安装了预编译的库( c/c ++>常规>附加目录:添加include hdf5 Linker>常规>其他库目录:添加lib for HDF5 这是我的DLL模块的片段: #include "cpp/H5Cpp.h" static IResult OnBeginDocument (IDocument pDoc) { H5Fcreate("C:\\out.h5", H5F_ACC_EXCL, H5P_DEFAULT, H5P_DEFAULT); return True; } 请注意,VC ++正确地解析了.h文件,例如,当我将鼠标悬停在该片段上时,视觉上显示H5Fcreate的弹出文档.我的问题是我无法构建试图使用H5Fcreate的模块.这是我的构建尝试中的控制台输出: 1>MyProject.obj : erro
我正在设置一个张量流管道,用于阅读大型HDF5文件作为我深度学习模型的输入.每个HDF5文件都包含100个可变尺寸长度的视频,该视频存储为压缩JPG图像集合(以使磁盘上的尺寸可管理).使用tf.data.Dataset和映射到tf.py_func,使用自定义Python Logic从HDF5文件中读取示例非常容易.例如: def read_examples_hdf5(filename, label): with h5py.File(filename, 'r') as hf: # read frames from HDF5 and decode them from JPG return frames, label filenames = glob.glob(os.path.join(hdf5_data_path, "*.h5")) labels = [0]*len(filenames) # ... can we do this more elegan
是否有任何可用于制作C ++向量的库或标题 我已经查看了HDF5 C ++示例,他们只使用C ++语法来调用C函数,而他们仅将静态C数组写入其数据集(请参阅Create.cpp). 我错过了重点!? 非常感谢 亚当 解决方案 这是在HDF5格式中写入n维multi_array s的方法 这是一个简短的例子: #include using boost::multi_array; using boost::extents; // allocate array int NX = 5, NY = 6, NZ = 7; multi_array float_data(extents[NX][NY][NZ]); // initialise the array for (int ii = 0; ii != NX; ii++) for (int jj = 0; jj != NY; jj+
我目前在Windows 7 64bit上使用HDF5 1.8.15. 我的软件的源代码使用UTF8编码保存在文件中. 我称任何支持性std :: string的HDF5功能后,Ouput获得隐秘 但是,如果我使用const char*而不是std::string,则一切正常.这也适用于文件名. 这是一个简短的样本: std::string filename_ = "test.h5"; H5::H5File file( filename_.c_str(), H5F_ACC_TRUNC); // works H5::H5File file( filename_, H5F_ACC_TRUNC); // filename is not readable or // hdf5 throws an exception 我想这个问题是由我的源文件和HDF5中使用的不同编码引起的
我的团队已获得HDF5文件以阅读.它们包含带有未签名变量的结构化数据.我和我的团队很高兴找到NetCDF库,该库允许使用NetCDF数据模型对HDF5文件进行纯java读取. 没问题---我们认为我们只是将NETCDF数据模型转换为我们想要的任何模型.只要我们将数据删除.然后,我们尝试从HDF5文件读取未签名的32位整数.我们可以加载HDFVIEW 2.9,并看到该变量是一个未签名的32位整数.但是...事实证明,为了增加对伤害的侮辱,NetCDF-3建议您"扩大数据类型"或使用_Unsigned = "true"属性(我没有弥补)表示应将32位视为无符号值. 好吧,如果我从头开始创建netcdf数据,那些kludges可能会有效,但是如何使用netcdf检测到现有HDF5文件中的32位值应解释为未签名? 更新:显然 NetCDF-4确实支持未签名的数据类型.因此,这就提出了一个问题:我如何确定是从NetCDF Java库签名还是未签名的值? 解决方案 是的,您可以
我正在尝试读取一个.H5文件data.h5,该文件具有2个数据集,"数据"和"元数据". "元数据"包含157x1的字典,看起来像这样: 然后,我正在尝试编写一个新的.h5文件,其中包含3列:数字,名称(字典的第一列)和词典中每个变量的单元(字典的最后一列).这是代码: import numpy as np import h5py as h5 hdf = h5.File('data.h5','r') data1 = hdf.get('Data') data2 = hdf.get('metaData') dataset1 = np.array(data1) dataset2 = np.array(data2) #dictionary hdfdic = dict(hdf['metaData']) dic = hdfdic.get('dictionary') dictionary = np.array(dic) #write new h5 file with h5.File(
我最近在Ubuntu机器上安装了 HDF5 库,现在很难链接到导出功能.我写了一个简单的测试脚本 readhdf.cpp 来解释问题: #include int main(int argc, char * argv[]) { hid_t h5_file_id = H5Fopen(argv[1], H5F_ACC_RDWR, H5P_DEFAULT); return 0; } 编译命令是 g++ -Wl,-rpath,$HOME/hdf5/lib -I$HOME/hdf5/include \ -L$HOME/hdf5/lib -l:$HOME/hdf5/lib/libhdf5.so readHDF.cpp 返回以下错误 /tmp/cc6DXdxV.o: In function `main': readHDF.cpp:(.text+0x1f): undefined reference to `H5check_versi
我已经在Ubuntu下安装了HDF5: sudo apt install libhdf5-dev 我有一个使用HDF5的QT程序,该程序在CentOS 7下进行编译,但不在Ubuntu下: erreur:hdf5.h:没有这样的文件或目录#include ^~~~~~~~~ 我正在使用cmake生成构建文件,在其中,我不需要处理CentOS构建的HDF5. 我在网络上添加了我在CMAKE脚本中找到的此部分,但我仍然有一个编译错误. FIND_PACKAGE(ZLIB) FIND_LIBRARY(HDF5_LIBRARY hdf5 ...) FIND_LIBRARY(HDF5_HL_LIBRARY hdf5_hl ...) IF(NOT TARGET hdf5 AND NOT TARGET hdf5_hl) ADD_LIBRARY(hdf5 SHARED IMPORTED) ADD_LIBRARY(hdf5_hl SHARED IMPORT
我有一个HDF5文件,其中包含许多不同的组,所有这些都具有相同数量的行.我还有一个布尔面膜,用于行以保留或卸下.我想根据面膜删除行中的所有组中的所有组. 这是一些代码,希望证明我想做什么,但行不通: def apply_mask(name, *args): h5obj[name] = h5obj[name][mask] with h5py.File(os.path.join(directory, filename), 'r+') as h5obj: h5obj.visit(apply_mask, mask) 导致错误 TypeError: visit() takes 2 positional arguments but 3 were given 如何将我的口罩阵列进入此功能? 解决方案 我最终通过一系列骇人听闻的解决方法实现了这一目标.如果有一个更好的解决方案,我有兴趣了解它! with h5py.File(os.path.joi
我正在尝试将HDF5数据集加载到循环的pytorch培训中. num_worker在dataloader中,此随机抛出" keyError:'无法打开对象(找不到component)'"(下面的追溯). 我能够启动训练循环,但无法通过一个时代的1/4,而没有此错误,这对于随机的"数据集"(每个数据集)(每个数据集)发生.我可以使用常规f['group/subroup'][()]分别将这些数组分别加载到控制台中,因此它看起来不像HDF文件损坏,或者数据集/数组有任何问题. 我尝试过: 根据人们对Pytorch遇到的其他各种问题,调整NUM_WORKER-仍然发生在0个NUM_WORKER中. 升级/降级,火炬,numpy和Python版本. 在数据加载器结束时使用f.close() getItem 使用新的conda env和安装依赖项. 首先调用父组,然后初始化数组:例如: X = f[ID]然后X = X[()] 在HDF路径中使用双重斜线 因为
我在熊猫0.14.1上.假设我需要使用时区中的两个时间戳索引数据.将结果数据框保存到HDF5时,我似乎失去了时区的意识: import pandas as pd dti1 = pd.DatetimeIndex(start=pd.Timestamp('20000101'), end=pd.Timestamp('20000102'), freq='D', tz='EST5EDT') dti2 = pd.DatetimeIndex(start=pd.Timestamp('20000102'), end=pd.Timestamp('20000103'), freq='D', tz='EST5EDT') mux = pd.MultiIndex.from_arrays([dti1, dti2]) df = pd.DataFrame(0, index=mux, columns=['a']) 这里df有时区:
一个人如何从几个hdf5文件中制作Rasterbrick?通常,数据以hdf5格式提供,并且必须将其转换为更友好的格式,以便于处理. 目前我知道rhdf5 package,但是如何获得RasterBrick是我不确定的. source("http://bioconductor.org/biocLite.R") biocLite("rhdf5") library("rhdf5") library("raster") 您可以访问此链接上的几个HDF5文件您可以使用两个文件进行插图. 谢谢! at. 解决方案 一个选项是使用gdalUtils将hdf5文件转换为GTiff.一旦这样做,就可以在堆栈中阅读它们.这是一个示例代码: # list all the `hdf5` files files