赞
踩
目录
- # 28、pandas.HDFStore.keys函数
- HDFStore.keys(include='pandas')
- Return a list of keys corresponding to objects stored in HDFStore.
-
- Parameters:
- include
- str, default ‘pandas’
- When kind equals ‘pandas’ return pandas objects. When kind equals ‘native’ return native HDF5 Table objects.
-
- Returns:
- list
- List of ABSOLUTE path-names (e.g. have the leading ‘/’).
-
- Raises:
- raises ValueError if kind has an illegal value.
28-2-1、include(可选):用于控制返回的键的类型或格式。
include参数允许你指定一个过滤器,以限制keys()方法返回的键的类型,它接受以下值之一(或其组合,通过列表或元组提供):
28-2-1-1、'all'(默认值):返回所有类型的键。
28-2-1-2、'group':仅返回组(HDF5中的目录或容器)的键。
28-2-1-3、'table'或'dataframe':仅返回以表格形式存储的DataFrame的键(HDF5 中的表格)。
28-2-1-4、'fixed'或'series'或'scalar':仅返回以固定格式存储的Series或单个值的键。
返回存储在HDF5文件中所有对象的键(即名称)的列表。
返回一个包含字符串的列表,每个字符串都是一个存储在HDF5文件中的对象的键(名称),这些键是对象的绝对路径名,通常以/开头。
HDF5(Hierarchical Data Format version 5)是一种用于存储和组织大量数据的文件格式,它特别适合于存储和组织大量科学数据。
无
- # 28、pandas.HDFStore.keys函数
- import pandas as pd
- # 假设'example.h5'是你的HDF5文件名
- with pd.HDFStore('example.h5') as store:
- # 获取所有键
- all_keys = store.keys()
- # 过滤出仅包含DataFrame的键
- df_keys = [key for key in all_keys if store.get_storer(key).is_table]
- # 过滤出仅包含Series的键
- series_keys = [key for key in all_keys if not store.get_storer(key).is_table]
- # 如果你想同时获取DataFrame和Series的键,可以这样做
- all_pandas_keys = df_keys + series_keys
- if __name__ == '__main__':
- # 打印结果以供检查
- print(f"DataFrame keys: {df_keys}")
- print(f"Series keys: {series_keys}")
- print(f"All keys: {all_pandas_keys}")
- # 28、pandas.HDFStore.keys函数
- # DataFrame keys: ['/data']
- # Series keys: []
- # All keys: ['/data']
- # 29、pandas.HDFStore.groups函数
- HDFStore.groups()
- Return a list of all the top-level nodes.
-
- Each node returned is not a pandas storage object.
-
- Returns:
- list
- List of objects.
无
用于列出存储在HDF5文件中的所有组(或称为“目录”或“容器”)的信息。
HDFStore.groups()方法的返回值通常包含以下信息:
29-4-1、组名:每个组的名称,它通常是一个字符串,表示HDF5文件中的路径。
29-4-2、键:每个组内包含的键(即,对象的名称),这些键对应于存储在组中的DataFrame、Series或其他pandas对象。
29-4-3、子组:如果有的话,还可能包含关于子组的信息。不过,请注意,并不是所有的实现都会返回子组信息,这取决于pandas的版本和HDF5文件的结构。
无
无
- # 29、pandas.HDFStore.groups函数
- import pandas as pd
- import numpy as np
- # 创建一些示例数据
- df1 = pd.DataFrame(np.random.randn(10, 4), columns=list('ABCD'))
- df2 = pd.DataFrame(np.random.randn(10, 4), columns=list('EFGH'))
- series1 = pd.Series(np.random.randn(10), name='series1')
- # 创建并写入数据到HDF5文件
- with pd.HDFStore('example.h5') as store:
- store.put('dataframe1', df1)
- store.put('dataframe2', df2)
- store.put('series1', series1)
- # 使用HDFStore.groups()列出文件中的所有组
- with pd.HDFStore('example.h5') as store:
- groups = store.groups()
- print("Groups in HDF5 file:")
- for group in groups:
- print(group)
- # 29、pandas.HDFStore.groups函数
- # Groups in HDF5 file:
- # /data (Group) ''
- # /dataframe1 (Group) ''
- # /dataframe2 (Group) ''
- # /series1 (Group) ''
- # 30、pandas.HDFStore.walk函数
- HDFStore.walk(where='/')
- Walk the pytables group hierarchy for pandas objects.
-
- This generator will yield the group path, subgroups and pandas object names for each group.
-
- Any non-pandas PyTables objects that are not a group will be ignored.
-
- The where group itself is listed first (preorder), then each of its child groups (following an alphanumerical order) is also traversed, following the same procedure.
-
- Parameters:
- where
- str, default “/”
- Group where to start walking.
-
- Yields:
- path
- str
- Full path to a group (without trailing ‘/’).
-
- groups
- list
- Names (strings) of the groups contained in path.
-
- leaves
- list
- Names (strings) of the pandas objects contained in path.
30-2-1、where(可选,默认值为'/'):字符串,指定了遍历的起始位置。默认为根目录('/'),意味着从HDF5文件的根开始遍历,你可以指定任何有效的路径来从文件的某个特定部分开始遍历。
用于遍历存储在HDF5文件中的键(keys)或节点(nodes)。
返回一个生成器(generator),它会产生一个包含两个元素的元组(tuple):(key, group)。
30-4-1、key: 当前遍历到的键(或路径)的字符串表示。
30-4-2、group: 一个pandas._libs.lib.H5Group对象,表示当前遍历到的组(或数据集)。注意,对于数据集(dataset),这个对象可能不是非常有用,因为HDF5的组(group)和数据集(dataset)在pandas的HDFStore中以不同的方式处理。
无
无
- # 30、pandas.HDFStore.walk函数
- import pandas as pd
- import numpy as np
- # 创建一个示例HDF5文件
- file_path = 'example.h5'
- with pd.HDFStore(file_path, mode='w') as store:
- # 写入一些数据
- store.put('df1', pd.DataFrame(np.random.randn(10, 4), columns=list('ABCD')))
- store.put('df2', pd.DataFrame(np.random.randn(10, 4), columns=list('WXYZ')))
- store.put('subdir/df3', pd.DataFrame(np.random.randn(10, 4), columns=list('JKLM')))
- # 使用walk方法遍历HDF5文件
- with pd.HDFStore(file_path, mode='r') as store:
- print("Walking through the HDF5 file structure:")
- for root, dirs, files in store.walk(where='/'):
- print(f"Root: {root}")
- print(f"Directories: {dirs}")
- print(f"Files: {files}")
- print("-" * 40)
- # 30、pandas.HDFStore.walk函数
- # Walking through the HDF5 file structure:
- # Root:
- # Directories: ['subdir']
- # Files: ['df1', 'df2']
- # ----------------------------------------
- # Root: /subdir
- # Directories: []
- # Files: ['df3']
- # ----------------------------------------
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。