当前位置:   article > 正文

(13-3-01)服装推荐系统:数据集处理——初步分析_校园服装调研数据的处理

校园服装调研数据的处理

在"notebooks" 目录中保存了和数据处理相关的Notebook文件:data_cleaning.ipynb、eda_feature_eng.ipynb和initial_analysis.ipynb。

12.5.1  初步分析

文件initial_analysis.ipynb实现对数据的初步分析功能,对数据集进行初步的探索,获取数据的基本信息、形状和分布。这有助于你对数据集有一个整体的了解,并为后续的分析和处理做好准备。文件initial_analysis.ipynb的具体实现流程如下:

1读取数据集中articles主表的数据,并将其存储在名为 df_articles 的 DataFrame 中,然后展示 DataFrame 的前三行数据。对应的实现代码如下所示:

  1. ARTICLES_MASTER_TABLE = os.path.join(PROJECT_ROOT,
  2. hlpread.read_yaml_key(os.path.join(PROJECT_ROOT, CONFIGURATION_PATH),'data_source','data_folders'),
  3. hlpread.read_yaml_key(os.path.join(PROJECT_ROOT, CONFIGURATION_PATH),'data_source','raw_data'),
  4. hlpread.read_yaml_key(os.path.join(PROJECT_ROOT, CONFIGURATION_PATH),'data_source','article_data'),
  5. )
  6. df_articles = pd.read_csv(ARTICLES_MASTER_TABLE)
  7. df_articles.head(3)

执行后会输出;

  1. article_id product_code prod_name product_type_no product_type_name product_group_name graphical_appearance_no graphical_appearance_name colour_group_code colour_group_name ... department_name index_code index_name index_group_no index_group_name section_no section_name garment_group_no garment_group_name detail_desc
  2. 0 108775015 108775 Strap top 253 Vest top Garment Upper body 1010016 Solid 9 Black ... Jersey Basic A Ladieswear 1 Ladieswear 16 Womens Everyday Basics 1002 Jersey Basic Jersey top with narrow shoulder straps.
  3. 1 108775044 108775 Strap top 253 Vest top Garment Upper body 1010016 Solid 10 White ... Jersey Basic A Ladieswear 1 Ladieswear 16 Womens Everyday Basics 1002 Jersey Basic Jersey top with narrow shoulder straps.
  4. 2 108775051 108775 Strap top (1) 253 Vest top Garment Upper body 1010017 Stripe 11 Off White ... Jersey Basic A Ladieswear 1 Ladieswear 16 Womens Everyday Basics 1002 Jersey Basic Jersey top with narrow shoulder straps.
  5. 3 rows × 25 columns

2)通过如下代码获取 DataFrame 的形状信息,即数据框中的观测数量和变量数量。执行后返回一个元组,其中包含 DataFrame df_articles 的行数和列数。

df_articles.shape

执行后会输出:

(105542, 25)'
运行

3)通过如下代码获取 DataFrame 的列标签,即数据框中的变量名称。执行后返回一个包含 DataFrame df_articles 的列名的索引对象。

df_articles.columns

执行后会输出:

  1. Index(['article_id', 'product_code', 'prod_name', 'product_type_no',
  2. 'product_type_name', 'product_group_name', 'graphical_appearance_no',
  3. 'graphical_appearance_name', 'colour_group_code', 'colour_group_name',
  4. 'perceived_colour_value_id', 'perceived_colour_value_name',
  5. 'perceived_colour_master_id', 'perceived_colour_master_name',
  6. 'department_no', 'department_name', 'index_code', 'index_name',
  7. 'index_group_no', 'index_group_name', 'section_no', 'section_name',
  8. 'garment_group_no', 'garment_group_name', 'detail_desc'],
  9. dtype='object')

(4)通过如下代码对 DataFrame df_articles 进行空值检查的操作,返回一个包含每列空值数量的 Series 对象,其中每个列名对应的值表示该列中的空值数量。

df_articles.isnull().sum()

执行后会输出:

  1. article_id 0
  2. product_code 0
  3. prod_name 0
  4. product_type_no 0
  5. product_type_name 0
  6. product_group_name 0
  7. graphical_appearance_no 0
  8. graphical_appearance_name 0
  9. colour_group_code 0
  10. colour_group_name 0
  11. perceived_colour_value_id 0
  12. perceived_colour_value_name 0
  13. perceived_colour_master_id 0
  14. perceived_colour_master_name 0
  15. department_no 0
  16. department_name 0
  17. index_code 0
  18. index_name 0
  19. index_group_no 0
  20. index_group_name 0
  21. section_no 0
  22. section_name 0
  23. garment_group_no 0
  24. garment_group_name 0
  25. detail_desc 416
  26. dtype: int64

具体来说,df_articles.isnull() 返回一个布尔类型的 DataFrame,其中每个单元格的值为 True(如果是空值)或 False(如果不是空值)。然后,方法sum()对每列进行求和,将 True 的数量累加,从而得到每列的空值数量。这对于了解 DataFrame 中的缺失数据情况非常有用,可以帮助数据分析人员决定如何处理这些缺失值。

5)通过如下代码返回 DataFrame df_articles 中第 5 行的数据。

df_articles.iloc[5]

执行后会输出:

  1. article_id 110065011
  2. product_code 110065
  3. prod_name OP T-shirt (Idro)
  4. product_type_no 306
  5. product_type_name Bra
  6. product_group_name Underwear
  7. graphical_appearance_no 1010016
  8. graphical_appearance_name Solid
  9. colour_group_code 12
  10. colour_group_name Light Beige
  11. perceived_colour_value_id 1
  12. perceived_colour_value_name Dusty Light
  13. perceived_colour_master_id 11
  14. perceived_colour_master_name Beige
  15. department_no 1339
  16. department_name Clean Lingerie
  17. index_code B
  18. index_name Lingeries/Tights
  19. index_group_no 1
  20. index_group_name Ladieswear
  21. section_no 61
  22. section_name Womens Lingerie
  23. garment_group_no 1017
  24. garment_group_name Under-, Nightwear
  25. detail_desc Microfibre T-shirt bra with underwired, moulde...
  26. Name: 5, dtype: object

6)通过如下代码获取 DataFrame df_articles 中的前 10 行和除最后一列之外的所有列的数据。

df_articles.iloc[0:10,:-1]

执行后返回一个包含前 10 行和除最后一列之外的所有列数据的 DataFrame:

  1. article_id product_code prod_name product_type_no product_type_name product_group_name graphical_appearance_no graphical_appearance_name colour_group_code colour_group_name ... department_no department_name index_code index_name index_group_no index_group_name section_no section_name garment_group_no garment_group_name
  2. 0 108775015 108775 Strap top 253 Vest top Garment Upper body 1010016 Solid 9 Black ... 1676 Jersey Basic A Ladieswear 1 Ladieswear 16 Womens Everyday Basics 1002 Jersey Basic
  3. 1 108775044 108775 Strap top 253 Vest top Garment Upper body 1010016 Solid 10 White ... 1676 Jersey Basic A Ladieswear 1 Ladieswear 16 Womens Everyday Basics 1002 Jersey Basic
  4. 2 108775051 108775 Strap top (1) 253 Vest top Garment Upper body 1010017 Stripe 11 Off White ... 1676 Jersey Basic A Ladieswear 1 Ladieswear 16 Womens Everyday Basics 1002 Jersey Basic
  5. 3 110065001 110065 OP T-shirt (Idro) 306 Bra Underwear 1010016 Solid 9 Black ... 1339 Clean Lingerie B Lingeries/Tights 1 Ladieswear 61 Womens Lingerie 1017 Under-, Nightwear
  6. 4 110065002 110065 OP T-shirt (Idro) 306 Bra Underwear 1010016 Solid 10 White ... 1339 Clean Lingerie B Lingeries/Tights 1 Ladieswear 61 Womens Lingerie 1017 Under-, Nightwear
  7. 5 110065011 110065 OP T-shirt (Idro) 306 Bra Underwear 1010016 Solid 12 Light Beige ... 1339 Clean Lingerie B Lingeries/Tights 1 Ladieswear 61 Womens Lingerie 1017 Under-, Nightwear
  8. 6 111565001 111565 20 den 1p Stockings 304 Underwear Tights Socks & Tights 1010016 Solid 9 Black ... 3608 Tights basic B Lingeries/Tights 1 Ladieswear 62 Womens Nightwear, Socks & Tigh 1021 Socks and Tights
  9. 7 111565003 111565 20 den 1p Stockings 302 Socks Socks & Tights 1010016 Solid 13 Beige ... 3608 Tights basic B Lingeries/Tights 1 Ladieswear 62 Womens Nightwear, Socks & Tigh 1021 Socks and Tights
  10. 8 111586001 111586 Shape Up 30 den 1p Tights 273 Leggings/Tights Garment Lower body 1010016 Solid 9 Black ... 3608 Tights basic B Lingeries/Tights 1 Ladieswear 62 Womens Nightwear, Socks & Tigh 1021 Socks and Tights
  11. 9 111593001 111593 Support 40 den 1p Tights 304 Underwear Tights Socks & Tights 1010016 Solid 9 Black ... 3608 Tights basic B Lingeries/Tights 1 Ladieswear 62 Womens Nightwear, Socks & Tigh 1021 Socks and Tights
  12. 10 rows × 24 columns

在数据集中如下两重要信息:

  1. "desc_detail" 是关于商品的简要信息。但有416个商品没有提供这些详细信息。因此,我们将不使用这个特征进行商品嵌入。
  2. "product_name" 中包含像"(1)"这样的特殊字符和数字。虽然我们可以删除特殊字符,但是有些商品名称中包含了数字,例如以套装形式出售的袜子,其中名称中包含了套装中的商品数量。如果我们使用这个特征,需要在处理"product_name"时考虑这种情况。

哪些特征组合可能对描述商品并对交易数据进行探索性数据分析有帮助呢?

7)通过如下代码返回列product_type_name中唯一的值,它会返回一个包含所有不重复的产品类型名称的数组。这个操作可以帮助我们了解数据集中有哪些不同的产品类型。

df_articles.product_type_name.unique()   

执行后会输出:

  1. array(['Vest top', 'Bra', 'Underwear Tights', 'Socks', 'Leggings/Tights',
  2. 'Sweater', 'Top', 'Trousers', 'Hair clip', 'Umbrella',
  3. 'Pyjama jumpsuit/playsuit', 'Bodysuit', 'Hair string', 'Unknown',
  4. 'Hoodie', 'Sleep Bag', 'Hair/alice band', 'Belt', 'Boots',
  5. 'Bikini top', 'Swimwear bottom', 'Underwear bottom', 'Swimsuit',
  6. 'Skirt', 'T-shirt', 'Dress', 'Hat/beanie', 'Kids Underwear top',
  7. 'Shorts', 'Shirt', 'Cap/peaked', 'Pyjama set', 'Sneakers',
  8. 'Sunglasses', 'Cardigan', 'Gloves', 'Earring', 'Bag', 'Blazer',
  9. 'Other shoe', 'Jumpsuit/Playsuit', 'Sandals', 'Jacket', 'Costumes',
  10. 'Robe', 'Scarf', 'Coat', 'Other accessories', 'Polo shirt',
  11. 'Slippers', 'Night gown', 'Alice band', 'Straw hat', 'Hat/brim',
  12. 'Tailored Waistcoat', 'Necklace', 'Ballerinas', 'Tie',
  13. 'Pyjama bottom', 'Felt hat', 'Bracelet', 'Blouse',
  14. 'Outdoor overall', 'Watch', 'Underwear body', 'Beanie', 'Giftbox',
  15. 'Sleeping sack', 'Dungarees', 'Outdoor trousers', 'Wallet',
  16. 'Swimwear set', 'Swimwear top', 'Flat shoe', 'Garment Set', 'Ring',
  17. 'Waterbottle', 'Wedge', 'Long John', 'Outdoor Waistcoat', 'Pumps',
  18. 'Flip flop', 'Braces', 'Bootie', 'Fine cosmetics',
  19. 'Heeled sandals', 'Nipple covers', 'Chem. cosmetics', 'Soft Toys',
  20. 'Hair ties', 'Underwear corset', 'Bra extender', 'Underdress',
  21. 'Underwear set', 'Sarong', 'Leg warmers', 'Blanket', 'Hairband',
  22. 'Tote bag', 'Weekend/Gym bag', 'Cushion', 'Backpack', 'Earrings',
  23. 'Bucket hat', 'Flat shoes', 'Heels', 'Cap', 'Shoulder bag',
  24. 'Side table', 'Accessories set', 'Headband', 'Baby Bib',
  25. 'Keychain', 'Dog Wear', 'Washing bag', 'Sewing kit',
  26. 'Cross-body bag', 'Moccasins', 'Towel', 'Wood balls',
  27. 'Zipper head', 'Mobile case', 'Pre-walkers', 'Toy', 'Marker pen',
  28. 'Bumbag', 'Dog wear', 'Eyeglasses', 'Wireless earphone case',
  29. 'Stain remover spray', 'Clothing mist'], dtype=object)

8)通过如下代码返回列product_group_name中唯一的值,这个操作可以帮助我们了解数据集中有哪些不同的产品组。

df_articles.product_group_name.unique()

执行后会返回一个包含所有不重复的产品组名称的数组:

  1. array(['Garment Upper body', 'Underwear', 'Socks & Tights',
  2. 'Garment Lower body', 'Accessories', 'Items', 'Nightwear',
  3. 'Unknown', 'Underwear/nightwear', 'Shoes', 'Swimwear',
  4. 'Garment Full body', 'Cosmetic', 'Interior textile', 'Bags',
  5. 'Furniture', 'Garment and Shoe care', 'Fun', 'Stationery'],
  6. dtype=object)

9)通过如下代码返回 index_name 列中唯一的值。它会返回一个包含所有不重复的索引名称的数组。这个操作可以帮助我们了解数据集中有哪些不同的索引名称。

df_articles.index_name.unique()

执行后会输出:

  1. array(['Ladieswear', 'Lingeries/Tights', 'Baby Sizes 50-98', 'Menswear',
  2.        'Ladies Accessories', 'Sport', 'Children Sizes 92-140', 'Divided',
  3.        'Children Sizes 134-170', 'Children Accessories, Swimwear'],
  4.       dtype=object)

10)我们在 "colour_group_name"、"graphical_appearance_name"、"garment_group_name" 和 "product_type_name" 特征中有一个 "Unknown" 的标签类型,如果对任何物品进行交易,我们需要考虑这些标签。当与交易表进行合并时,我们可能需要处理其中的任何记录。要查看实际的物品,请访问 H&M 网站的产品页面,并在URL中输入文章ID,它将显示该物品。例如:

  1. https://www2.hm.com/en_us/productpage.0743722002.html - 美国站点
  2. https://www2.hm.com/en_in/productpage.0811198001.html - 印度站点

每个 article_id 应该是长度为10,因此,在前面补充0以获取产品详细页面。通过如下代码统计每个产品代码(product_code)的出现次数,并按降序重置索引,将列名改为 'no_count'。然后将索引列名改为 'product_code',将上述统计结果与 df_articles 数据框中的 'product_code' 和 'prod_name' 列进行合并。使用 'product_code' 列作为合并键,使用内连接方式进行合并。

最后将合并结果存储在变量 data 中。接下来,打印 data 中前 10 个产品代码的数据。

  1. data = (df_articles['product_code'].value_counts()
  2. .reset_index(name = 'no_count')
  3. .rename(columns = {'index':'product_code'})
  4. .merge(df_articles[['product_code','prod_name']]
  5. .groupby('product_code')
  6. .nth(0)
  7. .reset_index(),
  8. on = 'product_code',
  9. how = 'inner'
  10. )
  11. )
  12. #Top 20 product code
  13. data[:10]

执行后会输出:

  1. product_code no_count prod_name
  2. 0 783707 75 1pk Fun
  3. 1 684021 70 Wow printed tee 6.99
  4. 2 699923 52 Mike tee
  5. 3 699755 49 Yate
  6. 4 685604 46 TOM FANCY
  7. 5 739659 44 Dragonfly dress
  8. 6 664074 41 Charlie Top
  9. 7 570002 41 ROY SLIM RN T-SHIRT
  10. 8 562245 41 Luna skinny RW
  11. 9 685816 41 RONNY REG RN T-SHIRT

11)在数据集中大约有47,000个独特的产品代码对应着105,000个商品。这意味着大约有49%的商品具有相同的产品代码,只是颜色等方面存在差异。这在从图像生成商品嵌入时将会有所帮助。接下来让我们随机抽样一些产品代码,比较这些商品,看看它们之间的差异。对应的实现代码如下所示:

  1. # 随机选择商品,并显示商品的图片和详细信息
  2. groupby = "product_code"
  3. hlpimage.show_item_img_detail(items=hlpdf.random_sample_by_catagory(df=df_articles, filter='', group_by=groupby, no_sample=15),
  4. show_item_detail=False)
  5. # 随机选择一个具有大约75个独特商品的商品
  6. hlpimage.show_item_img_detail(df_articles[df_articles.product_code == 783707])
  7. # 设置筛选条件和分组方式,显示随机选择的商品的图片和详细信息
  8. filter = {'index_group_name': 'Baby/Children'}
  9. groupby = "product_group_name"
  10. hlpimage.show_item_img_detail(items=hlpdf.random_sample_by_catagory(df_articles, filter, groupby, no_sample=4),
  11. show_item_detail=True)
  12. # 设置筛选条件和分组方式,显示随机选择的商品的图片和详细信息
  13. filter = {'index_group_name': 'Ladieswear'}
  14. groupby = "product_group_name"
  15. hlpimage.show_item_img_detail(items=hlpdf.random_sample_by_catagory(df_articles, filter, groupby, no_sample=4),
  16. show_item_detail=True)
  17. # 根据筛选条件过滤数据,并显示前5行(除最后一列)
  18. filter = (df_articles.index_group_name == "Baby/Children") & (df_articles.product_type_name == "Fine cosmetics")
  19. df_articles[filter].iloc[:5, :-1]
  20. # 设置显示的最大行数。None:无限制
  21. # pd.set_option('display.max_rows', None)
  22. # pd.set_option('display.max_rows', 50) #此设置无效
  23. # 获取指定列的索引值
  24. col_index = df_articles.columns.get_indexer(['article_id', 'product_code', 'prod_name', 'product_type_name',
  25. 'product_group_name', 'index_name', 'index_group_name',
  26. 'garment_group_name'])
  27. # 随机选择50个商品进行分析
  28. # replace=True表示可以多次选择相同的值
  29. chosen_idx = np.random.choice(df_articles.shape[0], replace=False, size=50)
  30. df_articles.iloc[chosen_idx, col_index]
  31. # pd.reset_option('display.max_rows') # 重置最大行数设置,恢复默认
  32. # 可以假设article_id是递增的,即新商品添加到目录时,编号递增
  33. sorted(df_articles.article_id.unique())[:15] # 此处的商品编号并不是按递增顺序排列
  34. # 商品的编号不是按照递增顺序排列的

上述代码的实现流程如下:

  1. 随机选择一些商品,并显示它们的图片和基本信息。
  2. 随机选择一个具有大约75个独特商品的商品,并显示其图片和详细信息。
  3. 使用特定的筛选条件和分组方式,随机选择一些商品,并显示它们的图片和详细信息。
  4. 根据特定的筛选条件过滤数据,并显示满足条件的商品的前5行(不包括最后一列)。
  5. 设置要显示的最大行数和指定列的索引值,然后随机选择一些商品进行分析,并显示所选列的数据。
  6. 检查商品编号是否按递增顺序排列,发现它们并不是按递增顺序排列的。

(12)开始处理Customer数据,首先读取客户主数据文件并将其存储到名为df_customer的DataFrame中。对应的实现代码如下所示:

  1. CUSTOMER_MASTER_TABLE = os.path.join(PROJECT_ROOT,
  2. hlpread.read_yaml_key(os.path.join(PROJECT_ROOT, CONFIGURATION_PATH),'data_source','data_folders'),
  3. hlpread.read_yaml_key(os.path.join(PROJECT_ROOT, CONFIGURATION_PATH),'data_source','raw_data'),
  4. hlpread.read_yaml_key(os.path.join(PROJECT_ROOT, CONFIGURATION_PATH),'data_source','customer_data'),
  5. )
  6. df_customer = hlpread.read_csv(CUSTOMER_MASTER_TABLE)
  7. df_customer.head()

执行后输出:

  1. customer_id FN Active club_member_status fashion_news_frequency age postal_code
  2. 0 00000dbacae5abe5e23885899a1fa44253a17956c6d1c3... NaN NaN ACTIVE NONE 49.0 52043ee2162cf5aa7ee79974281641c6f11a68d276429a...
  3. 1 0000423b00ade91418cceaf3b26c6af3dd342b51fd051e... NaN NaN ACTIVE NONE 25.0 2973abc54daa8a5f8ccfe9362140c63247c5eee03f1d93...
  4. 2 000058a12d5b43e67d225668fa1f8d618c13dc232df0ca... NaN NaN ACTIVE NONE 24.0 64f17e6a330a85798e4998f62d0930d14db8db1c054af6...
  5. 3 00005ca1c9ed5f5146b52ac8639a40ca9d57aeff4d1bd2... NaN NaN ACTIVE NONE 54.0 5d36574f52495e81f019b680c843c443bd343d5ca5b1c2...
  6. 4 00006413d8573cd20ed7128e53b7b13819fe5cfc2d801f... 1.0 1.0 ACTIVE Regularly 52.0 25fa5ddee9aac01b35208d01736e57942317d756b32ddd...

具体来说,上述代码使用函数os.path.join()将项目根目录(PROJECT_ROOT)与配置文件中指定的数据文件夹路径、原始数据文件路径和客户数据文件名进行连接,从而生成客户主数据文件的完整路径。然后,hlpread.read_csv函数被调用,该函数接受完整路径作为参数,并读取CSV文件内容到df_customer DataFrame中。最后,使用head函数查看df_customer DataFrame的前几行数据。

13)使用Seaborn库和Matplotlib库绘制了关于顾客年龄的可视化图表,可视化分析顾客的年龄分布情况,通过箱线图和直方图展示了不同的视角,帮助我们更好地理解和分析顾客年龄的特征。对应的实现代码如下所示:

  1. sns.boxplot(x = df_customer.age)
  2. sns.displot(df_customer, x = "age",  binwidth = 5)
  3. plt.show()

执行后的效果如图12-1所示。

     

图12-1  顾客年龄的可视化图

14)开始处理交易数据,首先通过如下代码读取交易数据文件,并将其存储在名为df_transaction的Pandas DataFrame中。对应的实现代码如下所示:

  1. TRANSACTION_DATA_TABLE = os.path.join(PROJECT_ROOT,
  2. hlpread.read_yaml_key(os.path.join(PROJECT_ROOT, CONFIGURATION_PATH),'data_source','data_folders'),
  3. hlpread.read_yaml_key(os.path.join(PROJECT_ROOT, CONFIGURATION_PATH),'data_source','raw_data'),
  4. hlpread.read_yaml_key(os.path.join(PROJECT_ROOT, CONFIGURATION_PATH),'data_source','transaction_data'),
  5. )
  6. df_transaction = pd.read_csv(TRANSACTION_DATA_TABLE,
  7. parse_dates = ['t_dat'],
  8. )
  9. df_transaction.head()

执行后输出:

  1. t_dat customer_id article_id price sales_channel_id
  2. 0 2018-09-20 000058a12d5b43e67d225668fa1f8d618c13dc232df0ca... 663713001 0.050831 2
  3. 1 2018-09-20 000058a12d5b43e67d225668fa1f8d618c13dc232df0ca... 541518023 0.030492 2
  4. 2 2018-09-20 00007d2de826758b65a93dd24ce629ed66842531df6699... 505221004 0.015237 2
  5. 3 2018-09-20 00007d2de826758b65a93dd24ce629ed66842531df6699... 685687003 0.016932 2
  6. 4 2018-09-20 00007d2de826758b65a93dd24ce629ed66842531df6699... 685687004 0.016932 2

15)计算交易数据中的最早日期和最晚日期,并打印输出这两个日期的信息。对应的实现代码如下所示:

  1. max_t_date = df_transaction.t_dat.max()
  2. min_t_date = df_transaction.t_dat.min()
  3. print(f'Transaction records from: {min_t_date} to {max_t_date}')

16)创建一个计数条形图来显示不同销售渠道的交易记录数量,并设置相应的标签和图例。对应的实现代码如下所示:

  1. ax = sns.countplot(
  2.                     data = df_transaction,
  3.                     x = 'sales_channel_id',
  4.                     hue ='sales_channel_id',
  5.                   )
  6.                  
  7. ax.set_xlabel("Sales Channel")
  8. ax.set_ylabel("Count")
  9. ax.legend(labels = ['Offline', 'Online'])

执行后的效果如图12-2所示。

图12-2  可视化不同销售渠道(线上、线下)的交易记录数量

未完待续

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/运维做开发/article/detail/789298
推荐阅读
相关标签
  

闽ICP备14008679号