当前位置:   article > 正文

2024华数杯ABC题保姆级分析完整思路+代码+数据教学_2024华数杯数据

2024华数杯数据

C题题目:老外游中国

接下来我们将按照题目总体分析-背景分析-各小问分析的形式来

1 总体分析:

题目要求本题目基于中国境内旅游景点数据,旨在通过数学建模解决外国游客在中国旅游时可能遇到的问题,提升其旅游体验,并对城市景点的吸引力进行评估。

题目背景

随着我国过境免签政策的实施,越来越多外国游客来华旅游,通过网络平台分享他们的旅行见闻。这不仅推动了中国旅游业的发展,还在国际舞台上展示了一个生动的中国。

题目内容

  1. 景点评分分析:要求找出352个城市中所有景点评分的最高分(Best Score,简称BS),统计全国获评最高评分景点的数量,并列出拥有最多最高评分景点的前10个城市。
  2. 综合评价:根据城市规模、环境、人文、交通、气候、美食等因素,对352个城市进行综合评价,选出最令外国游客向往的50个城市。
  3. 游玩路线规划:规划一名外国游客从广州入境,在144小时内游玩尽可能多的城市,要求游玩体验最好,并给出具体的游玩路线、总花费时间、门票和交通总费用及可游玩的景点数量。
  4. 成本优化路线规划:重新规划游玩路线,使得游玩城市数量最多且门票和交通总费用最低。
  5. 山景游览规划:规划一名外国游客入境游览中国山景的路线,要求游览更多的山景并优化费用,给出具体的游玩路线、总花费时间、门票和交通总费用及可游玩的景点数量。

数据说明

数据集包含中国352个城市的旅游景点信息,每个城市有100个景点数据,内容包括景点名称、网址、地址、介绍、开放时间、图片网址、评分、建议游玩时长、季节、门票信息及小贴士等。数据来源为https://travel.qunar.com/,可自行在互联网查询其他数据,但需注明来源。

总结

本题目通过建立数学模型,从景点评分、综合评价、路线规划等角度分析外国游客在中国旅游的最佳方案,旨在提高游客的旅游体验,同时促进中国旅游业的发展和国际形象的提升。我们将依次对每个问题进行建模和求解,并给出详细的方案和分析。

2 背景分析:

“老外游中国”这一题目源于近年来我国对外开放政策的逐步实施和旅游业的快速发展。随着我国过境免签政策的推行,越来越多的外国游客得以在没有签证的情况下进入中国并进行短期旅行。这种政策不仅促进了中国旅游业的发展,还提升了中国在国际舞台上的影响力。

“city不city”这一网络流行语在外国网红的推动下广泛传播,反映了游客对城市旅游体验的关注和评价。随着外国游客通过各种社交平台分享他们在中国的旅行见闻和感受,这些内容在全球范围内传播,吸引更多的外国游客来华。这种现象不仅提升了中国旅游城市的知名度,还在一定程度上影响了游客的旅游决策。

过境免签政策允许外国游客在不办理签证的情况下入境中国,停留时间为144小时。这一政策大大降低了外国游客来华旅游的门槛,促进了短期旅游的发展。游客可以从任一城市附近的机场入境,并且在离境时选择任意机场,这为游客提供了极大的灵活性。题目提供了一个涵盖中国352个城市的旅游景点数据集,每个城市有100个景点的信息。数据集内容详实,包括景点名称、网址、地址、介绍、开放时间、图片网址、评分、建议游玩时长、建议游玩季节、门票信息、小贴士等。这为建模提供了丰富的数据支持,使得模型可以更加精确地反映实际情况。

3 各小问分析:

首先需要进行的是数据预处理,然后再对这几问进行具体的分析与建模。

1 在进行数据分析和建模之前,需要进行必要的数据预处理工作,确保数据的完整性和一致性。数据预处理主要包括以下几个步骤:

数据读取和合并

  • 读取各个城市的CSV文件,并将它们合并成一个数据框架,方便后续处理。

代码:

  1. import pandas as pd
  2. import os
  3. # 定义数据文件夹路径
  4. data_folder = 'path_to_data_folder' # 替换为实际数据文件夹路径
  5. # 初始化一个空的DataFrame
  6. all_data = pd.DataFrame()
  7. # 遍历数据文件夹中的所有CSV文件
  8. for file_name in os.listdir(data_folder):
  9. if file_name.endswith('.csv'):
  10. city_data = pd.read_csv(os.path.join(data_folder, file_name))
  11. # 添加城市名称作为一列(假设城市名称在文件名中)
  12. city_name = os.path.splitext(file_name)[0]
  13. city_data['城市'] = city_name
  14. # 将当前城市的数据追加到总的DataFrame中
  15. all_data = pd.concat([all_data, city_data], ignore_index=True)
  16. # 保存合并后的数据到一个新的CSV文件
  17. all_data.to_csv('merged_data.csv', index=False)
  18. # 显示数据概览
  19. print(all_data.info())
  20. print(all_data.head())

缺失值处理

  • 检查数据中的缺失值,对于缺失值较多的字段可以选择删除,对于关键字段的缺失值可以考虑用均值、中位数或其他方法进行填补。

数据类型转换

  • 确保每个字段的数据类型正确。例如,评分字段应为浮点数,景点名称字段应为字符串等。

以上后续都会给大家详细的代码过程,以及处理好的数据集。

数据清洗

  • 去除重复数据,处理异常值和极端值,确保数据的准确性。

数据预处理之后,需要进行一定的探索性数据分析(EDA),了解数据的基本特征和分布情况。以下是一些关键的EDA步骤和可视化方法:

 数据概览

  • 查看数据的基本信息,包括数据的行数、列数和字段名称。
  • 统计评分字段的基本统计量(均值、中位数、标准差、最小值、最大值)。

 评分分布分析

  • 使用直方图(Histogram)和密度图(Density Plot)查看评分的分布情况,了解评分的集中趋势和分布形态。
  • 使用箱线图(Box Plot)查看评分的分布范围,检测是否存在异常值。

 城市景点评分分析

  • 对每个城市的评分进行统计,查看各城市评分的均值和标准差。
  • 使用条形图(Bar Plot)展示每个城市评分最高的景点,比较不同城市之间的差异。

 最高评分景点分布分析

  • 统计各城市中评分最高的景点数量,使用条形图展示拥有最多高评分景点的城市。

 景点类别分析

  • 如果数据中包含景点的类别信息,可以对不同类别的景点评分进行分析,查看不同类别景点的评分分布情况。

给大家几个相关代码:

评分分布直方图:

  1. import matplotlib.pyplot as plt
  2. import seaborn as sns
  3. plt.figure(figsize=(10, 6))
  4. sns.histplot(data['评分'], bins=30, kde=True)
  5. plt.title('景点评分分布直方图')
  6. plt.xlabel('评分')
  7. plt.ylabel('频数')
  8. plt.show()
  9. 每个城市评分最高景点条形图:
  10. highest_scores = data.groupby('城市')['评分'].max().sort_values(ascending=False).head(10)
  11. plt.figure(figsize=(12, 8))
  12. sns.barplot(x=highest_scores.values, y=highest_scores.index)
  13. plt.title('各城市评分最高景点')
  14. plt.xlabel('评分')
  15. plt.ylabel('城市')
  16. plt.show()

通过这些数据预处理和EDA步骤,我们可以更好地理解数据的结构和特征,为后续的建模工作奠定基础。

第一问分析:

问题1要求找出352个城市中所有景点评分的最高分(Best Score,简称BS),统计全国获评最高评分景点的数量,并列出拥有最多最高评分景点的前10个城市。

首先,从数据集中提取每个城市的景点评分数据。数据集中每个城市有100个景点的评分数据,总计35200个景点评分数据。

建模步骤

通过以上的建模过程,就可以系统地找出最高评分的景点及其分布情况,并确定哪些城市拥有最多的高评分景点。

当然,第一问也推荐大家使用灰色综合评价法:

灰色综合评价法(Grey Comprehensive Evaluation Method, GCEM)是一种多指标综合评价方法,适用于数据量较少且不确定性较高的情况。对于第一问中的评分数据分析,可以使用灰色综合评价法来对城市进行评分和排序。以下是具体步骤和方法:

5 排序和选择

根据灰色关联度对城市进行排序,灰色关联度越高,说明该城市的景点评分越高。

具体步骤代码:

  1. 1 读取数据并构建评价矩阵
  2. import pandas as pd
  3. import numpy as np
  4. # 读取合并后的数据
  5. data = pd.read_csv('merged_data.csv')
  6. # 构建评价矩阵,每个城市取评分最高的景点
  7. city_scores = data.groupby('城市')['评分'].max().reset_index()
  8. city_scores_matrix = city_scores.pivot_table(index='城市', values='评分')
  9. 2 标准化处理
  10. # 极差标准化
  11. city_scores_matrix = (city_scores_matrix - city_scores_matrix.min()) / (
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/在线问答5/article/detail/938724
推荐阅读
相关标签
  

闽ICP备14008679号