当前位置:   article > 正文

2023年 国赛 数学建模C 基于遗传算法和神经网络的销量定价模型_2023年数学建模国赛c题

2023年数学建模国赛c题

一、写在开头

        阅读者可能需要先阅读2023年国赛C题才能读懂下面的内容。

        文章着重于解题方向指引和经历分享,只解释部分核心代码。        

        10月11日更新下,国家奖二等奖。

二、内容概述

        刚刚做完比赛,对这段经历和对问题的处理方法进行下记录。

三、个人经历

        今年大三,第一次参加数学建模,队友是大二9月份确定好的,徐同学和周同学(两个人性格都超级好)。大二上的时候学院有一门课就是数模,没怎么认真听,不过最后的大作业比较认真的拿sklearn的BP神经网络和k-means写了一个关于中草药的国赛题。后来学院有组织数模培训,但是听了听就是机器学习,都学过就没有去。赛前没有准备太多,为了防止手生也为了CSP在leecode上刷了二三十道dp。

        周同学不会用python,沟通能力很好,负责论文(是计科的,不会写但是能看懂代码,word很会用也很认真),徐同学和我一个专业,代码不如我但是自学能力、抗压能力沟通能力很强,也很认真,他论文和模型都做了一些,是队员1所以也充当队长,我负责代码和模型(最后提交的代码都是我敲的)。

        我们第一天出题很快就确定了选C题,因为另外两个都读不懂,关于物理的问题也不是我们擅长的(全员网计学院)。开题晚上进行了数据处理,没有做题,11点回去休息。第二天因为读取数据太慢(附件2 87万条数据)花了一上午没做题把处理后数据存到了文件里,当时觉得特别焦虑一上午啥也没写,但是后来做题因为提前存了文件节约了相当多的时间。然后第一天做完了第一题,第二题开了个头。第二天白天做完了第二题,第三题没碰,晚上才开始写第三题,我的队友们在我写第二题的时候在看第三和第四题,当时感觉进度相当慢,有点焦虑,感觉C题比感觉到的难。然后通宵写第三题,我现学python解最优化,但是题目是非凸的,相当不好解。队友用SPSS预测了销量,然后我再继续处理,第二天上午做完了,解最优化用的是现学的遗传算法(之前听说过也了解他的原理,但是是第一次实用)。第四题是开放性问题,我没太重视,写完第三题感觉任务不太多了,摆烂状态帮忙改论文。那天下午继续修改论文,但是下午四点我突然发现我的第三问有一个点写的相当有问题,徐同学觉得别改了,没时间了。但是我感觉时间还够,和他说了我可以后他没再说啥,继续改论文,我就开始高度集中精神修改第四问,然后改的时候也挺焦虑的,特别怕队友怪我(队友什么都没说),不过最后我用1个半小时成功把代码修改好了,结果也很不错。然后就是和队友修修改改论文,八点交MD5回去休息,任务完成。

        开题晚上和第一天晚上都是正常作息。第二天晚上熬夜干题,我没有纯熬,12点去找了个桌子椅子睡了3个小时,3点又爬起来写到6点开始恶心又去休息了30分钟起来继续写,徐同学晚上过来我那屋躺地上睡了3小时,周同学断断续续休息了3多小时左右。

        当时我们在怎么解第二题和第三题是有分歧的。开题晚上时候第二题我认为定价策略应该算完全成本加成的系数,徐同学认为应该直接用定价,我俩谁也说服不了谁所以决定先去做题,我去做数据处理和第一题,徐同学去做第二题,但是第二天上午他发现他处理后的数据并不和他想的那样,定价和销量负相关,然后俩个人又想了想他觉得是应该用成本加成定价系数,所以我去重做第二问定价策略的部分,他去学ARIMA来做销量预测。我在第二天下午埋头磕第二题的时候徐同学尝试解第三题,我看他写了一个最优化的式子,但是我俩最优化成绩都稀烂(绩点4/5,最优化考70)所以当时讨论怎么解的时候俩人都否定了这么解,然后我继续闷头干题2,他去想新解法。晚上徐同学认为可以用背包加贪心策略去做,但是我感觉这么做一是方法简单难拿高分,而是没法用到前面的结论,所以否定这种做法,我的想法是把之前解第二问的思想加到第三问中,然后现学,磕最优化解法。但是徐同学觉得无法用python实现(我们三个都不擅长matlab,python之前没做过),然后我尝试说服他,然后他觉得我的想法并不合理,也难实现,剩下的时间来不及,提了好几个不合理的点(里面确实有一个地方相当不合理,关于如何预测第三问菜品定价的,后面我会细说)一直不支持我这么做。之后又尝试说服他了好一会儿,他说你就按你的想法做,我就开始干。

        下面写下关于那个相当不合理的点的处理。第二天(最后一天)下午四点半我突然发现,第三问的菜品定价系数预测是直接使用第二问用大类的销量和定价系数数据进行训练的神经网络。也就是说我的目标是通过对神经网络输入小类的销量,对具体小类的定价系数进行预测,但是我这里用来预测的神经网络是用大类的数据训练的,而大类的两个值:销量和定价系数,前者是大类总销量,后者是大类定价系数加权平均值。所以我此时建立的实际映射是:通过大类中的大类总销量值约为目前单个蔬菜的销量值对当前单个蔬菜的定价系数进行预测(也就是拿大类全天买的销量极小的某些位置对单品类定价系数进行预测)。这个映射就相当有问题,所以我还是坚持要改,挑选数据,重新训练小品类模型把大品类模型换掉。

四、具体解法

4.1数据处理

        首先引入处理excel文件的pandas包和处理矩阵用的numpy包。

        读入附件1,这个文件就是小品id、小品类名称、所在的大品类id、大品类名称的对应,相当适合做成hash表,我用python dict()实现。并顺序存储了两个名称、id在list()中,以后遍历就按照这个遍历和确定对立关系(小品类251种,大品类6种)。

        读入附件2,文件太大肯定不能每次都来读取他,需要压缩转存。浏览四个问题我们可以知道,题目中提问的时间最小单位为“天”,而附件二每一笔交易是不同时刻的,即“X年X月X日X时X分”,交易的时和分我们是不需要考虑的,所以我们可以读入附件2后,首先遍历确定其天数有多少(函数名:function_time_count(self),result:1085天)。然后初始化两个空矩阵,一个251*1085用于存放每个小品类的每天销量,一个6*1085用于存放每个大品类的每天销量。

  1. def read_datas(path_data1, path_data2, path_data3, path_data2_sort):
  2. data2 = pd.read_excel(path_data2)
  3. data1 = pd.read_excel(path_data1)
  4. data3 = pd.read_excel(path_data3)
  5. data22 = pd.read_excel(path_data2_sort)
  6. return data1, data2, data3, data22
  7. class Data():
  8. def __init__(self, path_data1=r"D:\win10浏览器\CUMCM2023Problems\C题\附件1.xlsx",
  9. path_data2=r"D:\win10浏览器\CUMCM2023Problems\C题\附件2_做第一题简化版.xlsx",
  10. path_data3=r"D:\win10浏览器\CUMCM2023Problems\C题\附件3_去除改版.xlsx",
  11. path_data2_sort=r"D:\win10浏览器\CUMCM2023Problems\C题\附件2_打折与否排序.xlsx",
  12. read_ori_plus=False
  13. ):
  14. self.data1, self.data2, self.data3, self.data22 = read_datas(path_data1, path_data2, path_data3,
  15. path_data2_sort)
  16. self.types = dict()
  17. self.data1_values = self.data1.values
  18. self.data2_values = self.data2.values
  19. self.data3_values = self.data3.values
  20. self.data22_values = self.data22.values
  21. self.data2_values_fullSort = self.data22_values
  22. self.read_ori_plus = read_ori_plus
  23. def function_integration(self):
  24. self.function1()
  25. self.function2()
  26. # self.record_one_food_function()
  27. # dict[单位编号]=序列号
  28. def function1(self):
  29. rows_type = dict() # dict[单位编号]=序列号
  30. i = -1
  31. type_names = list()
  32. for row in self.data1_values:
  33. i += 1
  34. rows_type[int(row[0])] = i
  35. type_names.append(row[1])
  36. self.type_names = type_names
  37. self.rows_type = rows_type
  38. # 保存文件
  39. tf = open(get_path("names_type.json"), "w")
  40. json.dump(type_names, tf)
  41. tf.close()
  42. tf = open(get_path("findIndexFromID.json"), "w")
  43. json.dump(rows_type, tf)
  44. tf.close()
  45. # 共6种大类 dict[分类]=list(编码)
  46. # dict[小id]=爸爸id
  47. def function2(self):
  48. rows_type_big = dict() # dict[分类]=list(编码)
  49. typeBig_names = list()
  50. find_bigtype_fromsmallID = dict() # dict[小id]=爸爸id
  51. typeBig_ids = list() # 大类的id
  52. before_typeBig = 123
  53. for row in self.data1_values:
  54. big_id = int(row[2])
  55. big_name = row[3]
  56. id = int(row[0])
  57. if before_typeBig != big_id:
  58. before_typeBig = big_id
  59. typeBig_names.append(big_name)
  60. typeBig_ids.append(big_id)
  61. rows_type_big[big_id] = list()
  62. rows_type_big[big_id].append(id)
  63. find_bigtype_fromsmallID[id] = big_id
  64. self.typeBig_ids = typeBig_ids
  65. self.rows_type_big = rows_type_big # dict[分类]=list(编码)
  66. self.typeBig_names = typeBig_names
  67. self.find_bigtype_fromsmallID = find_bigtype_fromsmallID
  68. # 保存文件
  69. tf = open(get_path("findIndexFromBigID.json"), "w")
  70. json.dump(rows_type_big, tf)
  71. tf.close()
  72. tf = open(get_path("names_bigType.json"), "w")
  73. json.dump(typeBig_names, tf)
  74. tf.close()
  75. tf = open(get_path("listBig_ids.json"), "w")
  76. json.dump(typeBig_ids, tf)
  77. tf.close()
  78. tf = open(get_path("find_bigtype_fromsmallID.json"), "w")
  79. json.dump(find_bigtype_fromsmallID, tf)
  80. tf.close()
  81. # 用于求得单个品种食物每天的销量
  82. # 用于求得单个大品类每天的销量
  83. def record_one_food_function(self):
  84. time = '0'
  85. record_one_type = np.zeros(shape=(251, 1085))
  86. record_one_bigtype = np.zeros(shape=(6, 1085))
  87. i = -1
  88. record_time = list()
  89. for current in self.data2_values:
  90. current_time = current[0]
  91. current_id = int(current[1])
  92. current_weight = float(current[2])
  93. if time != current_time:
  94. time = current_time
  95. i += 1 # index
  96. record_time.append(time)
  97. food_number = self.rows_type[current_id]
  98. # print(food_number,self.type_names[food_number],current_id)
  99. record_one_type[food_number][i] += current_weight
  100. big_id = self.find_bigtype_fromsmallID[current_id]
  101. index_bigId = self.typeBig_ids.index(big_id)
  102. # print(current_id,index_bigId,big_id,self.typeBig_names[index_bigId])
  103. record_one_bigtype[index_bigId][i] += current_weight
  104. self.record_one_type = record_one_type
  105. self.record_one_bigtype = record_one_bigtype
  106. self.record_time = record_time
  107. # 用于求得单个品种的每天销量
  108. # result=1085
  109. def function_time_count(self):
  110. # 看有几天
  111. sum_time = 0
  112. current = '0'
  113. for row in self.data2_values:
  114. if current != row[0]:
  115. current = row[0]
  116. sum_time += 1
  117. print(sum_time)
  118. # 按行遍历
  119. current_time = '0'
  120. for row in self.data2_values:
  121. if current_time != row[0]:
  122. current_time = row[0]
  123. # 计算每日物品的进货价
  124. def function_deal_data3(self):
  125. values3 = self.data3_values
  126. times3_list = list()
  127. record_cost = np.zeros(shape=(251, 1085))
  128. time = '0'
  129. i = -1
  130. for current in values3:
  131. current_time = current[0]
  132. current_id = int(current[1])
  133. current_cost = float(current[2])
  134. if time != current_time:
  135. time = current_time
  136. i += 1
  137. times3_list.append(time)
  138. food_number = self.rows_type[current_id]
  139. record_cost[food_number][i] = current_cost
  140. # save
  141. np.save(r'D:\win10浏览器\CUMCM2023Problems\C题\record_cost.npy', record_cost)
  142. np.save(r"D:\win10浏览器\CUMCM2023Problems\C题\time3_list.npy", np.array(times3_list))
  143. # 时间Int化
  144. def deal_with_time_save(self):
  145. self.time_Int = time_Int(self.time3_list)
  146. np.save(r'D:\win10浏览器\CUMCM2023Problems\C题\time_Int.npy', self.time_Int)
  147. # 将每天的每个品类和每个单品的销量进行记录
  148. def save_array(self):
  149. np.save(r'D:\win10浏览器\CUMCM2023Problems\C题\record_one_type.npy', self.record_one_type)
  150. np.save(r'D:\win10浏览器\CUMCM2023Problems\C题\record_one_bigtype.npy', self.record_one_bigtype)
  151. def load_array(self):
  152. # record_one_food_function
  153. self.record_one_type = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\record_one_type.npy')
  154. self.record_one_bigtype = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\record_one_bigtype.npy')
  155. self.record_cost = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\record_cost.npy')
  156. self.time3_list = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\time3_list.npy', allow_pickle=True)
  157. if self.read_ori_plus == True:
  158. self.plus_type = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\plus_type.npy')
  159. self.weight_type_noDiscount = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\weight_type_noDiscount.npy')
  160. self.weight_type_Discount = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\weight_type_Discount.npy')
  161. self.plus_lower_type = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\plus_lower_type.npy')
  162. self.plus_Bigtype = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\plus_Bigtype.npy')
  163. self.weight_Bigtype_noDiscount = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\weight_Bigtype_noDiscount.npy')
  164. self.weight_Bigtype_Discount = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\weight_Bigtype_Discount.npy')
  165. self.plus_lower_Bigtype = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\plus_lower_Bigtype.npy')
  166. self.time_Int = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\time_Int.npy')
  167. self.time_Int_list = list(self.time_Int)
  168. # function1
  169. tf = open(get_path("names_type.json"), "r")
  170. new_dict = json.load(tf) # list
  171. self.names_type = new_dict
  172. tf.close()
  173. self.type_names = new_dict
  174. tf = open(get_path("findIndexFromID.json"), "r")
  175. new_dict = json.load(tf)
  176. self.findIndexFromID = new_dict # dict
  177. tf.close()
  178. self.rows_type = new_dict
  179. # function2
  180. tf = open(get_path("findIndexFromBigID.json"), "r")
  181. new_dict = json.load(tf) #
  182. self.findIndexFromBigID = new_dict
  183. tf.close()
  184. self.rows_type_big = new_dict # dict[分类]=list(编码)
  185. tf = open(get_path("names_bigType.json"), "r")
  186. new_dict = json.load(tf)
  187. self.names_bigType = new_dict # dict
  188. tf.close()
  189. self.typeBig_names = new_dict
  190. tf = open(get_path("listBig_ids.json"), "r")
  191. new_dict = json.load(tf) # list
  192. self.listBig_ids = new_dict
  193. tf.close()
  194. self.typeBig_ids = new_dict
  195. tf = open(get_path("find_bigtype_fromsmallID.json"), "r")
  196. new_dict = json.load(tf)
  197. self.find_bigtype_fromsmallID = new_dict # dict
  198. tf.close()
  199. self.find_bigtype_fromsmallID = new_dict # 没变
  200. # 计算加成值
  201. def addition(self):
  202. pass
  203. def save_array2(self):
  204. pass

        其中的核心代码是(获得251种小类和6大类1085天每日销量):

  1. # 用于求得单个品种食物每天的销量
  2. # 用于求得单个大品类每天的销量
  3. def record_one_food_function(self):
  4. time = '0'
  5. record_one_type = np.zeros(shape=(251, 1085))
  6. record_one_bigtype = np.zeros(shape=(6, 1085))
  7. i = -1
  8. record_time = list()
  9. for current in self.data2_values:
  10. current_time = current[0]
  11. current_id = int(current[1])
  12. current_weight = float(current[2])
  13. if time != current_time:
  14. time = current_time
  15. i += 1 # index
  16. record_time.append(time)
  17. food_number = self.rows_type[current_id]
  18. # print(food_number,self.type_names[food_number],current_id)
  19. record_one_type[food_number][i] += current_weight
  20. big_id = self.find_bigtype_fromsmallID[current_id]
  21. index_bigId = self.typeBig_ids.index(big_id)
  22. # print(current_id,index_bigId,big_id,self.typeBig_names[index_bigId])
  23. record_one_bigtype[index_bigId][i] += current_weight
  24. self.record_one_type = record_one_type
  25. self.record_one_bigtype = record_one_bigtype
  26. self.record_time = record_time

4.2第一问求解

        引入做二维图的matplotlib.pyplot

        对于大类,一共就6个,直接使用np.corrcoef()计算他们之间的相关系数(皮尔逊相关系数),然后用plt把相关系数们当作热力图输出出来就成,效果如下:

0c1fd5d73aef4da4b30cff63b14bcafc.png

        核心代码(热力图): 

  1. # 热力图
  2. def heat_map_type(d):
  3. np.set_printoptions(threshold=np.inf)
  4. # print(d.record_one_type[:,0])
  5. # print(d.record_one_type[:,-1])
  6. # print(d.record_one_bigtype[0,:])
  7. corr = pd.DataFrame(d.record_one_type)
  8. corr = corr.corr()
  9. # print(corr)
  10. fig = plt.figure()
  11. ax = fig.add_subplot(1, 1, 1)
  12. p1 = sns.heatmap(corr, xticklabels=d.type_names, yticklabels=d.type_names, cmap='viridis')
  13. ax.set_title('Heat Map2')
  14. s1 = p1.get_figure()
  15. plt.show()
  16. s1.savefig(r'D:\win10浏览器\CUMCM2023Problems\C题\HeatMap_small.jpg', dpi=300, bbox_inches='tight')
  17. print('ok')

        对于小类,251种啊,画出个热力图一个小格快成像素点了不能这么弄,所以用聚类,我用的k-means,为了获取相关度尽量大的把k设为80,将与其他蔬菜相关度低的蔬菜单独聚成一簇,那些簇内元素不为1的就是我实际需要的相关度较高的小类蔬菜。聚类的结果是有相当多一部分的蔬菜是聚到了一类(超过20个菜品聚到了一个簇),剩余的都是一个簇内不超过15个,以四个以下居多,举两个例子:

44a001c771f4458e8915d3ce2953a02c.png

        对于那个相当多元素的簇,我的解释是那些是蔬菜可能可以种大棚里,或者居民在各个季节需求都比较平均,没啥淡旺季,所以进一簇了(就比如小米辣椒)。

        核心代码(小品类寻找有联系的蔬菜):

  1. def KMS_type_show(d, k=80):
  2. kms = KMeans(n_clusters=k, random_state=0).fit(d.record_one_type)
  3. labels = kms.labels_
  4. # record_cluster = labels.sorted()
  5. # 首先剔除常用少量蔬菜
  6. count = np.bincount(labels)
  7. biggest_count = count.max()
  8. biggest_count_number = np.where(biggest_count == count)[0][0]
  9. # 其次剔除单个元素
  10. cluster_need_index = list()
  11. cluster_need_count = list()
  12. index = -1
  13. for i in count:
  14. index += 1
  15. if i <= 1 or i == biggest_count:
  16. pass
  17. else:
  18. cluster_need_index.append(index) # 簇名
  19. cluster_need_count.append(i) # 出现次数
  20. print('最大簇的簇的簇标记为{},其内商品有:'.format(biggest_count_number))
  21. # goods序号
  22. cluster_Biggest = np.where(labels == biggest_count_number)[0]
  23. cluster_set = np.zeros(shape=(biggest_count, 1085))
  24. names_cs = list()
  25. for i in range(len(cluster_Biggest)):
  26. print(d.type_names[cluster_Biggest[i]])
  27. cluster_set[i, :] = d.record_one_type[cluster_Biggest[i], :]
  28. names_cs.append(d.type_names[cluster_Biggest[i]])
  29. # show
  30. x = np.arange(1085)
  31. x = np.expand_dims(x, 0).repeat(biggest_count, axis=0)
  32. plt.plot(x.T, cluster_set.T)
  33. plt.legend(names_cs, loc="best")
  34. plt.show()
  35. # 处理有效簇
  36. print('以下为有效簇的信息:')
  37. for i in range(len(cluster_need_index)):
  38. print('簇标记为{},簇内有商品{}个,分别为:'.format(cluster_need_index[i], cluster_need_count[i]))
  39. cluster_current = np.where(labels == cluster_need_index[i])[0]
  40. names_cs = list()
  41. cluster_set = np.zeros(shape=(cluster_need_count[i], 1085))
  42. index = -1
  43. for j in cluster_current:
  44. index += 1
  45. print('{}'.format(d.type_names[j], end=' '))
  46. names_cs.append(d.type_names[j])
  47. cluster_set[index, :] = d.record_one_type[j, :]
  48. # show
  49. x = np.arange(1085)
  50. x = np.expand_dims(x, 0).repeat(cluster_need_count[i], axis=0)
  51. plt.plot(x.T, cluster_set.T)
  52. plt.legend(names_cs, loc="best")
  53. plt.show()

4.3第二问求解

        首先要做出大品类销量和成本加成定价的关系,我的做法是找单个大品类每日的销量和成本加成系数的关系,而题目中说明了"从需求侧来看,蔬菜类 商品的销售量与时间往往存在一定的关联关系",所以认为应该考虑大品类每日的销量是受时间的影响的,因此我对每一种大类都使用聚类聚成两类,将其分为淡旺季,然后再进一步对每一季处理。

        核心代码(分两季):

  1. def show_bigtype(d):
  2. x = np.arange(1085)
  3. x = np.expand_dims(x, 0).repeat(6, axis=0)
  4. plt.plot(x.T, d.record_one_bigtype.T)
  5. plt.legend(d.typeBig_names, loc="best")
  6. plt.show()
  7. def mounth_analysis():
  8. mounth_record = np.zeros(shape=(6, 12))
  9. two_season = np.zeros(shape=(6, 12))
  10. record = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\record_one_bigtype.npy')
  11. day_record = np.load(r'D:\win10浏览器\CUMCM2023Problems\C题\time3_list.npy', allow_pickle=True)
  12. for i in range(6):
  13. current_month = 7
  14. index = 0
  15. for j in range(len(day_record)):
  16. if current_month != day_record[j].month:
  17. current_month = day_record[j].month
  18. mounth_record[i][current_month - 1] += record[i][j]
  19. for i in range(6):
  20. kms = KMeans(n_clusters=2, random_state=0).fit(mounth_record[i, :].reshape(-1, 1))
  21. two_season[i, :] = kms.labels_
  22. np.save(r"D:\win10浏览器\CUMCM2023Problems\C题\two_season.npy", two_season)
  23. print(two_season)

        分为两季后,对于每一季的销量和定价系数分别处理、显示、分析,以下举两个图片:

82ef4bdf49f244feb20d0c63f9a580ab.png

        可以看出,销量受加成系数影响较低,不呈现负相关,商超在某种菜品销量高时更倾向于提高定价以获取更多利润。

        然后要给出各蔬菜品类未来一周(2023 年 7 月 1-7 日)的日补货总量和定价策略,我们首先用季节性ARIMA时间序列分析对这一周的每日销量进行预测,然后将销量作为这几天的日补货总量。再用季节销量做属性,加成系数做标签,用神经网络对他俩做拟合,以后通过销量预测定价用。部分拟合结果:

400bcbc0c4ca459f88bceb3bb2f401f2.png49919db24a0f4d179564652802e36066.png

        之后将ARIMA预测到的销量输入刚才训练好的bp网络中,确定加成定价系数。

        核心代码(训练神经网路并展示模型):

  1. sklearn.neural_network import MLPRegressor
  2. from sklearn.model_selection import train_test_split
  3. import joblib
  4. def Regression_show2(save_sn):
  5. # 防止刷新模型
  6. if save_sn != None:
  7. return
  8. model = list(list(list() for j in range(2)) for i in range(6))
  9. for foodBig in range(6):
  10. for reason in range(2):
  11. # x是加成定价,y是销量
  12. X = save_sn[foodBig][reason][0].reshape(-1)
  13. y = save_sn[foodBig][reason][1].reshape(-1, 1)
  14. X, y = y, X
  15. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.38, random_state=42)
  16. mlp_regressor = MLPRegressor(hidden_layer_sizes=(400), max_iter=5000, random_state=42)
  17. mlp_regressor.fit(X_train, y_train)
  18. y_pred = mlp_regressor.predict(X_test)
  19. plt.scatter(X_test, y_test, c='b', label='Data')
  20. plt.scatter(X_test, y_pred, c='r', label='Predictions')
  21. plt.xlabel('X')
  22. plt.ylabel('y')
  23. plt.legend()
  24. plt.show()
  25. # save model
  26. joblib.dump(mlp_regressor,
  27. r'D:\win10浏览器\CUMCM2023Problems\C题\model2\model{}_{}.pkl'.format(foodBig, reason))
  28. #提选出时间

4.4第三问求解

        首先写上约束公式,出优化公式:

b50d588be50540eab362732c9142c32a.png

        公式解释:

1fa6b31c661b4da0b950533b56c11795.png   

        用scikit-opt(国人写的包)里的GA(遗传算法)和sklearn.neural_network里的MLPRegressor。先筛选出6月24日到6月30日的可以进的蔬菜,然后用第二题的相同的方法每一个小类训练训练60个输入销量输出加成系数的神经网络,之后引入sko的GA包把优化公式写进去迭代求解就行,附上官方API:

文档 (scikit-opt.github.io)

        迭代四百次的结果(论文里好像忘记加这个图了呜呜):

641fc44f404c4281a4a30e1b1007ef7d.png

        可以看出最后最优值(纯利润)在1150RMB收敛了。

        核心代码(训练小类网络和用GA算法解优化问题):

  1. def Regression_show():
  2. plus = np.load(get_path('plus_2_624707.npy'))
  3. wei = np.load(get_path('wei_2_624707.npy'))
  4. #food_sale可用
  5. for index in range(max_choice):
  6. #id = food_sale[index]
  7. #type_index = findIndexFromID[str(id)]
  8. # x是加成定价,y是销量
  9. X = plus[index][:].reshape(-1)
  10. y = wei[index][:].reshape(-1,1)
  11. X, y = y, X
  12. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.38, random_state=42)
  13. mlp_regressor = MLPRegressor(hidden_layer_sizes=(400), max_iter=5000, random_state=42)
  14. mlp_regressor.fit(X_train, y_train)
  15. if index<10:
  16. y_pred = mlp_regressor.predict(X_test)
  17. plt.scatter(X_test, y_test, c='b', label='Data')
  18. plt.scatter(X_test, y_pred, c='r', label='Predictions')
  19. plt.xlabel('X')
  20. plt.ylabel('y')
  21. plt.legend()
  22. plt.show()
  23. # save model
  24. joblib.dump(mlp_regressor,r'D:\win10浏览器\CUMCM2023Problems\C题\model2\model{}.pkl'.format(index))
  25. def read_modelAnd_predict2(predict_list, bigFoodIndex=0, reason=0):
  26. # load model
  27. # print('predict_list',predict_list)
  28. rfc2 = joblib.load(r"D:\win10浏览器\CUMCM2023Problems\C题\model\model{}_{}.pkl".format(bigFoodIndex, reason))
  29. result = rfc2.predict(np.array(predict_list).reshape(-1, 1))
  30. # print('result',result)
  31. return result
  32. def read_modelAnd_predict(predict_list,Index=0):
  33. # load model
  34. # print('predict_list',predict_list)
  35. rfc2 = joblib.load(r"D:\win10浏览器\CUMCM2023Problems\C题\model2\model{}.pkl".format(Index))
  36. result = rfc2.predict(np.array(predict_list).reshape(-1, 1))
  37. # print('result',result)
  38. return result
  1. #优化目标
  2. def fun_question(x):
  3. #loss_npList = list(loss_npList)
  4. es = x[:max_choice:]#选取61个值 进货量
  5. qs = x[max_choice::]#选取61个值 是否选择
  6. w=0.0
  7. for i in range(max_choice):#遍历每一个可取值
  8. #确定id,选择父类
  9. id = food_sale[i]
  10. #print(data4_index_list,'\n',id)
  11. loss_index = data4_index_list.index(id)
  12. loss = loss_npList[loss_index]*0.01*0.75#增加
  13. e_loss = es[i]*(1-loss)
  14. #print('es[i]={},loss={}'.format(es[i],loss))
  15. #寻找物品当前的批发价
  16. cost = cost_71[i]
  17. if qs[i]>0.5:
  18. one = read_modelAnd_predict(e_loss,i)*e_loss*qs[i]*cost-cost*es[i]
  19. w += one
  20. #print('one',one)
  21. return -1*w[0]
  22. from sko.GA import GA
  23. #GA计算
  24. def optimize_function():
  25. #进货量
  26. #是否选择
  27. constraint_ueq = (
  28. lambda x: sum(x[max_choice::]) - 33,
  29. lambda x: 27 - sum(x[max_choice::]),
  30. )
  31. arima_one = read_excel_71_predict()
  32. std_one = np.load(get_path('std_canSale.npy'))
  33. std_two = list( 2*i for i in std_one)
  34. lb_0 = [0]*(max_choice)
  35. ub_1 = [1]*(max_choice)
  36. #只看销量
  37. # 最小值
  38. min_put = [2.5]*max_choice
  39. #arima +- 2*std
  40. upper = np.add(arima_one,std_one)
  41. lower = np.subtract(arima_one,std_one)
  42. lb = find_lb(min_put,lower)
  43. ub = finb_up(min_put,upper)
  44. lb = list(lb)+list(lb_0)
  45. ub = list(ub)+list(ub_1)
  46. precision = [1e-7 for i in range(max_choice)]+[1 for i in range(max_choice)]
  47. ga = GA(func=fun_question,n_dim=max_choice*2,
  48. size_pop=50,max_iter=300,prob_mut=0.001,
  49. lb = lb,ub=ub,
  50. constraint_ueq=constraint_ueq,
  51. precision=precision
  52. )
  53. best_x, best_y = ga.run()
  54. print('best_x:', best_x, '\n', 'best_y:', best_y)
  55. np.save(get_path(r'answer3\best_x.npy'),best_x)
  56. np.save(get_path(r'answer3\best_y.npy'), best_y)
  57. Y_history = pd.DataFrame(ga.all_history_Y)
  58. fig, ax = plt.subplots(2, 1)
  59. ax[0].plot(Y_history.index, Y_history.values, '.', color='red')
  60. Y_history.min(axis=1).cummin().plot(kind='line')
  61. plt.show()

五、更多代码

        如果你想查看完整代码,可以访问http://t.csdn.cn/Ux4Pz,仅供学习交流使用,严禁转载商用。(一千行未维护的代码,直接用来水大作业不太行)

 

 

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号