当前位置:   article > 正文

Python爬取MidJourney历史图片【仅供参考学习使用】_midjourney 爬虫 just a moment

midjourney 爬虫 just a moment

1、 需求概要

使用MidJourney时,

https://www.midjourney.com/app/这里有接口https://www.midjourney.com/api/app/recent-jobs/?amount=35&dedupe=true&jobStatus=completed&jobType=upscale&orderBy=new&page=3&prompt=undefined&refreshApi=0&searchType=advanced&service=null&toDate=2023-06-16+09%3A50%3A17.379092&type=all&userId=b12e169c-f609-4fd6-b917-11c2deaa8cff&user_id_ranked_score=null&_ql=todo&_qurl=https%3A%2F%2Fwww.midjourney.com%2Fapp%2F,返回的json串中有图片的相关信息,要把整个json串都存下来。

2、 实现思路

(1)在翻页的时候,接口中的page值会发生变化,所以可以通过循环遍历page的值来实现爬取页面信息,目前发现page最大的值为50,所以可以 for page in range(50)

(2)接口中还有很多属性,如下:

属性名猜测作用
amount35一页包含的图片数量(目测最大50)
dedupetrue去重(是)
jobStatuscompleted图片状态(完成)
jobTypeupscale图片类型(高级),对应页面上的All,Grids(网格状),Upscales
orderBynew排序(按最新),对应页面上的Hot,New,Top,Favorited
page3当前页码(目测最大为50)
promptundefined提示(未定义)
refreshApi0
searchTypeadvanced
servicenull
toDate2023-06-16 09:50:17.379092这个等会得细看下,这个属性貌似只有orderby为new的时候会有
typeall
userIdb12e169c-f609-4fd6-b917-11c2deaa8cff
user_id_ranked_scorenull
_qltodo
_qurlhttps://www.midjourney.com/app/
isPublishedtrue这个对应页面上的ispublished选项(感觉不用特殊设置)

通过改变某些属性的值也许能找到相对正确的爬取策略

(3)可以简单地将爬取到的大量json串保存在txt中,等待后续的处理

3、具体实现

通过研究发现,orderby使用new或者enqueue_time的时候,再加上toDate参数,就会返回固定的json串,page最大值为50,amount最大值为50,也就是说,每次循环50次page最多爬取到50*50=2500张图,然后再取最后得到的图片的enqueue_time为新的toDate,进行下一轮的50次循环爬取,如此反复,就可以实现将某日前的所有历史图片数据全部爬取下来。注意每次爬取间睡个几秒,免得被封掉。

4、代码

  1. import json
  2. import requests
  3. import random
  4. import time
  5. #
  6. # _ooOoo_
  7. # o8888888o
  8. # 88" . "88
  9. # (| -_- |)
  10. # O\ = /O
  11. # ____/`---'\____
  12. # .' \\| |// `.
  13. # / \\||| : |||// \
  14. # / _||||| -:- |||||- \
  15. # | | \\\ - /// | |
  16. # | \_| ''\---/'' | |
  17. # \ .-\__ `-` ___/-. /
  18. # ___`. .' /--.--\ `. . __
  19. # ."" '< `.___\_<|>_/___.' >'"".
  20. # | | : `- \`.;`\ _ /`;.`/ - ` : | |
  21. # \ \ `-. \_ __\ /__ _/ .-` / /
  22. # ======`-.____`-.___\_____/___.-`____.-'======
  23. # `=---='
  24. # ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  25. # 佛祖保佑 永无bug
  26. # 成功爬取 不会被ban
  27. # 构建请求头:
  28. headers = {
  29. # 这里需要自己构建请求头
  30. }
  31. # 切分url
  32. big_pre_url = f"https://www.midjourney.com/api/app/recent-jobs/?amount=50&dedupe=true&jobStatus=completed&orderBy=enqueue_time&page="
  33. # 维护一个数组,用于循环
  34. # 需要填入开始爬取的日期
  35. # 可以使用datatime操作时间参数,这里简单点就用字符串就可以
  36. toDate = ['']
  37. # 创建一个标记符,用于控制循环结束
  38. tag = True
  39. # 开始循环爬取
  40. print("开始爬取")
  41. while tag:
  42. try:
  43. # 拆分url
  44. small_pre_url = f"&prompt=undefined&refreshApi=0&searchType=advanced&service=null&toDate=2023-"
  45. small_after_url = f"+07%3A21%3A03.591348&type=all&userId=b12e169c-f609-4fd6-b917-11c2deaa8cff&user_id_ranked_score=null&_ql=todo&_qurl=https%3A%2F%2Fwww.midjourney.com%2Fapp%2F"
  46. # 从维护的数组中更新url,进行循环爬取
  47. big_after_url = small_pre_url + toDate[-1] + small_after_url
  48. # 内部循环page从0到50
  49. for page in range(1, 51):
  50. print("正在爬取toDate为:" + str(toDate[-1]) + ",page为:" + str(page))
  51. # 睡一小会,免得号没了
  52. time.sleep(random.randint(5, 10))
  53. # 拼接url
  54. url = big_pre_url + str(page) + big_after_url
  55. # 发出请求得到响应
  56. response = requests.get(url=url, headers=headers).json()
  57. # json入库
  58. with open("images_json.txt", "a+", encoding="utf-8") as f:
  59. f.write(str(response) + '\n')
  60. # 维护下一个循环
  61. new_toDate = response[49]["enqueue_time"][5:10:]
  62. # 将最新的数据插到toDate中用于下一轮循环
  63. toDate.append(new_toDate)
  64. except Exception as e:
  65. tag = False
  66. print("-----------------出现异常,终止循环-----------------")
  67. print("异常信息为:" + e)
  68. print("当前 toDate:" + str(toDate[-1]) + "当前page:" + str(page))

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/煮酒与君饮/article/detail/878822
推荐阅读
相关标签
  

闽ICP备14008679号