当前位置:   article > 正文

It2CLR模型复现情况_clrnet复现自定义数据集

clrnet复现自定义数据集

一、数据部分

1、CAMELYON16 数据集

README:we solely employ the 5x resolution for training and evaluation.

2、代码中dataset部分共有两个数据集

1)XXX.txt数据集:该数据集记录的camelyon16中每一张图片;

-large_train_bags.txt:

-test_bags.txt:

-train_bags.txt:

-val_bags.txt:

2)all_patches.csv数据集:该数据集记录的是

下载:Camlyon16数据集:

第一步:进入网站:国家基因库核酸序列归档系统(CNSA)FTP公开服务 (cngb.org)

第二步:编写爬虫程序

  1. import requests
  2. import os
  3. from tqdm import tqdm
  4. # 目标网址
  5. url = "https://ftp.cngb.org/pub/gigadb/pub/10.5524/100001_101000/100439/CAMELYON16/training/normal/"
  6. # 保存的起始和结束文件名
  7. start_file = "normal_001.tif"
  8. end_file = "normal_160.tif"
  9. # 创建目标文件夹
  10. dataset_dir = "/home/user/zhangbowen/ItS2CLR-main/train/dataset/dataset/training/normal/"
  11. if not os.path.exists(dataset_dir):
  12. os.makedirs(dataset_dir)
  13. # 下载文件
  14. for i in tqdm(range(1, 161), desc="Downloading files"):
  15. filename = "normal_" + str(i).zfill(3) + ".tif"
  16. file_url = f"{url}{filename}"
  17. print(file_url)
  18. response = requests.get(file_url, stream=True)
  19. if response.status_code == 200: # 检查请求是否成功
  20. with open(os.path.join(dataset_dir, filename), 'wb') as f:
  21. for chunk in response.iter_content(chunk_size=1024):
  22. if chunk:
  23. f.write(chunk)

第三步:使用tmux新建会话进行后台下载

遇见的坑:

1、一开始打算使用byyp包从百度网盘中进行下载,但是在bypy info阶段绑定的账号没有足够的空间在存储Camelyon16数据集,换账号重新绑定bypy包失败,所以更换方法;

2、下载和使用tmux见帖子:非root用户安装tmux - 知乎 (zhihu.com)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/345269
推荐阅读
相关标签
  

闽ICP备14008679号