赞
踩
Scrapy是一个优秀的爬虫框架,但是它本身不支持直接使用undetected_chromedriver。undetected_chromedriver是一个Python库,它可以用来绕过网站对Selenium WebDriver的检测,但是它并不是Scrapy的一部分。
如果你想在Scrapy中使用undetected_chromedriver,你需要自己编写中间件来实现这个功能。这可能需要一些额外的工作,但是可以帮助你绕过一些网站的反爬虫措施。
另外,登录功能可能会受到网站的复杂性和安全性的影响。有时候,简单的使用undetected_chromedriver可能不足以成功登录网站。你可能需要模拟用户行为,例如填写表单、点击按钮等操作,以确保成功登录。
你可以尝试查看Scrapy的文档以及undetected_chromedriver的文档,以了解如何在Scrapy中使用它,并根据具体情况调整你的代码。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。