在尝试使用playwright之前,也使用过Selenium,Selenium依赖多种不同的driver,根据浏览器的不断更新,就要不断去维护这些driver,以及处理相应的适用性问题,对于整体的产品来看,显得太重,playwright的这方面封装会更加轻量级,所以尝试了把playwright的使用
使用之前,首先在已新建的虚拟环境下,可以:
pip install playwright
//2.安装相应的封装好的驱动
playwight install
第二步可能网络不好时会下载失败,多尝试,下载后安装在用户的一个隐藏目录下(具体位置忘了)
下面我们对一个网站进行爬虫,并且模拟登录。
from playwright.sync_api import sync_playwright
def main():
with sync_playwright() as p:
browser = p.firefox.launch(headless=False)
context = browser.new_context()
page = context.new_page()
page.goto("http://quotes.toscrape.com/")
page.wait_for_timeout(5000)
selector = "//div[@class='tags']/a[@class='tag']"
tag = page.query_selector_all(selector)
content= [t.inner_text() for t in tag]
print(content)
page.click("text=Login")
page.click("input[name=\"username\"]")
page.fill("input[name=\"username\"]", "123")
page.click("input[name=\"password\"]")
page.fill("input[name=\"password\"]", "123")
page.click("input:has-text(\"Login\")")
page.wait_for_timeout(1000)
selector = '//*[@href="/logout"]'
try:
logout = page.wait_for_selector(selector, timeout=5000)
print(logout.inner_text())
except Exception as e:
print(e)
exit()
context.close()
browser.close()
if __name__ == '__main__':
main()
这里面的代码有部分是根据脚本录制生成的,playwright的录制功能稳定性较强,但有时如果想等待新页面生成后再去操作,就需要用到wait_for_selector的方法,这个selector一般的xpath,正则,css选择器都可以输入进去,这里运用的是xpath,值得注意的是,当我们获取了div元素里的标签后,实际上在playwright里是一个对象,是需要用到inner_text()的方法提取对象的属性。
result:
|