用户月满西楼 发表于 2023-3-18 18:09:52

python爬取全国二手车数据,看看有没有可以捡漏的!

https://img-blog.csdnimg.cn/52af471d1e0a45d286236928d355e01e.png
 
絮叨一下

话说,最近从湖北开始汽车价格战,全国人民都跑到湖北买车去了,搞得人家都出政策限制外地人购买了。
不过12W的C6是真香呐,二十多万的C6一身毛病,12W的C6毛病在我!
https://img-blog.csdnimg.cn/ea0e1e8b057e45619156f0cdd2188599.png
这波价格战直接蔓延到全国,全国的二手车商已原地哭晕。
今天我们就用Python来获取一下全国二手车数据,看看二手车有没有降价的。
环境、模块

python 3.8
pycharm 2022.3专业版
requests >>> pip install requests
parsel >>> pip install parsel 
实现步骤


[*]发送请求
[*]获取数据
[*]解析数据
[*]保存数据
代码展示


[*]发送请求
for page in range(1, 101):
    url = f'https://www.***.com/china/a0_0msdgscncgpi1ltocsp{page}exx0/'
    response = requests.get(url=url, headers=headers, proxies=get_proxies()) 

[*]获取数据
html_data = response.text 

[*]解析数据
    select = parsel.Selector(html_data)
    detail_url_list = select.xpath("//ul[@class='viewlist_ul']/li/a[@class='carinfo']/@href").getall()
    # Python学习交流群:872937351
    for detail_url in detail_url_list[:-1]:
      if detail_url == '/':
            detail_url = 'https:' + detail_url
      else:
            detail_url = 'https://www.**.com' + detail_url
      detail_html = requests.get(detail_url, headers=headers, proxies=get_proxies()).text
      detail_select = parsel.Selector(detail_html)
      title = detail_select.xpath("string(//h3[@class='car-brand-name'])").get("").strip()
      licheng = detail_select.xpath("//ul[@class='brand-unit-item fn-clear']/li/h4/text()").get("").strip()
      shangpai = detail_select.xpath("//ul[@class='brand-unit-item fn-clear']/li/h4/text()").get("").strip()
      pailiang = detail_select.xpath("//ul[@class='brand-unit-item fn-clear']/li/h4/text()").get("").strip()
      suozaidi = detail_select.xpath("//ul[@class='brand-unit-item fn-clear']/li/h4/text()").get("").strip()
      guobiao = detail_select.xpath("//ul[@class='brand-unit-item fn-clear']/li/h4/text()").get("").strip()
      price = detail_select.xpath("string(//span[@id='overlayPrice'])").get("").strip()
      print(title, licheng, shangpai, pailiang, suozaidi, guobiao, price, detail_url) 

[*]保存数据
with open('汽车之家.csv', mode='a', encoding='utf-8', newline='') as f:
    csv_writer = csv.writer(f)
    csv_writer.writerow() 
尾语

好了兄弟们,今天的分享就到这里结束了,咱们下次再见!
大家赶紧去试试,看看二手车价格吧,说不定还能遇上心动的下个单!

来源:https://www.cnblogs.com/hahaa/p/17219657.html
免责声明:由于采集信息均来自互联网,如果侵犯了您的权益,请联系我们【E-Mail:cb@itdo.tech】 我们会及时删除侵权内容,谢谢合作!
页: [1]
查看完整版本: python爬取全国二手车数据,看看有没有可以捡漏的!