最近在学习python爬虫,写出来的一些爬虫记录在csdn博客里,同时备份一个放在了github上。
github地址:https://github.com/wjsaya/python_spider_learn/
因为本人为菜鸡一只,所以写出来的代码应该是十分丑陋并且效率底下的,请各路大神不要鄙视,当然,如果能够不吝赐教那就更好啦(≧▽≦)/
个人博客:https://wjsaya.github.io
CSDN博客::http://blog.csdn.net/saya_wj
本次内容:爬取mzitu.com的图片并保存到本地
思路:
- 获取用户输入的图片合辑个数。
- 在个数限制内访问汇总页,获取相应数量的图片合辑。
- 获取到图片合辑之后,访问图片合辑,拿到图片合辑的每一个页面的url。
- 访问页面url,获取图片下载链接。
- 下载图片,同时做一些处理(创建合辑文件夹,判断是否已下载等等)。
代码:
|
|
效果图:
由于内容为16+,所以不贴图了。。。需要的自行执行
一些废话:
自学东西毕竟是没什么压力的,所以总是断断续续,作为一个搞运维、日常负责打杂的,想到写代码就不是特别开心,唉。。。但是还得搞啊,无论两年后我还会不会搞运维,但是一定的编程能力是不可或缺的,现在的IT行业,有哪一个岗位能够脱离代码呢?而且,万一两年之后不搞运维想搞点其他的,那么编程能力就是刚需了,不论如何,技多不压身,先从python走起!