已采纳回答 / 火上的冰
互联网是有很多的网页组成的,每个网页我们通过url来访问。使用程序对url进行下载、解析并在其中找到我们需要的数据,比如价格,图片,相关的url等,并把这些数据保存起来形成数据集。下载,解析,再下载,再解析的过程就是爬虫的过程。我们把这种通过url找寻数据的方法叫做爬虫。
2016-12-19
最新回答 / 猪猪的笨笨
感觉你是最近才学的吧。如果是,建议你学习一下基础,然后一个一个模块的学习使用。最后再一次使用多个模块。而且,这个视频的python和模块有点老,你要小心有很多坑,我就是被坑了很多次!!!
2016-12-01
已采纳回答 / LUXIN66
python3 缺省的编码是unicode, 再在from_encoding设置为utf8, 会被忽视掉,代码是从python2转来的,去掉就可以了
2016-11-19
已采纳回答 / 慕粉3962690
www.baidu.com 只是首页 你要用他干什么呢 比如 你要用它搜索 python 他的链接请求就会变成 www.baidu.com?wd=python (这只是给你简单解释下 真实的链接比较复杂 做了很多处理) 自己搜下 看下地址栏就知道了,简单来说 就根据不同的请求参数 可以让我抓取不同的页面和内容。ps:去了解HTTP协议的get请求和post请求。
2016-11-11