为了账号安全,请及时绑定邮箱和手机立即绑定

运行不起来啊 ,求解

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Date    : 2016-08-25 15:14:46

# @Author  : Your Name (you@example.org)

# @Link    : http://example.org

# @Version : $Id$

import url_manager

import html_downloader

import html_parser

import html_outputer

class SpiderMain(object):

def __init__(self):

self.urls = url_manager.UrlManager()

self.downloader = html_downloader.HtmlDownloader()

self.parser = html_parser.HtmlParser()

self.outputer = html_outputer.HtmlOutputer()

def craw(self, root_url):

count = 1

self.urls.add_new_url(root_url)

while self.urls.has_new_url():

try:

new_url = self.urls.get_new_url()

print 'craw %d : %s' % (count, new_url)

html_cont = self.downloader.download(new_url)

new_urls, new_data = self.parser.parse(new_url, html_cont)

self.urls.add_new_urls(new_urls)

self.outputer.collect_data(new_data)

if count == 1000:

break

count = count + 1

except: 

print 'craw failed'

 

self.outputer.outputer_html()

if __name__=="__main__":

root_url = "http://baike.baidu.com/view/21087.htm"

obj_spider = SpiderMain()

obj_spider.craw(root_url)



输出结果:

Traceback (most recent call last):

  File "spider_main.py", line 49, in <module>

    obj_spider.craw(root_url)

  File "spider_main.py", line 24, in craw

    self.urls.add_new_url(root_url)

TypeError: add_new_url() takes exactly 1 argument (2 given)


正在回答

2 回答

not too bad!

不提供源码和回复的视频导师,都是耍流氓!

0 回复 有任何疑惑可以回复我~
#1

慕课的浩浩

你交钱了?
2016-09-27 回复 有任何疑惑可以回复我~
1 回复 有任何疑惑可以回复我~

举报

0/150
提交
取消
Python开发简单爬虫
  • 参与学习       227670    人
  • 解答问题       1219    个

本教程带您解开python爬虫这门神奇技术的面纱

进入课程

运行不起来啊 ,求解

我要回答 关注问题
意见反馈 帮助中心 APP下载
官方微信