我正在对不同的 URL 进行并发 GET 请求(在本例中为 1000)。对于这些要求,我遵循了消费者-生产者设计。有 50 个工人(goroutines - 爬虫)和 1 个生产者(用 url 填充频道)。问题:我已将客户端中的超时设置为 15 秒(我不想等待每个请求超过 15 秒)。但是当一个 URL 使 goroutine 等待超过 15 秒时,我的代码退出超出上下文期限(Client.Timeout 或阅读正文时取消上下文)想要的行为:当服务器花费超过 15 秒时,我希望相关的 goroutine 简单地继续下一个 URL这是代码片段:package mainimport ( "bufio" "fmt" "io" "log" "net/http" "os" "sync" "time")func crawler(wg *sync.WaitGroup, urlChannel <-chan string) { defer wg.Done() client := &http.Client{Timeout: 15 * time.Second} // single client is sufficient for multiple requests for urlItem := range urlChannel { req1, _ := http.NewRequest("GET", "http://"+urlItem, nil) // generating the request req1.Header.Add("User-agent", "Mozilla/5.0 (X11; Linux i586; rv:31.0) Gecko/20100101 Firefox/74.0") // changing user-agent resp1, respErr1 := client.Do(req1) // sending the prepared request and getting the response if respErr1 != nil { fmt.Println("server error", urlItem) continue } if resp1.StatusCode/100 == 2 { // means server responded with 2xx code f1, fileErr1 := os.Create("200/" + urlItem + "_original.txt") // creating the relative file if fileErr1 != nil { fmt.Println("file error", urlItem) log.Fatal(fileErr1) } _, writeErr1 := io.Copy(f1, resp1.Body) // writing the sourcecode into our file if writeErr1 != nil { fmt.Println("file error", urlItem) log.Fatal(writeErr1) } f1.Close() resp1.Body.Close() fmt.Println("success:", urlItem) } }}如何实现想要的行为(如果达到超时,则跳过 URL)?
1 回答

智慧大石
TA贡献1946条经验 获得超3个赞
大概就在这里:
_, writeErr1 := io.Copy(f1, resp1.Body) // writing the sourcecode into our file if writeErr1 != nil { fmt.Println("file error", urlItem) log.Fatal(writeErr1) }
这个操作的结果不一定是写错误,可能是读错误,在这种情况下,很可能是。响应正文的读取超时。
不要打电话log.Fatal
给这种情况。
- 1 回答
- 0 关注
- 163 浏览
添加回答
举报
0/150
提交
取消