NetDiscovery 是一款基于 Vert.x、RxJava2 实现的爬虫框架。因为我最近正好在学习 Kotlin 的 Coroutines,在学习过程中尝试改造一下自己的爬虫框架。所以,我为它新添加了一个模块:coroutines 模块。
一. 爬虫框架的基本原理:
对于单个爬虫而言,从消息队列 queue 中获取 request,然后通过下载器 downloader 完成网络请求并获得 html 的内容,通过解析器 parser 解析 html 的内容,然后由多个 pipeline 按照顺序执行操作。其中,downloader、queue、parser、pipeline 这些组件都是接口,爬虫框架里内置了它们很多实现。开发者可以根据自身情况来选择使用或者自己开发全新的实现。
下面响应式风格的代码反映了上图爬虫框架的基本原理:
// 从消息队列中取出request
final Request request = queue.poll(name);
......
// request正在处理
downloader.download(request)
.map(new Function<Response, Page>() {
@Override
public Page apply(Response response) throws Exception {
Page page = new Page();
page.setRequest(request);
page.setUrl(request.getUrl());
page.setStatusCode(response.getStatusCode());
if (Utils.isTextType(response.getContentType())) { // text/html
page.setHtml(new Html(response.getContent()));
return page;
} else if (Utils.isApplicationJSONType(response.getContentType())) { // application/json
// 将json字符串转化成Json对象,放入Page的"RESPONSE_JSON"字段。之所以转换成Json对象,是因为Json提供了toObject(),可以转换成具体的class。
page.putField(Constant.RESPONSE_JSON,new Json(new String(response.getContent())));
return page;
} else if (Utils.isApplicationJSONPType(response.getContentType())) { // application/javascript
// 转换成字符串,放入Page的"RESPONSE_JSONP"字段。
// 由于是jsonp,需要开发者在Pipeline中自行去掉字符串前后的内容,这样就可以变成json字符串了。
page.putField(Constant.RESPONSE_JSONP,new String(response.getContent()));
return page;
} else {
page.putField(Constant.RESPONSE_RAW,response.getIs()); // 默认情况,保存InputStream
return page;
}
}
})
.map(new Function<Page, Page>() {
@Override
public Page apply(Page page) throws Exception {
if (parser != null) {
parser.process(page);
}
return page;
}
})
.map(new Function<Page, Page>() {
@Override
public Page apply(Page page) throws Exception {
if (Preconditions.isNotBlank(pipelines)) {
pipelines.stream()
.forEach(pipeline -> pipeline.process(page.getResultItems()));
}
return page;
}
})
.observeOn(Schedulers.io())
.subscribe(new Consumer<Page>() {
@Override
public void accept(Page page) throws Exception {
log.info(page.getUrl());
if (request.getAfterRequest()!=null) {
request.getAfterRequest().process(page);
}
}
}, new Consumer<Throwable>() {
@Override
public void accept(Throwable throwable) throws Exception {
log.error(throwable.getMessage());
}
});
其中,Downloader的download方法会返回一个Maybe。
import com.cv4j.netdiscovery.core.domain.Request;
import com.cv4j.netdiscovery.core.domain.Response;
import io.reactivex.Maybe;
import java.io.Closeable;
/**
* Created by tony on 2017/12/23.
*/
public interface Downloader extends Closeable {
Maybe<Response> download(Request request);
}
正是因为这个 Maybe 对象,后续的一系列的链式调用才显得非常自然。比如将Response转换成Page对象,再对Page对象进行解析,Page解析完毕之后做一系列的pipeline操作。
当然,在爬虫框架里还有 SpiderEngine 可以管理 Spider。
二. 使用协程改造
协程是一种用户态的轻量级线程,协程的调度完全由用户控制。协程拥有自己的寄存器上下文和栈。协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈,直接操作栈则基本没有内核切换的开销,可以不加锁的访问全局变量,所以上下文的切换非常快。
由于 Kotlin Coroutines 仍然是试验的API,所以我不打算在爬虫框架原有的 core 模块上进行改动。于是,新增一个模块。
在新模块里,将之前的响应式风格的代码,改造成协程的方式。
Kotlin Coroutines 为各种基于 reactive streams 规范的库提供了工具类。可以在下面的github地址找到。
我在build.gradle中添加了
compile 'org.jetbrains.kotlinx:kotlinx-coroutines-core:0.23.0'
compile 'org.jetbrains.kotlinx:kotlinx-coroutines-rx2:0.23.0'
注意,协程的版本号必须跟 Kotlin 的版本要相符和。我所使用的 Kotlin 的版本是1.2.41
下面是修改之后的 Kotlin 代码,原有的各种组件接口依然可以使用。
// 从消息队列中取出request
final Request request = queue.poll(name);
......
// request正在处理
val download = downloader.download(request).await()
download?.run {
val page = Page()
page.request = request
page.url = request.url
page.statusCode = statusCode
if (Utils.isTextType(contentType)) { // text/html
page.html = Html(content)
} else if (Utils.isApplicationJSONType(contentType)) { // application/json
// 将json字符串转化成Json对象,放入Page的"RESPONSE_JSON"字段。之所以转换成Json对象,是因为Json提供了toObject(),可以转换成具体的class。
page.putField(Constant.RESPONSE_JSON, Json(String(content)))
} else if (Utils.isApplicationJSONPType(contentType)) { // application/javascript
// 转换成字符串,放入Page的"RESPONSE_JSONP"字段。
// 由于是jsonp,需要开发者在Pipeline中自行去掉字符串前后的内容,这样就可以变成json字符串了。
page.putField(Constant.RESPONSE_JSONP, String(content))
} else {
page.putField(Constant.RESPONSE_RAW, `is`) // 默认情况,保存InputStream
}
page
}?.apply {
if (parser != null) {
parser!!.process(this)
}
}?.apply {
if (Preconditions.isNotBlank(pipelines)) {
pipelines.stream()
.forEach { pipeline -> pipeline.process(resultItems) }
}
}?.apply {
println(url)
if (request.afterRequest != null) {
request.afterRequest.process(this)
}
}
其中,download 变量返回了 Maybe 的结果。之后, run、apply 等 Kotlin 标准库的扩展函数替代了原先的 RxJava 的 map 操作。
Kotlin 的协程是无阻塞的异步编程方式。上面看似同步的代码,其实是异步实现的。
await() 方法是 Maybe 的扩展函数:
/**
* Awaits for completion of the maybe without blocking a thread.
* Returns the resulting value, null if no value was produced or throws the corresponding exception if this
* maybe had produced error.
*
* This suspending function is cancellable.
* If the [Job] of the current coroutine is cancelled or completed while this suspending function is waiting, this function
* immediately resumes with [CancellationException].
*/
@Suppress("UNCHECKED_CAST")
public suspend fun <T> MaybeSource<T>.await(): T? = (this as MaybeSource<T?>).awaitOrDefault(null)
由于 await() 方法是suspend
修饰的,所以在上述代码的最外层还得加上一段代码,来创建协程。
runBlocking(CommonPool) {
......
}
到此,完成了最初的改造,感兴趣的同学可以查看我的爬虫框架。
github地址:https://github.com/fengzhizi715/NetDiscovery
三. 小结
随着 Kotlin Coroutines 未来的正式发布,爬虫框架的 coroutines 模块也会考虑合并到 core 模块中。以及随着个人对 Kotlin Coroutines 的进一步认识和理解,也会考虑在更多的地方使用 Coroutines ,例如 Vert.x 和 Kotlin Coroutines 相结合。
共同学习,写下你的评论
评论加载中...
作者其他优质文章