为了账号安全,请及时绑定邮箱和手机立即绑定

Apache PredictionIO机器学习和智能推荐服务搭建

标签:
机器学习

一、PredictionIO介绍
Apache PredictionIO 是一个孵化中的机器学习服务器,它可以为为开发人员和数据科学家创建任何机器学习任务的预测引擎。官方原文:

Apache PredictionIO (incubating) is an open source Machine Learning Server built on 
top of a state-of-the-art open source stack for developers and data scientists 
to create predictive engines for any machine learning task.

PredictionIO以Spark为计算引擎,mysql or HBase+Elasticsearch or PostgreSql 为数据存储,并提供了常用的模板引擎:

1、Recommenders推荐引擎。集成了Spark MLlib的协同过滤算法,可以作为电子商务、新闻、视频方面的个性化推荐。
2、Classification分类引擎。集成了Spark MLlib的朴素贝叶斯算法,提供文本内容分类、预测用户在当前会话中转化概率、(用户)流失预测等服务。
3、NPL引擎。主要做情绪分析。
4、还提供回归、聚类等其他引擎。

我们选定引擎模板,将用户行为数据导入数据库,PredictionIO帮我们完成了数据训练、建模等复杂问题,并提供了返回预测数据的restful API。
二、PredictionIO服务搭建
在服务搭建这一阶段,官方文档变得更加重要,它比任务其他的网络资料都好用,初次搭建服务的时候,一定遵照官方文档。重要的事说三遍,官方文档!官方文档!官方文档!
我在搭建服务的时候也遇到各种问题,最后把我之前已经搭好正常运行的spark环境,重新安装官方文档要求搭了一遍。所以这边文章不过是官方文档的翻译,及里面的注意点。

1、环境要求。
以下的配置很重要,至少保证是正确的,其他的版本不能保证,Spark版本和其他编程语音的版本兼容很蛋疼。  Apache Spark 1.6.3 for Hadoop 2.6
  JDK 1.8和以下几项的一项:  PostgreSQL 9.1or
  MySql 5.1or
  Apache HBase 0.98.5
  Elasticsearch 1.7.62、另外scala版本,官网写的是2.10.6,我装的是2.10.5,因为spark 1.6.3 for Hadoop 2.6自带的spark就是2.10.5,使用没有问题。

自行去官网下载predictionIO压缩包,我安装的是0.11.0,解压

tar zxvf PredictionIO-0.11.0-incubating.tar.gzcd PredictionIO-0.11.0-incubating/bin/
需要执行install进行安装,官方文档没有说
./install.sh 安装

希望支持 scala 2.10.5  spark1.6.3  elasticsearch5.3.0
./make-distribution.sh -Dscala.version=2.10.5 -Dspark.version=1.6.3 -Delasticsearch.version=5.3.0

安装依赖,predictionIO自行下载依赖放在vendors目录下(如spark),需要先建目录,如果依赖另外安装,不需要vendors
mkdir PredictionIO-0.11.0-incubating/vendors

安装数据库
mysql 5.1 / postgreSql 9.1 / HBase 0.98.5 + Elasticsearch 1.7.6

配置依赖环境参数

cd PredictionIO-0.11.0-incubating/conf/
vi pio-env.sh
配置 Spark、数据库驱动,没有驱动jar包需要自行下载
SPARK_HOME=/Users/jiazhaopu/program/spark-1.6.3POSTGRES_JDBC_DRIVER=$PIO_HOME/lib/postgresql-42.0.0.jar
MYSQL_JDBC_DRIVER=$PIO_HOME/lib/mysql-connector-java-5.1.41.jar

为了简单,我用mysql作为存储,但配置文件里默认使用PostgreSQL
修改Storage Repositories 为
PIO_STORAGE_REPOSITORIES_METADATA_NAME=pio_meta
PIO_STORAGE_REPOSITORIES_METADATA_SOURCE=MYSQL

PIO_STORAGE_REPOSITORIES_EVENTDATA_NAME=pio_event
PIO_STORAGE_REPOSITORIES_EVENTDATA_SOURCE=MYSQL

PIO_STORAGE_REPOSITORIES_MODELDATA_NAME=pio_model
PIO_STORAGE_REPOSITORIES_MODELDATA_SOURCE=MYSQL# Storage Data Sources# PostgreSQL Default Settings# Please change "pio" to your database name in PIO_STORAGE_SOURCES_PGSQL_URL# Please change PIO_STORAGE_SOURCES_PGSQL_USERNAME and# PIO_STORAGE_SOURCES_PGSQL_PASSWORD accordingly# PIO_STORAGE_SOURCES_PGSQL_TYPE=jdbc# PIO_STORAGE_SOURCES_PGSQL_URL=jdbc:postgresql://localhost/pio# PIO_STORAGE_SOURCES_PGSQL_USERNAME=pio# PIO_STORAGE_SOURCES_PGSQL_PASSWORD=pio# MySQL ExamplePIO_STORAGE_SOURCES_MYSQL_TYPE=jdbc
PIO_STORAGE_SOURCES_MYSQL_URL=jdbc:mysql://127.0.0.1:3306/pioPIO_STORAGE_SOURCES_MYSQL_USERNAME=root
PIO_STORAGE_SOURCES_MYSQL_PASSWORD=root#PIO_STORAGE_SOURCES_MYSQL_URL 配置了数据库ip 库名,所以需要先建数据库,这里是pio库

到这里PredictionIO基础服务算搭好了,需要给PredictionIO配置环境变量

vi /etc/profile
export PATH=$PATH:/Users/jiazhaopu/program/spark-1.6.3/bin
export PATH=$PATH:/Users/jiazhaopu/program/mongodb-osx-x86_64-enterprise-3.4.9/bin
export PATH=$PATH:/usr/local/mysql/binexport PATH=$PATH:/Users/jiazhaopu/program/apache-predictionio-0.11.0-incubating/PredictionIO/bin
export PATH=$PATH:/Users/jiazhaopu/program/scala-2.10.5/bin

配置完环境变量

启动命令
pio-start-all
如果您使用PostgreSQL或MySQL,请运行以下命令启动PredictionIO Event Server:
pio eventserver &

输出以下日志
[INFO] [HttpListener] Bound to /0.0.0.0:7070[INFO] [EventServerActor] Bound received. EventServer is ready
说明启动成功
停服命令
pio-stop-all

访问http://localhost:7070/ 返回

{"status":"alive"}
执行pio status查看服务运行情况[INFO] [Storage$] Verifying Model Data Backend (Source: MYSQL)...[INFO] [Storage$] Verifying Event Data Backend (Source: MYSQL)...[INFO] [Storage$] Test writing to Event Store (App Id 0)...[INFO] [Management$] Your system is all ready to go.
jps -l命令查看已经启动的
54305 sun.tools.jps.Jps10546 org.jetbrains.jps.cmdline.Launcher28594 org.apache.predictionio.tools.console.Console738 
54164 org.apache.predictionio.tools.console.Console774 org.jetbrains.idea.maven.server.RemoteMavenServer28649 org.apache.spark.deploy.SparkSubmit

三、部署模板引擎
1、下载模板引擎
这里下载的是一个数据推荐引擎,推荐原理是:
收集用户买了哪些商品,用户给商品打分这两项数据,通过协同过滤算法训练出用户喜好模型,推荐用户还会买哪些商品。

git clone https://github.com/apache/incubator-predictionio-template-recommender.git MyRecommendation
$ cd MyRecommendation

2、创建App ID 和 Access Key

pio app new MyApp1
会看到以下输出
[INFO] [App$] Initialized Event Store for this app ID: 1.
[INFO] [App$] Created new app:[INFO] [App$]       Name: MyApp1
[INFO] [App$]         ID: 1[INFO] [App$] Access Key: 3mZWDzci2D5YsqAnqNnXH9SB6Rg3dsTBs8iHkK6X2i54IQsIZI1eEeQQyMfs7b3F

记住App ID、Access Key、Name,在收集数据的服务器和代码里会用到

执行 pio app list 命令会列出已存在的App 列表
[INFO] [App$]                 Name |   ID |                                                       Access Key | Allowed Event(s)
[INFO] [App$]               MyApp1 |    1 | 3mZWDzci2D5YsqAnqNnXH9SB6Rg3dsTBs8iHkK6X2i54IQsIZI1eEeQQyMfs7b3F | (all)
[INFO] [App$]               MyApp2 |    2 | io5lz6Eg4m3Xe4JZTBFE13GMAf1dhFl6ZteuJfrO84XpdOz9wRCrDU44EUaYuXq5 | (all)
[INFO] [App$] Finished listing 2 app(s).

3、收集数据
PredictionIO提供了收集数据的接口,在启动了Prediction服务后可以调用它,这里需要用到Access Key。

$ curl -i -X POST http://localhost:7070/events.json?accessKey=$ACCESS_KEY \
-H "Content-Type: application/json" \
-d '{
  "event" : "rate",
  "entityType" : "user",
  "entityId" : "u0",
  "targetEntityType" : "item",
  "targetEntityId" : "i0",
  "properties" : {
    "rating" : 5
  }
  "eventTime" : "2014-11-02T09:39:45.618-08:00"
}'

模板代码里也提供了Python批量导入的方法,这里给出了两个事件,
一个是用户买商品,一个是用户给商品打分

import predictionio
client = predictionio.EventClient(
   access_key=<ACCESS KEY>,
   url=<URL OF EVENTSERVER>,
   threads=5,
   qsize=500
)# 用户给商品打分client.create_event(
   event="rate",
   entity_type="user",
   entity_id=<USER ID>,
   target_entity_type="item",
   target_entity_id=<ITEM ID>,
   properties= { "rating" : float(<RATING>) }
)# 用户买商品client.create_event(
   event="buy",
   entity_type="user",
   entity_id=<USER ID>,
   target_entity_type="item",
   target_entity_id=<ITEM ID>
)
官方给出了数据模板
https://raw.githubusercontent.com/apache/spark/master/data/mllib/sample_movielens_data.txt

把数据导入到代码中的数据文件,并执行导入代码

cd MyRecommendation
$ curl https://raw.githubusercontent.com/apache/spark/master/data/mllib/sample_movielens_data.txt --create-dirs -o data/sample_movielens_data.txt
$ python data/import_eventserver.py --access_key $ACCESS_KEY

你会看到

Importing data...
1501 events are imported.

4、部署你的引擎
编辑你的模板代码里的Engine.json,将appName 改成你自己创建的

 ...  "datasource": {    "params" : {      "appName": "MyApp1"
    }
  },
  ...

Building 你的引擎

 pio build --verbose

这里可能会出现如下错误

[INFO] [Engine$] If the path above is incorrect, this process will fail.
[INFO] [Engine$] Uber JAR disabled. Making sure lib/pio-assembly-0.11.0-incubating.jar is absent.
[INFO] [Engine$] Going to run: /Users/jiazhaopu/program/apache-predictionio-0.11.0-incubating/PredictionIO/sbt/sbt  package assemblyPackageDependency in /Users/jiazhaopu/workspace/incubator-predictionio-template-recommender
[ERROR] [Engine$] Downloading sbt launcher for 0.13.15:
[ERROR] [Engine$]   From  http://repo.typesafe.com/typesafe/ivy-releases/org.scala-sbt/sbt-launch/0.13.15/sbt-launch.jar
[ERROR] [Engine$]     To  /Users/jiazhaopu/.sbt/launchers/0.13.15/sbt-launch.jar

是因为下载sbt-launch.jar出错,可以自己下载好 sbt-launch.jar,放到响应的位置,下载地址

http://repo.typesafe.com/typesafe/ivy-releases/org.scala-sbt/sbt-launch/0.13.15/sbt-launch.jar

最后你会看到

[INFO] [Console$] Your engine is ready for training.
准备好训练数据了

5、训练数据
执行以下命令开始训练数据

pio train

以为spark是基于内存的计算框架,如果内存、并行任务数配置不好,可能会运行出错,尤其是在内存不够大的PC上,可能会OutOfMemoryError 或 StackOverflowError。
我遇到的StackOverflowError错误


webp

436542A97FAC3258145AA877DB6F57B0.jpg


我这台PC配置如下:

处理器 4核
内存  16G

原因是因为spark内存、并行任务数等相关参数配置不当。
最终的配置结果:

#spark-defaults.conf spark.eventLog.enabled             truespark.driver.memory                512M  #驱动内存spark.driver.maxResultSize         1g   #驱动最大内存spark.driver.extraJavaOptions      -Xss32m-XX:PermSize=128M -XX:MaxPermSize=512M
spark.executor.memory              10g
spark.executor.extraJavaOptions    -XX:+PrintGCDetails -Dkey=value -Dnumbers="three"#spark.sql.shuffle.partitions       4spark.default.parallelism          800spark.serializer                   org.apache.spark.serializer.KryoSerializer

spark.default.parallelism  并行任务数,一般设置在500~1000之间。我这台机器 500 和 1000都会StackOverflowErro

spark.serializer  org.apache.spark.serializer.KryoSerializer 序列化,也很重要

#spark-env.shexport SPARK_WORKER_MEMORY=14gexport SPARK_EXECUTOR_INSTANCES=1export SPARK_EXECUTOR_CORES=4export SCALA_HOME=/Users/jiazhaopu/program/scala-2.10.5

SPARK_WORKER_MEMORY  工作内存,尽量大
SPARK_EXECUTOR_INSTANCES 执行器实例数,单机设置1
SPARK_EXECUTOR_CORES 执行核数,等于处理器核数
SPARK_EXECUTOR_INSTANCES * SPARK_EXECUTOR_CORES = 处理器核数

数据训练完成,可以看到

[INFO] [CoreWorkflow$] Training completed successfully.

部署引擎

$ pio deploy

部署成功

[INFO] [HttpListener] Bound to /0.0.0.0:8000
[INFO] [MasterActor] Bind successful. Ready to serve.

引擎默认绑定到 http://localhost:8000/ ,打开链接看的

webp

QQ20170929-195738@2x.png


好了,现在可以提供API来访问服务,来获取推荐结果。


为user 1 推荐的前4个数据
$ curl -H "Content-Type: application/json" \
-d '{ "user": "1", "num": 4 }' http://localhost:8000/queries.json

返回Json

按照评分降序
{  "itemScores":[
    {"item":"22","score":4.072304374729956},
    {"item":"62","score":4.058482414005789},
    {"item":"75","score":4.046063009943821},
    {"item":"68","score":3.8153661512945325}
  ]
}

webp

QQ20170929-200305@2x.png


到这里predictionIO的推荐服务全部搭建完成,谢谢大家的掌声。

下面是一些其他细节
1、训练数据


webp

QQ20170929-160719@2x.png


按说spark是基于内存的计算,应该是比较耗内存,但是从表现上,内存占用很小,可能是数据小的原因,但是cpu占用很大,最高突破90%。


webp

QQ20170929-161014@2x.png


2、部署引擎

webp

QQ20170929-161305@2x.png


3、数据存储

为了简单,为用了mysql存储训练数据,predictionIO生成了

mysql> show tables;
+------------------------------+| Tables_in_pio                |+------------------------------+| pio_event_1                  || pio_meta_accesskeys          || pio_meta_apps                || pio_meta_channels            || pio_meta_engineinstances     || pio_meta_evaluationinstances || pio_model_models             |+------------------------------+7 rows in set (0.00 sec)

pio_event_1 保存训练数据

mysql> select * from pio_event_1 limit 10;
+----------------------------------+-------+------------+----------+------------------+----------------+----------------+---------------------+---------------+------+------+---------------------+------------------+| id                               | event | entityType | entityId | targetEntityType | targetEntityId | properties     | eventTime           | eventTimeZone | tags | prId | creationTime        | creationTimeZone |+----------------------------------+-------+------------+----------+------------------+----------------+----------------+---------------------+---------------+------+------+---------------------+------------------+| 00476c09f05240b1b46e519af98bbc5b | buy   | user       | 11       | item             | 30             | {}             | 2017-09-28 15:52:27 | UTC           | NULL | NULL | 2017-09-28 15:52:27 | UTC              || 004db334651f4aa6b074a91a879f90cf | buy   | user       | 8        | item             | 69             | {}             | 2017-09-28 15:52:27 | UTC           | NULL | NULL | 2017-09-28 15:52:27 | UTC              || 0063564f4ab945a9ae72c62654511526 | rate  | user       | 18       | item             | 75             | {"rating":1.0} | 2017-09-28 15:52:29 | UTC           | NULL | NULL | 2017-09-28 15:52:29 | UTC              || 007b8e2e6b9a422dbb3080649d59bd82 | buy   | user       | 11       | item             | 36             | {}             | 2017-09-28 15:52:27 | UTC           | NULL | NULL | 2017-09-28 15:52:27 | UTC              || 009d6156c48f44a89eec9d2aa6c3736e | buy   | user       | 4        | item             | 98             | {}             | 2017-09-28 15:52:26 | UTC           | NULL | NULL | 2017-09-28 15:52:26 | UTC              || 00ca2326e9414b0f8ad35d824dbe2edd | rate  | user       | 22       | item             | 19             | {"rating":1.0} | 2017-09-28 15:52:29 | UTC           | NULL | NULL | 2017-09-28 15:52:29 | UTC              || 00cc79d0dc20466b907cc58eb040d151 | rate  | user       | 3        | item             | 47             | {"rating":1.0} | 2017-09-28 15:52:25 | UTC           | NULL | NULL | 2017-09-28 15:52:25 | UTC              || 014315797d564a94abc463dbd6e1e96b | rate  | user       | 17       | item             | 60             | {"rating":1.0} | 2017-09-28 15:52:28 | UTC           | NULL | NULL | 2017-09-28 15:52:28 | UTC              || 01660b9b40fe411eae4f6fdf993082d4 | rate  | user       | 16       | item             | 30             | {"rating":2.0} | 2017-09-28 15:52:28 | UTC           | NULL | NULL | 2017-09-28 15:52:28 | UTC              || 01b0a512e1aa40bf823fd01ba7712741 | buy   | user       | 1        | item             | 54             | {}             | 2017-09-28 15:52:25 | UTC           | NULL | NULL | 2017-09-28 15:52:25 | UTC              |+----------------------------------+-------+------------+----------+------------------+----------------+----------------+---------------------+---------------+------+------+---------------------+------------------+10 rows in set (0.00 sec)



作者:安心远
链接:https://www.jianshu.com/p/6c76667bb38e


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消