概述
最近Flink母公司Data Artisans发布了一篇博客关于一个新的组件Streaming Ledger,给出了流数据的事务解决方案(就是常说的数据库的事务,满足ACID,隔离级别为Serializable)。
使用姿势
举例使用经典的转账和存款问题
它是基于Flink的,关于Flink任务初始化的一些内容就不放在这里了
首先创建StreamingLedger。
// start building the transactional streams StreamingLedger tradeLedger = StreamingLedger.create("simple trade example");
第二定义所需要用到的状态和相应的KV类型,这里分别是账户和账单明细。
// define transactors on states tradeLedger.usingStream(deposits, "deposits") .apply(new DepositHandler()) .on(accounts, DepositEvent::getAccountId, "account", READ_WRITE) .on(books, DepositEvent::getBookEntryId, "asset", READ_WRITE);
第三步是分别将输入流,具体的事务操作,操作的状态、从事件中获取key的方法、别名(会在事务操作,即此处的TxnHandler中体现)、和权限分别注入StreamLedger并输出为一个sideOutput。
// produce transactions stream DataStream<TransactionEvent> transfers = env.addSource(new TransactionsGenerator(1)); OutputTag<TransactionResult> transactionResults = tradeLedger.usingStream(transfers, "transactions") .apply(new TxnHandler()) .on(accounts, TransactionEvent::getSourceAccountId, "source-account", READ_WRITE) .on(accounts, TransactionEvent::getTargetAccountId, "target-account", READ_WRITE) .on(books, TransactionEvent::getSourceBookEntryId, "source-asset", READ_WRITE) .on(books, TransactionEvent::getTargetBookEntryId, "target-asset", READ_WRITE) .output();
第四步是根据sideOuput的OutputTag输出结果,到这里,除了TxnHandler需要去实现以外,主干逻辑已经完成了。
// compute the resulting streams. ResultStreams resultsStreams = tradeLedger.resultStreams(); // output to the console resultsStreams.getResultStream(transactionResults).print();
最后就是实现TxnHandler, 具体的转账和写入明细的逻辑都在这里。值得注意的是状态的获取依赖于上一步中在StreamLedger注入的别名,更新完状态之后再输出。
private static final class TxnHandler extends TransactionProcessFunction<TransactionEvent, TransactionResult> { private static final long serialVersionUID = 1; @ProcessTransaction public void process( final TransactionEvent txn, final Context<TransactionResult> ctx, final @State("source-account") StateAccess<Long> sourceAccount, final @State("target-account") StateAccess<Long> targetAccount, final @State("source-asset") StateAccess<Long> sourceAsset, final @State("target-asset") StateAccess<Long> targetAsset) { final long sourceAccountBalance = sourceAccount.readOr(ZERO); final long sourceAssetValue = sourceAsset.readOr(ZERO); final long targetAccountBalance = targetAccount.readOr(ZERO); final long targetAssetValue = targetAsset.readOr(ZERO); // check the preconditions if (sourceAccountBalance > txn.getMinAccountBalance() && sourceAccountBalance > txn.getAccountTransfer() && sourceAssetValue > txn.getBookEntryTransfer()) { // compute the new balances final long newSourceBalance = sourceAccountBalance - txn.getAccountTransfer(); final long newTargetBalance = targetAccountBalance + txn.getAccountTransfer(); final long newSourceAssets = sourceAssetValue - txn.getBookEntryTransfer(); final long newTargetAssets = targetAssetValue + txn.getBookEntryTransfer(); // write back the updated values sourceAccount.write(newSourceBalance); targetAccount.write(newTargetBalance); sourceAsset.write(newSourceAssets); targetAsset.write(newTargetAssets); // emit result event with updated balances and flag to mark transaction as processed ctx.emit(new TransactionResult(txn, true, newSourceBalance, newTargetBalance)); } else { // emit result with unchanged balances and a flag to mark transaction as rejected ctx.emit(new TransactionResult(txn, false, sourceAccountBalance, targetAccountBalance)); } } }
原理
其实我的第一想法是,卧槽好牛逼,这得涉及到分布式事务。把repo clone下来之后发现包含例子只有2000多行代码,一下子震惊了。但是实际的实现还是比较简单地,当然也肯定会带来一些问题。
实际上上面这些API会转换为一个source,一个sink,两个map和一个包含了SerialTransactor(ProcessFunction的实现)的算子。
在这边展示几行代码应该就能明白是如何做到的。关键在于forceNonParallel,这就让所有事情都变得明了了,事实上就是把状态全部都托管到一个并行度为1的算子上,处理的时候也是串行的,这里我才反应过来关键在于隔离级别是Serializable。这里带来的问题就是所有状态都保存在一个节点,并且不能支持水平扩展,所能支撑的吞吐量也不能通过加机器来提升。
SingleOutputStreamOperator<Void> resultStream = input .process(new SerialTransactor(specs(streamLedgerSpecs), sideOutputTags)) .name(serialTransactorName) .uid(serialTransactorName + "___SERIAL_TX") .forceNonParallel() .returns(Void.class);
感想
其实看到这个功能的第一感觉是很牛逼,但是仔细看过了它的实现觉得真正应用上可能会有不少问题。因为对于最重要的处理事务的那个算子来说,本质上它并不是Scalable的,没有办法横向扩展。不过从功能上来说,确实引出了一个新的发展方向,希望以后还能看到有更优的解决方案,比如针对另外两种隔离级别Read Committed和Repeatable read。
作者:铛铛铛clark
链接:https://www.jianshu.com/p/f29d5a865f6c
共同学习,写下你的评论
评论加载中...
作者其他优质文章