为了账号安全,请及时绑定邮箱和手机立即绑定

关于流数据上的事务操作

标签:
大数据

概述

最近Flink母公司Data Artisans发布了一篇博客关于一个新的组件Streaming Ledger,给出了流数据的事务解决方案(就是常说的数据库的事务,满足ACID,隔离级别为Serializable)。

使用姿势

  • 举例使用经典的转账和存款问题

    • 它是基于Flink的,关于Flink任务初始化的一些内容就不放在这里了

  • 首先创建StreamingLedger。

        // start building the transactional streams
        StreamingLedger tradeLedger = StreamingLedger.create("simple trade example");
  • 第二定义所需要用到的状态和相应的KV类型,这里分别是账户和账单明细。

        // define transactors on states
        tradeLedger.usingStream(deposits, "deposits")
                .apply(new DepositHandler())
                .on(accounts, DepositEvent::getAccountId, "account", READ_WRITE)
                .on(books, DepositEvent::getBookEntryId, "asset", READ_WRITE);
  • 第三步是分别将输入流,具体的事务操作,操作的状态、从事件中获取key的方法、别名(会在事务操作,即此处的TxnHandler中体现)、和权限分别注入StreamLedger并输出为一个sideOutput。

        // produce transactions stream
        DataStream<TransactionEvent> transfers = env.addSource(new TransactionsGenerator(1));

        OutputTag<TransactionResult> transactionResults = tradeLedger.usingStream(transfers, "transactions")
                .apply(new TxnHandler())
                .on(accounts, TransactionEvent::getSourceAccountId, "source-account", READ_WRITE)
                .on(accounts, TransactionEvent::getTargetAccountId, "target-account", READ_WRITE)
                .on(books, TransactionEvent::getSourceBookEntryId, "source-asset", READ_WRITE)
                .on(books, TransactionEvent::getTargetBookEntryId, "target-asset", READ_WRITE)
                .output();
  • 第四步是根据sideOuput的OutputTag输出结果,到这里,除了TxnHandler需要去实现以外,主干逻辑已经完成了。

        //  compute the resulting streams.
        ResultStreams resultsStreams = tradeLedger.resultStreams();        // output to the console
        resultsStreams.getResultStream(transactionResults).print();
  • 最后就是实现TxnHandler, 具体的转账和写入明细的逻辑都在这里。值得注意的是状态的获取依赖于上一步中在StreamLedger注入的别名,更新完状态之后再输出。

    private static final class TxnHandler extends TransactionProcessFunction<TransactionEvent, TransactionResult> {        private static final long serialVersionUID = 1;        @ProcessTransaction
        public void process(                final TransactionEvent txn,                final Context<TransactionResult> ctx,                final @State("source-account") StateAccess<Long> sourceAccount,                final @State("target-account") StateAccess<Long> targetAccount,                final @State("source-asset") StateAccess<Long> sourceAsset,                final @State("target-asset") StateAccess<Long> targetAsset) {            final long sourceAccountBalance = sourceAccount.readOr(ZERO);            final long sourceAssetValue = sourceAsset.readOr(ZERO);            final long targetAccountBalance = targetAccount.readOr(ZERO);            final long targetAssetValue = targetAsset.readOr(ZERO);            // check the preconditions
            if (sourceAccountBalance > txn.getMinAccountBalance()
                    && sourceAccountBalance > txn.getAccountTransfer()
                    && sourceAssetValue > txn.getBookEntryTransfer()) {                // compute the new balances
                final long newSourceBalance = sourceAccountBalance - txn.getAccountTransfer();                final long newTargetBalance = targetAccountBalance + txn.getAccountTransfer();                final long newSourceAssets = sourceAssetValue - txn.getBookEntryTransfer();                final long newTargetAssets = targetAssetValue + txn.getBookEntryTransfer();                // write back the updated values
                sourceAccount.write(newSourceBalance);
                targetAccount.write(newTargetBalance);
                sourceAsset.write(newSourceAssets);
                targetAsset.write(newTargetAssets);                // emit result event with updated balances and flag to mark transaction as processed
                ctx.emit(new TransactionResult(txn, true, newSourceBalance, newTargetBalance));
            }            else {                // emit result with unchanged balances and a flag to mark transaction as rejected
                ctx.emit(new TransactionResult(txn, false, sourceAccountBalance, targetAccountBalance));
            }
        }
    }

原理

  • 其实我的第一想法是,卧槽好牛逼,这得涉及到分布式事务。把repo clone下来之后发现包含例子只有2000多行代码,一下子震惊了。但是实际的实现还是比较简单地,当然也肯定会带来一些问题。

  • 实际上上面这些API会转换为一个source,一个sink,两个map和一个包含了SerialTransactor(ProcessFunction的实现)的算子。

  • 在这边展示几行代码应该就能明白是如何做到的。关键在于forceNonParallel,这就让所有事情都变得明了了,事实上就是把状态全部都托管到一个并行度为1的算子上,处理的时候也是串行的,这里我才反应过来关键在于隔离级别是Serializable。这里带来的问题就是所有状态都保存在一个节点,并且不能支持水平扩展,所能支撑的吞吐量也不能通过加机器来提升。

        SingleOutputStreamOperator<Void> resultStream = input
                .process(new SerialTransactor(specs(streamLedgerSpecs), sideOutputTags))
                .name(serialTransactorName)
                .uid(serialTransactorName + "___SERIAL_TX")
                .forceNonParallel()
                .returns(Void.class);

感想

其实看到这个功能的第一感觉是很牛逼,但是仔细看过了它的实现觉得真正应用上可能会有不少问题。因为对于最重要的处理事务的那个算子来说,本质上它并不是Scalable的,没有办法横向扩展。不过从功能上来说,确实引出了一个新的发展方向,希望以后还能看到有更优的解决方案,比如针对另外两种隔离级别Read Committed和Repeatable read。



作者:铛铛铛clark
链接:https://www.jianshu.com/p/f29d5a865f6c


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消