2
3
2970
5
0
无论是PySpark程序、还是Scala 编写的Spark程序,对于运行中的日志写入与查看的现状都是类似的,大体有两点痛点: 1.特别是一直在线...
目标 1.实现在流式数据处理时,做到At-Least-Once的能力,即保证数据不丢失,保证每条数据“至少被计算1次”。 2.实现Streami...
背景 从毕业到现在大概一年时间,主要从事后台开发工作,工作过程中也因为业务需要,逐渐接触了一些大数据组件,如HDFS、MapReduce、Spa...