flink一般会用在哪里: 实时etl, 实时数仓, 实时报告分析, 监控, 推荐
我们将这些场景抽象出来,能看到我们的flink在里面做了一个什么作用:
是的, 很简单: 读取一个或多个输入源的数据, 然后经过一系列运算, 讲结果输出到其他系统上, 或者触发某些操作.
更抽象来看, 这个程序的目的就是 输入 -> 计算 -> 输出 (给图)。
是的简单到可能有些蠢的道理,而这也是所有程序的根本意义。
而flink存在的意义从宏观上来讲就是用来解决这个 输入 -> 计算 -> 输出 3阶段的过程.
那么从微观上来看 flink 又是为了解决哪些具体问题呢.
从 spark 来看, 在 hadoop 生态环境中, 计算引擎主要处理的是: 大量, 相似 的结构化数据. 然后对其 做集合处理计算.
https://zh.wikipedia.org/wiki/%E8%B3%87%E8%A8%8A%E5%93%B2%E5%AD%B8
Scala 在大数据处理方面有何优势? - 紫杉的回答 - 知乎
https://www.zhihu.com/question/27630156/answer/37488883
道与道 - 张汉东的文章 - 知乎
https://zhuanlan.zhihu.com/p/74256069