慢慢 6 years ago
commit 30affcc0aa

@ -24,7 +24,7 @@ Offset Kafka 的存储文件都是按照 Offset . index 来命名用Offset
### 3.1.2 kafka应用场景 ### 3.1.2 kafka应用场景
- 日志收集:一个公司可以用 Kafka 可以收集各种服务的 Log 通过Kafka 以统一接口服务的方式开放给各种 Consumer ,例如 Hadoop 、Hbase 、Solr 等。 - 日志收集:一个公司可以用 Kafka 收集各种服务的 Log 通过Kafka 以统一接口服务的方式开放给各种 Consumer ,例如 Hadoop 、Hbase 、Solr 等。
- 消息系统:解耦和生产者和消费者、缓存消息等。 - 消息系统:解耦和生产者和消费者、缓存消息等。
- 用户活动跟踪Kafka 经常被用来记录 Web 用户或者 App 用户的各种活动,如浏览网页、搜索、点击等活动,这些活动信息被各个服务器发布到 Kafka 的Topic 中,然后订阅者通过订阅这些 Topic 来做实时的监控分析,或者装载到 Hadoop 、数据仓库中做离线分析和挖掘。 - 用户活动跟踪Kafka 经常被用来记录 Web 用户或者 App 用户的各种活动,如浏览网页、搜索、点击等活动,这些活动信息被各个服务器发布到 Kafka 的Topic 中,然后订阅者通过订阅这些 Topic 来做实时的监控分析,或者装载到 Hadoop 、数据仓库中做离线分析和挖掘。
- 运营指标Kafka 也经常用来记录运营监控数据。包括收集各种分布式应用的数据,生产各种操作的集中反馈,比如报警和报告。 - 运营指标Kafka 也经常用来记录运营监控数据。包括收集各种分布式应用的数据,生产各种操作的集中反馈,比如报警和报告。
@ -80,3 +80,5 @@ from kafka import KafkaConsumer
consumer = KafkaConsumer('jun', bootstrap_servers=['121.40.96.250:9092']) consumer = KafkaConsumer('jun', bootstrap_servers=['121.40.96.250:9092'])
``` ```

@ -0,0 +1,7 @@
# 第三章 流数据计算与分析
[comment]: <> (请在此添加实训简介,简单介绍一下实训的内容.以下是“基于Java语言的链表编程实训基础篇”实训的示例文)
结构化流Structed streaming中的关键思想是将实时数据流视为连续追加的表,每个触发(Triggers)间隔(例如,每`1`秒将新行附加到输入表经查询产生结果表并最终写入外部Sink。
![](https://www.educoder.net/api/attachments/375945)
Loading…
Cancel
Save