您好,登录后才能下订单哦!
本篇内容介绍了“Storm面试题案例分析”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
1、需求分析
平台在活动促销日(例如双 11)要求实时展示当日的一些销售信息我们从三个维度去统计计算:
平台运维角度统计指标: 平台总销售额、平台下单人数、平台商品销售数量。
商品销售角度统计指标: 每个商品总销售额、每个商品购买人数、每个商品销售数量。
店铺销售角度统计指标: 每个店铺总销售额、每个店铺购买人数、每个店铺销售数量。
2、确定数据源
数据源:订单系统与支付系统产生的数据。
3、确定采集方案
订单系统和支付系统产生的数据 通过 ActiveMQ 到 kafka 中,Storm 集成kafka 获取数据。(注:为什么用 ActiveMQ?一方面,电商业务系统当中需要用到事务支持,只能用比较严谨的 jms 系统来实现,所以考虑到用 ActiveMQ。另一方面,kafka 直接读取数据库,会影响数据库速度。所以订单系统的数据通过 ActiveMQ 这个中间件来落地到数据库,kafka从ActiveMQ 中间件中取数据,就可以避免直接读数据库的问题。)
4、确定存储
我们将 Storm 处理后的数据,通过 Redis 来累加计数并存储在 Redis 中。
5、数据计算
编写 Storm 代码:Storm 与 kafka 整合来获取到数据,将每一条数据信息,利用 Redis 中 incrBy 这个命令来累加计数并存储在 Redis 中。
6、展现
可以写一个定时器,定时的去 Redis 中获取结果数据,展示到 web 界面上。
7、storm 日志监控告警系统
8、需求分析
实现项目中日志监控的功能,需要做到日志监控实时告警,例如系统中出现任何异常,触发任何的告警规则,都可以实时通过短信或者邮件告知相关系统负责人。
9、确定数据源
每个业务系统(如: 订单系统,商品管理系统,用户系统)产生的日志信息。
10、确定采集方案
将日志数据 通过 flume 采集到 kafka 中,Storm 集成 kafka 获取数据。
11、确定存储
将触发告警规则的数据,存储在MySQL 数据库中。
12、数据计算
·通过自定义flume 拦截器,给不同系统产生的日志数据前加上一个appId 来做唯一标识(不同系统对应的告警规则和负责人不同,所以这里要加一个唯一标识方便我们查找对应的规则和负责人)。
·Storm 代码编写步骤:
(1)、获取 kafka 中的数据。
(2)、设置定时器,定时读取在 MySQL 数据库中的告警规则(数据库中的告警规则我们可以随时去修改,所以要采用定时器去读取,保证拿到是最新的规则)。
(3)、将获取到的数据,与告警规则进行匹配,得到匹配成功的告警数据信息。
(4)、将告警信息 以邮件,或者短信 方式发送给对应的负责人(对应人的信息,从 MySQL 数据库中获取)。
(5)、最后将警告信息存储到我们的 MySQL 数据库中(方便以后查询异常记录)。
“Storm面试题案例分析”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。