如何保证详情页静态化后的高并发性能?
9.9k
等12人参与

描述:
课程中,我们对详情页进行了优化,一开始我们是通过html异步加载,直接从数据库中读取详情并且渲染的,很明显,这样做不好,所以咱们通过freemarker生成了html静态页面,可以直接展示,更加加速了用户的访问。但是会有一个问题,页面中包含了文章的分类,如果分类改了,那么就要重新生成html,假设有1亿个html页面,那么重新渲染可能需要好几天甚至大半个月,你能思考一下如何做一些架构上的优化设计吗?

点拨:
通过ssi技术,可以制造网页内嵌,把html切割为多个小的局部html,当分类发生更改以后,那么只需要修改局部的页面即可。如此一来,更改的页面就更少了。

实现思路:
可以参考手记:https://www.imooc.com/article/300244

扩展:
生成html可以再额外构建一个详情微服务,专门用于接收mq的监听,一旦文章发送变懂,可以通过该服务去生成对应的html。

我的作业
去发布

登录后即可发布作业,立即

全部作业
  1. 消息

kafka更好的替换传统的消息系统,消息系统被用于各种场景,与大多数消息系统比较kafka有更好的吞吐量内置分区,副本和故障转移,这有利于处理大规模的消息。

根据我们的经验消息往往用于较低的吞吐量,但需要低的端到端延迟并需要提供强大的耐用性的保证。在这一领域的kafka比得上传统的消息系统,如ActiveMQ或RabbitMQ等。

  1. 网站活动追踪

kafka原本的使用场景是用户的活动追踪,网站的活动(网页游览,搜索或其他用户的操作信息)发布到不同的话题中心,这些消息可实时处理实时监测也可加载到Hadoop或离线处理数据仓库。

  1. 指标

kafka也常常用于监测数据,分布式应用程序生成的统计数据集中聚合。

  1. 日志聚合

许多人使用Kafka作为日志聚合解决方案的替代品。日志聚合通常从服务器中收集物理日志文件,并将它们放在中央位置(可能是文件服务器或HDFS)进行处理。Kafka抽象出文件的细节,并将日志或事件数据更清晰地抽象为消息流。这允许更低延迟的处理并更容易支持多个数据源和分布式数据消费。

  1. 流处理

kafka中消息处理一般包含多个阶段。其中原始输入数据是从kafka主题消费的,然后汇总,丰富,或者以其他的方式处理转化为新主题,例如,一个推荐新闻文章,文章内容可能从“articles”主题获取;然后进一步处理内容,得到一个处理后的新内容,最后推荐给用户。这种处理是基于单个主题的实时数据流。从0.10.0.0开始,轻量,但功能强大的流处理,就可以这样进行数据处理了。

除了Kafka Streams还有ApacheStorm和Apache Samza可选择。

  1. 事件采集

事件采集是一种应用程序的设计风格,其中状态的变化根据时间的顺序记录下来,kafka支持这种非常大的存储日志数据的场景。

  1. 提交日志

kafka可以作为一种分布式的外部日志,可帮助节点之间复制数据,并作为失败的节点来恢复数据重新同步,kafka的日志压缩功能很好的支持这种用法,这种用法类似于Apacha BookKeeper项目。

0
评论
提交于  2023-10-30 08:35:13

登录后即可查看更多作业,立即

微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号