查看原文
其他

携程分布式存储实践(直播回放 + PPT)

KubeSphere 社区 KubeSphere云原生 2023-02-28

讲师简介

张搏航,高级软件工程师。2016 年加入携程,目前就职于系统研发团队。主要负责分布式存储架构调优,性能优化和大数据相关运维工作。

分享内容简介

在海量数据时代,面向应用程序和用户的数据存储规模在逐渐扩大。数据量不断增长,也驱动着我们寻找更好的方法来满足用户需求、保护自身的数据。Ceph 在携程数据存储中发展中扮演了不可或缺的角色。

本次直播将分享携程近几年 Ceph 的发展历程,监控告警,相关实践,io_uring 使用测试,及混合云架构探索。

大纲回顾

Q & A

Q1:生产环境如果是 K8s,从数据安全和管理方便的方向推荐用什么存储方案比较好?(比如:Ceph 或者 CSI 插件对接对象存储)、生产环境使用 Ceph 是不是比较依赖有专业存储团队去维护?

A:块存储我们使用的是 RBD,文件存储我们现在使用的是 GlusterFS,也有在尝试开源版 JuiceFS+Ceph 对象存储。

Q2:RBD 是 thin-provision 的,只有实际写入的容量才会计入 Ceph 的已使用量。其供应的容量甚至可以超过整个 Ceph 集群的存储容量,对这个情况,是否有考虑并控制?还是仅关注总容量并扩容?

A:暂时只关注总使用容量来考虑扩容。

Q3:K8s Pod 挂上 Ceph RBD,如果 Pod 挂掉重启后在别的节点上还能挂上这个 RBD 么?

A:如果 Pod 挂掉之后,K8s 没有正确对 Rbd 从老 Node unmap 掉,会导致 Pod 调度到新 Node 时候无法正常启动,需要人工介入 unmap 或者设置 blacklist 后才能正常调度。

Q4:Ceph RBD 性能和本地 Disk 比较起来怎么样

A:本地磁盘性能会好,不涉及网络开销,多副本写入强一致性等问题。

Q5:在实际生产中有对不同的用户或模块做配额管理吗?

A:有对用户做容量限制。

往期直播收集的问题请查看问题收集文档[1]

PPT 下载

关注「KubeSphere 云原生」公众号,后台回复关键词 20211216 即可下载 PPT。

直播招募

您是否也想在社区分享您的云原生实践经验?

即可加入 KubeSphere 社区云原生直播计划,提交分享主题,将有 KubeSphere 周边礼品相送!

最重要的是您可以:

  • 提升自身软实力,如演讲能力、总结能力
  • 提高自身在云原生领域的知名度
  • 展现企业实力及优秀想法
  • 帮助推广您社区的开源项目

引用链接

[1]

问题收集文档: https://docs.qq.com/doc/DQ1VMUlhwVVFCY1J0


关于 KubeSphere

KubeSphere (https://kubesphere.io)是在 Kubernetes 之上构建的开源容器混合云,提供全栈的 IT 自动化运维的能力,简化企业的 DevOps 工作流。

KubeSphere 已被 Aqara 智能家居、爱立信、本来生活、东软、华云、新浪、三一重工、华夏银行、四川航空、国药集团、微众银行、杭州数跑科技、紫金保险、去哪儿网、中通、中国人民银行、中国银行、中国人保寿险、中国太平保险、中国移动、中国电信、天翼云、中移金科、Radore、ZaloPay 等海内外数千家企业采用。KubeSphere 提供了开发者友好的向导式操作界面和丰富的企业级功能,包括 Kubernetes 多云与多集群管理、DevOps (CI/CD)、应用生命周期管理、边缘计算、微服务治理 (Service Mesh)、多租户管理、可观测性、存储与网络管理、GPU support 等功能,帮助企业快速构建一个强大和功能丰富的容器云平台。

 ✨ GitHub:https://github.com/kubesphere
 💻 官网(中国站):https://kubesphere.com.cn
 👨‍💻‍ 微信群:请搜索添加群助手微信号 kubesphere

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存