Redis Enterprise for Kubernetes 发行说明 6.2.10-34(2022 年 5 月)
支持 REBD 特定的升级策略、memcached 类型 REDB 和 OpenShift 的 RHEL8,以及功能改进和错误修复。
适用于 Kubernetes 的 Redis Enterprise |
---|
概述
Redis Enterprise K8s 6.2.10-34 支持 Redis Enterprise Software 版本 6.2.10,并包括功能改进和错误修复。
下面介绍了主要的新功能、错误修复和已知限制。
如果您是 OpenShift 客户并且还使用模块,请不要升级到此 6.2.10-34 版本。请改用 6.2.10-45 版本。
在 6.2.10-34 中,Redis 服务器映像的新 RHEL 8 基础映像发生了变化。由于两个作系统之间模块的二进制差异,当 RHEL 7 集群使用模块托管数据库时,您无法直接将 RHEL 7 集群更新到 RHEL 8。
如果您有其他问题,请联系支持人员。
图像
此版本包括以下容器映像:
- Redis 企业版:
redislabs/redis:6.2.10-107
或redislabs/redis:6.2.10-107.rhel8-openshift
- 作员:
redislabs/operator:6.2.10-34
- 服务索具:
redislabs/k8s-controller:6.2.10-34
或redislabs/services-manager:6.2.10-34
(在 Red Hat 注册表中)
新功能
- 支持 REDB 资源的数据库升级策略(主要/最新) (RED-71028)
- 支持 REDB 的 memcached 类型数据库 (RED-70284)(RED-75269)
- 将 RHEL8 基础镜像用于 OpenShift 部署 (RED-72374)
功能改进
- OpenShift 4.10 支持 (RED-73966)
- 允许在正在运行的容器上设置主机时区 (RED-56810)
- AKS 1.23 支持 (RED-73965)
- EKS 1.22 支持 (RED-73972)
修复的 bug
- 过时的 SCC YAML 文件 (RED-72026) (RED-73341)
- 准入容器启动失败 (RED-72081)
- 在创建配置映射时,准入容器因争用情况而重新启动 (RED-72268)
- 集群恢复期间的 REDB 状态报告不正确 (RED-72944)
- 无效的 REDB 规范并不总是被准入控制器拒绝 (RED-73145)
兼容性说明
下表显示了此版本发布时支持的发行版。有关当前支持的发行版列表,请参阅支持的 Kubernetes 发行版。
Kubernetes 版本 | 1.19 | 1.20 | 1.21 | 1.22 | 1.23 |
---|---|---|---|---|---|
社区 Kubernetes | 荒废的 | 荒废的 | 支持 | 支持 | 支持* |
亚马逊 EKS | 支持 | 支持 | 支持 | ||
Azure AKS | 支持 | 支持 | 支持* | ||
谷歌 GKE | 支持 | 支持 | 支持 | 支持 | |
牧场主 2.6 | 支持 | 支持 | 支持 | 支持 | |
OpenShift 版本 | 4.6 | 4.7 | 4.8 | 4.9 | 4.10 |
荒废的 | 荒废的 | 支持 | 支持 | 支持* | |
VMware TKGI 版本 | 1.10 | 1.11 | 1.12 | 1.13 | |
支持 | 支持 | 支持* |
* 最新版本中添加了支持
现在支持
- 现在支持 OpenShift 4.10
- 现在支持 kOps (Community Kubernetes) 1.23
- 现在支持 AKS 1.23
- 现在支持 EKS 1.22
荒废的
- OpenShift 4.6-4.7 已弃用
- kOps (Community Kubernetes) 1.18-1.20 已弃用
- GKE 1.19 已废弃
- Rancher 2.6 - K8s 1.18 已弃用
- AKS 1.20-1.21 已弃用
- EKS 1.18-1.19 已弃用
不再支持
- Rancher 版本 2.5(之前已弃用)不再受支持(SUSE 不支持)
- OpenShift 版本 3.11(以前已弃用)不再受支持。
已知限制
大型集群
在具有 9 个以上 REC 节点的集群上,在某些情况下,Kubernetes 升级可能会导致 Redis 集群无响应。6.4.2-5 版本中提供了修复。在升级 Kubernetes 集群之前,请将 Operator 版本升级到 6.4.2-5 或更高版本。(红色-93025)
-
警告使用模块的 OpenShift 客户无法使用 6.2.10-34 版本
警告:如果您是 OpenShift 客户并且还使用模块,请不要升级到此 6.2.10-34 版本。
在 6.2.10-34 中,Redis 服务器映像的新 RHEL 8 基础映像发生了变化。由于两个作系统之间模块的二进制差异,当 RHEL 7 集群使用模块托管数据库时,您无法直接将 RHEL 7 集群更新到 RHEL 8。
此消息将在修复计划和新步骤可用于解决此情况时更新。如果您有其他问题,请联系支持人员。
-
较长的集群名称会导致路由被拒绝 (RED-25871)
超过 20 个字符的集群名称将导致路由配置被拒绝,因为域名的主机部分将超过 63 个字符。解决方法是将集群名称限制为 20 个字符或更少。
-
更新无效后,不会报告群集 CR (REC) 错误 (RED-25542)
如果依次更新了两个或多个无效的 CR 资源,则不会报集群 CR 规格错误。
-
无法访问的集群的状态为 running (RED-32805)
当集群处于 unreachable 状态时,状态仍为
running
而不是作为错误报告。 -
故障时就绪探针不正确 (RED-39300)
STS Readiness 探测在运行时不会将节点标记为 “not ready”
rladmin status
节点故障时。 -
副本集上缺少角色 (RED-39002)
这
redis-enterprise-operator
角色缺少对副本集的权限。 -
内部 DNS 和 Kubernetes DNS 可能存在冲突 (RED-37462)
集群之间可能存在 DNS 冲突
mdns_server
和 K8s DNS。这仅影响集群节点内 Kubernetes DNS 名称的 DNS 解析。 -
5.4.10 对 5.4.6 产生负面影响 (RED-37233)
基于 Kubernetes 的 5.4.10 部署似乎会对共享 Kubernetes 集群的现有 5.4.6 部署产生负面影响。
-
报告节点 CPU 使用率而不是 Pod CPU 使用率 (RED-36884)
在 Kubernetes 中,我们报告的节点 CPU 使用率是托管 REC Pod 的 Kubernetes 工作节点的使用率。
-
在基于 OLM 的部署中,集群必须命名为 “rec” (RED-39825)
在 OLM 部署的 Operator 中,如果名称不是 “rec”,则集群部署将失败。通过 OLM 部署 Operator 时,安全上下文约束 (scc) 将绑定到特定的服务账户名称(即“rec”)。解决方法是将集群命名为 “rec”。
-
REC 集群无法在时钟不同步的 Kubernetes 集群上启动 (RED-47254)
当 REC 集群部署在时钟不同步的 Kubernetes 集群上时,REC 集群无法正常启动。解决方法是使用 NTP 同步底层 K8s 节点。
-
删除部署了 REC 的 OpenShift 项目可能会挂起 (RED-47192)
当 REC 集群部署在项目(命名空间)中并具有 REDB 资源时,必须先删除 REDB 资源,然后才能删除 REC。因此,在删除 REDB 资源之前,项目删除将挂起。解决方法是先删除 REDB 资源,然后再删除 REC。之后,您可以删除该项目。
-
REC extraLabel 不会应用于 K8s 版本 1.15 或更早版本上的 PVC (RED-51921)
在 K8s 1.15 或更早版本中,PVC 标签来自匹配选择器,而不是 PVC 模板。因此,这些版本不支持 PVC 标签。如果需要此功能,唯一的解决方法是将 K8s 集群升级到较新版本。
-
Hashicorp Vault 集成 - 不支持 Gesher (RED-55080)
目前没有解决方法。
-
REC 可能会在初始启动时报告错误状态 (RED-61707)
目前除了忽略这些错误外,没有其他解决方法。
-
在规范中使用十进制值时出现 PVC 大小问题 (RED-62132)
此问题的解决方法是确保对 PVC 大小使用整数值。
-
遵循旧版快速入门指南会导致由于无法识别的内存字段名称而导致创建 REDB 时出现问题 (RED-69515)
解决方法是使用在线提供的快速入门文档的较新(当前)修订版。
-
autoUpgrade
在以下情况下,设置为 true 可能会导致 BDB 意外升级redisUpgradePolicy
设置为 true (RED-72351)如果您的部署受到影响,请联系支持人员。
-
使用路由从外部访问集群时,在 OpenShift 上更新凭证的过程可能会有问题(RS 问题)(RED-73251)(RED-75329) 要解决此问题,请从 K8s 集群中访问 API。