首页 > 解决方案 > 无法查看从 terraform 资源创建的 EKS 集群

问题描述

我们正在使用 terraform 资源创建 EKS 集群:aws_eks_clusteraws_eks_node_group. 应用这些资源后,当我们使用 查询节点时kubectl,我们能够看到集群中具有所有 Auto Scaling 设置的节点。我们甚至可以kubeconfig在堡垒实例中获取该集群的文件。但我们无法从 EKS 服务下的 AWS 控制台查看此集群。这是预期的行为吗?下面是我们的代码:

resource "aws_eks_cluster" "eks_cluster" {
  name            = "${var.eks_cluster_name}"
  role_arn        = "${var.iam_role_master}"
  vpc_config {
    security_group_ids = ["${var.sg-eks-master}"]
    subnet_ids = ["${var.subnet_private1}", "${var.subnet_private2}"]
    endpoint_private_access= true
    endpoint_public_access = true
        public_access_cidrs = ["<ip_range>"]
  }
}

resource "aws_eks_node_group" "example" {
  cluster_name    = "${var.eks_cluster_name}"
  node_group_name = "ng-${var.eks_cluster_name}"
  node_role_arn   = "${var.iam_role_node}"
  subnet_ids      = ["${var.subnet_private1}", "${var.subnet_private2}"]
  ami_type = "${var.image_id}"
  instance_types = "${var.instance_type}"

  scaling_config {
    desired_size = 1
    max_size     = 4
    min_size     = 2
  }

标签: networkingkubernetesterraformterraform-provider-awsamazon-eks

解决方案


原来,这只是一个权限问题。用户没有对 EKS 集群的查看访问权限。但问题是控制台中没有显示警告/错误消息,说明这是一个角色问题。只有当我们检查用户的角色时,我们才知道这一点。


推荐阅读