Questions tagged «google-kubernetes-engine»

Google Kubernetes Engine是用于运行Docker容器的集群管理器和协调器。它可以将您的容器调度到群集中,并根据您定义的要求(例如CPU和内存)自动管理它们。它基于开源Kubernetes系统构建,使您可以灵活地利用本地,混合或公共云基础架构。它以前称为Google Container Engine。

3
我如何知道何时/是否/为什么要重启kubernetes集群中的容器?
我在Google容器引擎中有一个单节点kubernetes集群可以玩。 现在两次,我在其中托管的一个小型个人网站已经离线了几分钟。当我查看容器的日志时,我看到最近完成的正常启动顺序,因此我假设一个容器已死亡(或被终止?)并重新启动。 我如何找出这种情况的发生方式和原因? 每当容器意外启动/停止时,是否有办法获得警报?

4
gcloud docker-推送结果导致登录尝试失败,并显示404
我正在尝试将Docker映像推送到Google的容器注册表中,但始终收到有关Docker登录失败的错误。我跑 gcloud docker -- push gcr.io/<my-project-id>/test-image 我回来 ERROR: Docker CLI operation failed: Error response from daemon: login attempt to https://appengine.gcr.io/v2/ failed with status: 404 Not Found ERROR: (gcloud.docker) Docker login failed. 其他不通过docker工作的gcloud操作。例如,我可以通过创建集群gcloud container clusters create my-cluster。 我今天确实在和本地注册表一起玩,不确定是否可能有问题。 谢谢!

2
GKE中出站连接的稳定公共IP或IP范围
我使用Google Kubernetes引擎按需运行Pod。使用节点端口服务,每个Pod都公开暴露于Internet。 我正在GKE中寻找一种方法来获取出站连接的单个IP或IP范围,以将它们提供给第三方API以将其列入白名单。 当节点自动缩放或升级它们时,GKE节点IP是不可管理的。我需要一种方法来保持一致的出站IP。 我尝试使用一个简单的NAT网关到Kubernetes节点(使用此处的示例),尽管这会将出站连接路由到NAT网关,但由于它们在Pod(Nodeport服务)处掉线,因此会中断到Pod(Nodeport服务)的入站流量。 NAT网关。 是否可以将我提供给第三方的Google云区域的默认IP范围列入白名单(或) 如果GKE提供了一种从静态IP的预定列表中选择节点外部IP的方法(或) 是否有其他方法可以完成一个静态IP或一个IP范围,该范围代表从Pod发出的出站流量 我发现像类似的问题这样,但使用NAT时休息,他们并没有解决我的问题,因为豆荚应该是外部连接。

4
在Kubernetes部署规范中使用环境变量
我目前使用Kubernetes规范Deployment.yaml来部署服务。该规范包括对特定IP地址的逐字引用(标记<static-ip-address>如下): spec: type: LoadBalancer loadBalancerIP: <static-ip-address> 我担心将诸如密码或IP地址之类的信息推送到远程Git存储库中。我可以例如通过使用环境变量来避免这种情况,例如使用部署规范和实际部署大致如下: spec: type: LoadBalancer loadBalancerIP: ${SERVICE_ADDRESS} 和 export SERVICE_ADDRESS=<static-ip-address> kubectl create -f Deployment.yaml 显然,此特定语法尚不可用。但是这样的事情有可能吗? 我宁愿不要依赖单独的配置工具。秘密 S和ConfigMap小号似乎前途无量,但显然他们不能在适合这个目的的方式被消耗掉。如果我可以直接引用用它定义的静态IP地址,gcloud compute addresses create service-address那将是最佳选择。

2
如何在Google Kubernetes Engine中选择Kubernetes负载均衡器的外部IP地址
我正在使用Google Kubernetes Engine部署网络应用,并且希望通过负载均衡器访问它,而该负载是我作为Google Cloud Platform中同一项目的一部分而控制的现有静态IP地址的,已经指向该IP。 我用于广告连播的yaml文件是: apiVersion: v1 kind: Pod metadata: name: my-pod labels: app: my-app spec: containers: - name: my-container image: gcr.io/my-project/my-app:latest 我可以使用以下方法设置负载均衡器: apiVersion: v1 kind: Service metadata: name: my-load-balancer spec: ports: - port: 80 targetPort: 80 selector: app: my-app type: LoadBalancer 这提供了可在其上访问该应用程序的外部IP,但是我找不到任何将其配置为使用所需IP的方法。该服务的文件提到了spec.clusterIP设置,但这似乎并没有涉及到的外部IP。同样,一旦设置了负载平衡器,该服务的status.loadBalancer.ingress.ip字段便被设置为其外部IP地址,但这似乎不是可配置的设置。 或者,我尝试在Google Compute Engine控制台中手动创建转发规则,以将流量从我的静态IP地址引导到Kubernetes设置的目标池,但是当我尝试连接时,连接被拒绝。 有什么办法可以做-在选定的静态IP地址上在Google Kubernetes引擎上公开Kubernetes pod(或复制控制器)?


1
尽管后端服务正常,但Google Cloud http负载均衡器仍返回502
我已经配置了一个GCE http(s)负载均衡器,以将流量定向到2个后端:-默认后端-另一个具有单独的主机/路径规则的后端(<host>:/*) 两个后端都存在于同一实例组上-运行两个公开不同NodePort的kubernetes服务的容器集群。 实例组具有两个命名端口,每个公开的NodePort都一个。 尽管两个后端都报告运行状况良好,但是对第二后端的所有请求都返回502。 服务本身不是问题-如果我将服务切换到默认的第二后端,则可以正常工作。 注意:自首次发布以来,我已经对该说明进行了相当大的更新/简化,因为我可以用更简单的配置重现该问题。

2
Kubernetes-我可以避免使用GCE负载均衡器来降低成本吗?
我正在使用Gitlab-CI在GCE上部署Kubernetes集群。我想将成本降到最低-这是我当前的设置: 节点在3个f1-micro实例上运行 运行Traefik带有ServiceType的系统PodLoadBalancer 已配置通配符DNS 1个postgres 豆荚 1个ingress为Traefik配置的Web服务器Pod 我想减少部署成本。大部分成本都由GCE负载平衡器承担。有没有一种方法可以使用公共IP地址代替GCE上的负载均衡器?如果是这样,我可以利用分配给群集的IP地址(而不是保留静态IP)吗? 换句话说,是否有一种方法可以在不使用负载均衡器的情况下使用GCE将临时ip绑定到Kubernetes服务? 我还有其他可以改变的配置可以降低GCE的总体成本吗?

1
在GKE日志中检测Kubernetes OOMKilled事件
我想为OOMKilled事件设置检测,在检查Pod时如下所示: Name: pnovotnak-manhole-123456789-82l2h Namespace: test Node: test-cluster-cja8smaK-oQSR/10.x.x.x Start Time: Fri, 03 Feb 2017 14:34:57 -0800 Labels: pod-template-hash=123456789 run=pnovotnak-manhole Status: Running IP: 10.x.x.x Controllers: ReplicaSet/pnovotnak-manhole-123456789 Containers: pnovotnak-manhole: Container ID: docker://... Image: pnovotnak/it Image ID: docker://sha256:... Port: Limits: cpu: 2 memory: 3Gi Requests: cpu: 200m memory: 256Mi State: Running Started: Fri, 03 …

1
Google Cloud VPC子网连接
我们在VPC Network网络的子网subA内有一个Google管理的Kubernetes集群,然后在该VPC的一部分中还有一个子网SubB不同的区域。Kubernetes集群启用了VPC别名,因此服务范围和Pod范围实际上也是VPC的子网(相同的本地空间10.0.0.0/8)。 我们希望提供一个托管在subA上并且可由subB访问的kubernetes服务(带有内部负载均衡器)。我们已经设法通过防火墙规则使subA和subB上的实例彼此可达,但是这些实例仅针对网络(不是子网),服务帐户或标签,因此不能用于负载均衡器。 有什么线索吗?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.