Questions tagged «google-compute-engine»

Google Compute Engine在云端提供了可扩展且灵活的虚拟机计算功能。

2
由于公共密钥不可用,因此无法验证以下签名:NO_PUBKEY 6A030B21BA07F4FB
我的环境: # uname -a Linux app11 4.9.0-5-amd64 #1 SMP Debian 4.9.65-3+deb9u2 (2018-01-04) x86_64 GNU/Linux # # cat /etc/*release PRETTY_NAME="Debian GNU/Linux 9 (stretch)" NAME="Debian GNU/Linux" VERSION_ID="9" VERSION="9 (stretch)" ID=debian HOME_URL="https://www.debian.org/" SUPPORT_URL="https://www.debian.org/support" BUG_REPORT_URL="https://bugs.debian.org/" # 在尝试运行时apt-get update,出现很多错误: # apt-get update Ign:1 http://deb.debian.org/debian stretch InRelease Hit:2 http://security.debian.org stretch/updates InRelease Hit:3 http://deb.debian.org/debian stretch-updates InRelease Hit:4 …

5
在没有负载均衡器的情况下公开Goog​​le Container Engine上的端口80和443
目前,我正在从事一个小型的业余项目,一旦准备好,我将使其开源。此服务正在Google Container Engine上运行。我选择GCE是为了避免配置麻烦,成本负担得起并学习新东西。 我的Pod运行正常,我创建了一个服务,其类型LoadBalancer可以在端口80和443上公开该服务。这完美地工作了。 但是,我发现对于每种LoadBalancer服务,都会创建一个新的Google Compute Engine负载均衡器。这个负载均衡器非常昂贵,对于单个实例上的一个业余项目而言,确实已经完成了。 为了降低成本,我正在寻找一种无需负载均衡器即可暴露端口的方法。 到目前为止,我已经尝试过: 部署NodePort服务。不幸的是,不允许将端口号暴露在30000以下。 部署一个Ingress,但这也会创建一个负载平衡器。 尝试禁用HttpLoadBalancing(https://cloud.google.com/container-engine/reference/rest/v1/projects.zones.clusters#HttpLoadBalancing),但它仍会创建负载平衡器。 有没有办法在没有负载均衡器的情况下为Google Container Engine上的单个实例公开端口80和443?

6
无法SSH到GCE:“权限被拒绝(公钥)”
我通过Google Compute Engine中的Bitnami创建了一个VM。以前,我能够通过Bitnami Web界面进行ssh。我试图通过Mac上的终端ssh进行操作,但始终收到Permission denied (publickey)错误消息。然后,我删除了服务器和Mac上的所有密钥,并从bitnami下载了pem文件,并使用了-i选项进行连接,但问题仍然存在。 ssh -i bitnami-gce.pem xxx@1xx.1xx.5x.1xx -v 完整的调试信息: OpenSSH_6.2p2, OSSLShim 0.9.8r 8 Dec 2011 debug1: Reading configuration data /etc/ssh_config debug1: /etc/ssh_config line 20: Applying options for * debug1: Connecting to 1xx.1xx.5x.1xx [1xx.1xx.5x.1xx] port 22. debug1: Connection established. debug1: identity file bitnami-gce.pem type -1 debug1: identity file …

5
Google Cloud超出IN_USE_ADDRESSES配额。
我花了过去3个小时的时间来寻找发布Google Compute Engine API使用中IP地址的方法,因为我已经使用了8/8。我用谷歌搜索,阅读了手册,但是没有办法在控制台的任何地方发布它。我正在尝试设置Rails应用。编译时遇到了错误,因为我没有为DB提供正确的套接字(这在这里并不重要)。当卡住时,我在终端中按了Ctrl + C来释放,我认为这是问题所在。-我是Google Cloud的新手,因此只能假设。 错误信息: ERROR: (gcloud.app.deploy) Error Response: [400] The following quotas were exceeded: IN_USE_ADDRESSES (quota: 8, used: 8 + needed: 2). https://appengine.googleapis.com/v1/apps/workepics/services/default/versions?alt=json 在控制台中可以看到以下内容: 当我在计算引擎上的控制台中单击时,只会询问我是否要创建一个。没有其他选择。 任何帮助,将不胜感激!谢谢。

2
在Google Compute Engine上使用HTTP(S)负载平衡器时,将所有HTTP流量重定向到HTTPS
我在Google Compute Engine上使用2个全局转发规则(HTTP和HTTPS)设置了HTTP / HTTPS负载平衡。每个规则都指向具有HTTP协议的后端服务。 我希望所有请求http://*都去https://*。 当负载平衡器通过HTTP与后端服务通信时,我认为我无法在后端服务上获得nginx来发回a 301。 我已经尝试了12项关于Google Computing的细微调整,但最终都以google computing返回a为结尾502。 我敢肯定有人设置过这个。朝正确方向的任何提示或指示,将不胜感激。

2
如何在Google Kubernetes Engine中选择Kubernetes负载均衡器的外部IP地址
我正在使用Google Kubernetes Engine部署网络应用,并且希望通过负载均衡器访问它,而该负载是我作为Google Cloud Platform中同一项目的一部分而控制的现有静态IP地址的,已经指向该IP。 我用于广告连播的yaml文件是: apiVersion: v1 kind: Pod metadata: name: my-pod labels: app: my-app spec: containers: - name: my-container image: gcr.io/my-project/my-app:latest 我可以使用以下方法设置负载均衡器: apiVersion: v1 kind: Service metadata: name: my-load-balancer spec: ports: - port: 80 targetPort: 80 selector: app: my-app type: LoadBalancer 这提供了可在其上访问该应用程序的外部IP,但是我找不到任何将其配置为使用所需IP的方法。该服务的文件提到了spec.clusterIP设置,但这似乎并没有涉及到的外部IP。同样,一旦设置了负载平衡器,该服务的status.loadBalancer.ingress.ip字段便被设置为其外部IP地址,但这似乎不是可配置的设置。 或者,我尝试在Google Compute Engine控制台中手动创建转发规则,以将流量从我的静态IP地址引导到Kubernetes设置的目标池,但是当我尝试连接时,连接被拒绝。 有什么办法可以做-在选定的静态IP地址上在Google Kubernetes引擎上公开Kubernetes pod(或复制控制器)?

2
为什么Google为了安全起见建议从GCE删除SSH密钥?
以下对Google文档的引用不再适用。 Google建议从GCE实例中删除SSH密钥,以保护SSH。这对我来说毫无意义。那里的钥匙很安全,对吗?当我取出钥匙时,SSHD停止工作。我可能想念他们的意思。有人可以解释一下这是什么意思吗? 删除SSH主机密钥 请勿在您的实例中使用ssh主机密钥。如下删除它们: rm /etc/ssh/ssh_host_key rm /etc/ssh/ssh_host_rsa_key* rm /etc/ssh/ssh_host_dsa_key* rm /etc/ssh/ssh_host_ecdsa_key*

2
df -h仅显示10GB,但我已为GCE实例分配了500GB磁盘
在尝试编译gcc时,我一直用尽磁盘空间,并且继续创建越来越大的磁盘,经过5个小时的编译,它耗尽了磁盘空间。我现在已经调整了磁盘大小4次,现在使用500GB磁盘第四次重新启动了编译步骤。 当我跑去df -h查看使用了多少空间时,它只有9.7GB,但这被认为是100%。 我以为可能还有另一个磁盘,但是我只看到sda它的分区 ls /dev/sd* /dev/sda /dev/sda1 那么我的磁盘实际上是500GB大小,df只是报告错误(在这种情况下,编译gcc占用了整个500GB),还是Google Cloud的仪表板报告了错误,df报告了正确的内容,而编译gcc却没有占用500GB的空间? 无论哪种方式,除非我应该做一些利用500GB的事情(顺便说一句是违反直觉的),否则我猜这是一个错误吗? (我在发布之前进行了搜索,但只看到了与AWS相关的问题) 更新-lsblk对此进行了解释: lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 500G 0 disk └─sda1 8:1 0 10G 0 part /

8
带有OpenVPN的Google Compute Engine上的VPN服务器
我正在尝试将Google Compute Engine服务器用作我所有流量的VPN服务器(我住在俄罗斯,我们在这里存在一些审查问题)。 在GCE上有关于VPN的迷你教程,但它是关于GCE内的两台服务器之间的网络,而不是与OpenVPN之间的网络。 我已经完成了另一篇教程的所有步骤,关于在Debian上使用OpenVPN设置VPN,我可以从客户端连接到VPN,但是后来我无法打开连接(甚至无法ping google)。在服务器上,我可以像往常一样ping和下载所有内容。 我在Linode上具有相同设置的VPN,并且工作正常。因此,问题出在GCE网络路由或防火墙规则中。 我尝试了很多变体,但没有任何效果。请查看设置,并告诉我应该更改什么。 //删除了配置行,因为问题已解决//

1
尽管后端服务正常,但Google Cloud http负载均衡器仍返回502
我已经配置了一个GCE http(s)负载均衡器,以将流量定向到2个后端:-默认后端-另一个具有单独的主机/路径规则的后端(<host>:/*) 两个后端都存在于同一实例组上-运行两个公开不同NodePort的kubernetes服务的容器集群。 实例组具有两个命名端口,每个公开的NodePort都一个。 尽管两个后端都报告运行状况良好,但是对第二后端的所有请求都返回502。 服务本身不是问题-如果我将服务切换到默认的第二后端,则可以正常工作。 注意:自首次发布以来,我已经对该说明进行了相当大的更新/简化,因为我可以用更简单的配置重现该问题。

3
阻止中国连接到我的Google Compute Engine服务器
我的公司在北美托管了一个Google Compute Engine服务器。我们有太多的中国IP地址向端口11发送请求,以至于我们花了钱进入该端口。我们的防火墙已经阻止了与中国的所有连接,因为它们无法访问我们的应用程序。 有没有一种方法可以完全忽略这些连接,或者以一种不会占用带宽的方式将其阻塞?

2
Kubernetes-我可以避免使用GCE负载均衡器来降低成本吗?
我正在使用Gitlab-CI在GCE上部署Kubernetes集群。我想将成本降到最低-这是我当前的设置: 节点在3个f1-micro实例上运行 运行Traefik带有ServiceType的系统PodLoadBalancer 已配置通配符DNS 1个postgres 豆荚 1个ingress为Traefik配置的Web服务器Pod 我想减少部署成本。大部分成本都由GCE负载平衡器承担。有没有一种方法可以使用公共IP地址代替GCE上的负载均衡器?如果是这样,我可以利用分配给群集的IP地址(而不是保留静态IP)吗? 换句话说,是否有一种方法可以在不使用负载均衡器的情况下使用GCE将临时ip绑定到Kubernetes服务? 我还有其他可以改变的配置可以降低GCE的总体成本吗?

2
文件系统增长后,设备上没有剩余空间
我正在Google Compute Cloud上使用VM。我将磁盘从10G增加到200G。 我在这里遵循了确切的步骤:https : //cloud.google.com/compute/docs/disks#repartitionrootpd 总结一下: 我运行fdisk,删除了唯一的分区,创建了一个完整大小的新分区,相同的开始/新的结束,相同的设备ID 我重启了实例 我使用sudo xfs_growfs /(我正在运行CentOS 7)调整文件系统的大小 之后,我untar在/opt子目录中放置了一个3.5G档案,几分钟后,该档案以结尾: Cannot mkdir: No space left on device 我可以检查一下这里的空间,而且(至少对我来说)似乎到处都可以使用 # df -h Filesystem Size Used Avail Use% Mounted on /dev/sda1 200G 13G 188G 7% / devtmpfs 1.9G 0 1.9G 0% /dev tmpfs 1.9G 0 1.9G 0% /dev/shm …

2
如何在不重启服务器的情况下添加新的永久磁盘?
我在GCP上有一个正在运行的实例,想在其中添加另一个持久磁盘。但是它不会出现。 这是n1-standard-1具有10 GB存储空间(名为s03)的实例。我创建了另一个存储disk-1并将其装入。然后我创建了disk-2。 可悲的是新的不会出现在这里ls /dev/disk/by-id的文档中提到的位置。 我重新启动系统并检查了日志,但是找不到任何问题,为什么disk-2不会出现。有任何想法吗?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.