Questions tagged «openstack»

4
Vagrant,Docker,Chef和OpenStack(或类似产品)之间的关系?
我是一名Web开发人员,但我对一些管理任务也很感兴趣。因此,从纯管理到开发人员的新转变对我来说很方便。 无论如何,我有一些问题需要解决。也许没有,所以我想寻求帮助以进行澄清。 基本上,我想介绍的是四种类型的软件(据我了解)。确切的产品无关紧要,您可以放置​​任何类似的软件作为替代: 流浪汉:据我了解,是要自动创建和管理VM:设置,启动和停止它们。可以使用本地VM或远程(例如在云平台上)完成此操作。 Docker:基于一些Linux内核概念的“轻量级VM”,可用于独立运行进程,例如在共享Web托管环境中。 Chef:一种用于设置和配置操作系统(例如在VM内部)的工具。 OpenStack:一种工具,可让您构建自己的私有云,因此可与AWS之类的东西相媲美。 问题1:我的解释正确吗,还是我对其中某些(或全部)消费有误? 问题2:如何混合所有这些工具?那有意义吗? 根据我的想象和理解,您可以 使用OpenStack构建自己的云, 使用Vagrant来管理在云中运行的VM, 使用Chef设置这些VM 最后使用Docker在VM内部运行进程。 这个对吗?如果是这样,您能给我建议如何开始使用所有这些功能吗(同时很多,而且我还不知道从哪里开始)?

2
如何设置缓存网络共享的NFS服务器?
用户数据存储在两个相当大的(> 1 PB)OpenStack Swift存储集群中。让他们成为集A和集B。 此外,还有一些PoP需要与该数据进行交互。这些PoP中的服务器实际上是无盘的,这意味着没有用户数据存储在它们上或从未下载到它们。PoP点可分为一般世界地区(如北美,南非,中欧等)。 一些PoP距离任何集群的Swift端点都相距很远,从而导致了不希望的延迟。为了减轻这种情况,我想在每个区域中设置一个缓存网关服务器,该服务器将r / w请求缓存到最近的集群。 当前,任何PoP中的客户端都通过永久安装的swift虚拟文件系统(该FUSE模块将Swift Object Storage作为块设备(或多或少)安装)访问用户数据。但是,svfs最初并不稳定,将来,客户端应通过NFS访问缓存服务器。 这是所需架构的一个分支的示意图: +------------------+ +------------------+ NFS +------------------+ | Cluster A | SVFS | Region 1 Cache +----------> R1 PoP a Client | | +----------------> | | | |Persistent Storage| |Ephemeral Storage+----+ |Generates R/W Load| +-----------------++ +------------------+ | +------------------+ | | | …

2
为什么OpenStack可以将图像与快照区分开?
通常,https : //serverfault.com/a/268727/126950: 快照=精确捕获卷在特定时刻的外观,包括所有数据。 图片=系统的总快照(不保存用户数据) 但是,http : //docs.openstack.org/folsom/openstack-ops/content/snapsnots.html说 在OpenStack中,实例快照是映像。直接上传到glance的图像与快照创建的图像之间的唯一区别是,快照创建的图像在glance数据库中具有其他属性。 那么,为什么OpenStack会从快照中区分图像?

1
流浪者(Virtualbox)仅主机多节点联网问题
我正在尝试使用多虚拟机无聊的环境作为部署OpenStack的测试平台,并且在尝试从一个虚拟机与虚拟机内部的虚拟机进行通信时遇到了网络问题。 我有两个Vagrant节点,一个云控制器节点和一个计算节点。我正在使用仅主机网络。我的Vagrantfile看起来像这样: Vagrant::Config.run do |config| config.vm.box = "precise64" config.vm.define :controller do |controller_config| controller_config.vm.network :hostonly, "192.168.206.130" # eth1 controller_config.vm.network :hostonly, "192.168.100.130" # eth2 controller_config.vm.host_name = "controller" end config.vm.define :compute1 do |compute1_config| compute1_config.vm.network :hostonly, "192.168.206.131" # eth1 compute1_config.vm.network :hostonly, "192.168.100.131" # eth2 compute1_config.vm.host_name = "compute1" compute1_config.vm.customize ["modifyvm", :id, "--memory", 1024] end end …

1
扩展和容量规划的最佳实践:仅VM?VM +容器?仅集装箱?集群?还有吗
(我找不到类似的问题,但已经回答了,但由于我是法国学生,所以也许我不使用好话;)) 我要寻找的最接近的答案是:可扩展Web应用程序硬件拓扑最佳实践,但不能解决所有问题 我建立了一个小型私有云(Openstack),我可以在其中运行KVM VM,大多数情况下是为我的数十个网站以及某些客户端运行每个域/网站一个VM。 我计划测试是否可以演变为“混合云”,使某些事物在我的云中运行,而另一些事物在EC2上运行,因此我想确定我的“做事方式”是否最适合我的使用。 这些VM运行CoreOS,然后运行不同的Docker服务(一个用于Nginx的容器,一个用于pgsql的容器,等等)。如果一项服务在某些方面太“短”了,那么我要么创建一个更大的VM,将旧的VM复制到更大的VM并删除旧的VM,要么我为需要的服务创建一个专用的VM(例如,第二个专用于Nginx的VM,以处理更多连接。 但是,我想知道自己是否做错了事。 我之所以选择使用此“模型”,是因为我希望在不同的域/客户端之间建立强烈的隔离,因为我想回想起过去并逐渐习惯Docker,并且因为我发现Docker是最有效的方法之一快速部署服务。 我是否应该只使用每个服务具有一个VM(而不是每个域一个VM)的VM(因此没有容器)? 还是应该只使用容器来分隔不同的服务,然后在节点中将所有服务混合在一起运行?就像数十个容器,它们分别提供不同的服务和不同的客户?然后,如何有效隔离不同的域/客户端?然后如何扩展这些服务?仅添加更多节点? 还是我应该创建一个由大型VM或裸机组成的集群,然后使用它们来创建一个大型CoreOS集群,该集群应该能够通过向其添加更多裸机节点来进行扩展?然后适用于容器的相同问题。 抱歉,如果我的问题看起来太愚蠢,新手或不合适,但我宁愿现在问,而不是什么时候退后一步;) 任何建议欢迎:) ÿ

1
创建具有指定名称的实例,还是在创建实例名称后对其重命名?
我使用在OpenStack上创建了4个实例euca-run-instances -k Franck -n 4 ami-00000023f。 创建的实例具有以下实例名称(在OpenStack的Horizo​​n Web界面上列出) 服务器b00b1b04-e9f9-4582-86ca-f5773a465f42-b00b1b04-e9f9-4582-86ca-f5773a465f42 服务器4d765b51-0511-474c-98f0-ef6199a23c7f-4d765b51-0511-474c-98f0-ef6199a23c7f 服务器378964ac-630e-4490-b738-383bed6bacb1-378964ac-630e-4490-b738-383bed6bacb1 服务器b00b1b04-e9f9-4582-86ca-f5773a465f42-b00b1b04-e9f9-4582-86ca-f5773a465f42 有什么方法可以创建具有指定名称的实例,或者在创建实例名称后对其重命名?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.