Questions tagged «networking»

联网是指使设备和应用程序互连的技术,使它们可以进行电子通信。

3
不允许域计算机相互通信
我们的域包含大约60台计算机。我的任务是确保Windows 10工作站无法相互通信。我的经理要求我创建静态路由,以便计算机只能与网络打印机,文件服务器,DC通信并访问Internet。 由于所有这些计算机都在同一网络上,所以我不认为静态路由会阻止这些计算机互相看到。允许域中的计算机使用网络资源但不直接相互通信的最佳方法是什么?

1
10GbE VMware分布式交换机的iSCSI设计选项?MPIO与LACP
我正在为数据中心的几个VMware vSphere 5.5和6.0群集扩展存储后端。在我的VMware经验中,我主要使用NFS数据存储(Solaris ZFS,Isilon,VNX,Linux ZFS),并且可能将Nimble iSCSI阵列以及可能的Tegile(ZFS)混合阵列引入环境中。 当前的存储解决方案是Nexenta ZFS和基于Linux ZFS的阵列,它们可向vSphere主机提供NFS挂载。通过存储头上的2 x 10GbE LACP中继和每个ESXi主机上的2 x 10GbE来提供网络连接。交换机是配置为MLAG对等体的双Arista 7050S-52机架顶部单元。 在vSphere方面,我正在使用在2个10GbE上行链路上配置了LACP绑定的vSphere Distributed Switch(vDS)和VM端口组,NFS,vMotion和管理流量的网络I / O控制(NIOC)分配份额。 多年来,这种解决方案和设计方法一直表现出色,但是增加iSCSI块存储对我来说是一个很大的转变。在可预见的将来,我仍然需要保留NFS基础结构。 我想了解如何在不更改物理设计的情况下将iSCSI集成到此环境中。ToR开关上的MLAG对我来说非常重要。 对于基于NFS的存储,LACP是提供路径冗余的常用方法。 对于iSCSI,通常不赞成LACP,建议使用MPIO多路径设计。 我到处都在使用10GbE,并希望保持到每个服务器的简单两端口链接。这是为了布线和简化设计。 鉴于以上所述,如何充分利用iSCSI解决方案? 通过LACP配置iSCSI? 在vDS上创建VMkernel iSCSI适配器,并尝试将它们绑定到单独的上行链路,以实现某种形式的突变MPIO? 添加更多的网络适配器?

2
Centos 7上的转发端口
我正在使用CentOS 7服务器,并且正在尝试使JBoss也能按我想要的方式工作。我正在运行Java 8和JBoss(疯狂地)8。我已经安装了它们并在默认端口上工作,但是我想让JBoss在端口80上工作。我知道,如果我可以在80端口上工作,以root身份运行它,但是我知道这不是一个好主意,我也不想以任何方式以root身份运行它。 我已经尝试将端口80转发到8080,但是我没有让它工作。我想我错过了一步,但是我不知道自己在想什么。 我正在使用firewall-cmd。我已经开放了两个端口(80和8080),并且可以伪装成公共区域。我还使用了此命令来转发端口 firewall-cmd --zone=public --add-forward-port=port=80:proto=tcp:toport=8080. 知道我缺少什么吗?


1
使用CIF进行pxebooting Linux Mint(Live CD)时,网络无法正确初始化,但可与nfs一起使用
我在192.168.26.1上有一个TFTP / DHCP / NFS / SMB服务器(Ubuntu服务器12.04 LTS)。我使用pxelinux显示一个菜单,其中包含Windows的启动和安装选项,Ubuntu网络安装程序以及Linux Mint 17 MATE live CD。像这样让它运行起来已经很讨厌了,我已经精疲力竭了…… 对于Linux Mint,我提供了2个netboot选项:NFS和CIFS。我完全可以使用NFS:用户可以在启动菜单中选择它,不久之后,它就会进入Linux Mint live CD桌面。但是使用CIFS,网络无法正确初始化。Linux Mint启动时,网络将挂起120秒。然后,它继续引导到桌面,但是net network-manager没有启动(也没有启动)。我怀疑这可能是DHCP服务器没有响应的问题,但是,在DHCP服务器日志中,我可以看到DHCP请求和成功的响应。 进入Linux Mint桌面后,ifconfig报告由DHCP分配的IP地址,并且对服务器执行ping操作。 我的pxelinux配置是(之后的所有内容APPEND都在一行中,为了便于阅读,我将其拆分了一下): NFS: LABEL linuxmint17 MENU LABEL Linux Mint 17 KERNEL linux-mint-17/image/casper/vmlinuz APPEND root=/dev/nfs boot=casper netboot=nfs nfsroot=192.168.26.1:/var/lib/tftpboot/linux-mint-17/image initrd=/linux-mint-17/image/casper/initrd.lz CIFS: LABEL linuxmint17smb MENU LABEL Linux Mint 17 (SMB) KERNEL linux-mint-17/image/casper/vmlinuz …

3
DNS服务器已使用任播。添加更多IP会增强可伸缩性吗?
RFC 1034要求我们为DNS服务器分配至少两个IP地址。但是,如果我们使用任播寻址,则已经可以通过单个IP地址实现冗余。BGP任意播似乎可以很好地扩展到数百甚至数千个服务器。 如果是这样,为什么我们仍需要DNS服务器使用多个IP地址?如果我们已经进行了任播,它是否真的增强了冗余(有助于提高可用性),或者这只是神话? 如果仅使用一个IP地址,我们将面临哪些问题和错误? 这样,我的意思是完全省略辅助DNS地址,或者1.2.3.4在某些设置需要至少两个时使用伪IP(例如)作为第二个地址。

2
为什么nslookup在ping时不使用mdns?
在dnsmasq.conf中: address=/local/127.0.0.1 在resolv.conf中: # Generated by NetworkManager domain example.com search example.com nameserver 127.0.0.1 nameserver 10.66.127.17 nameserver 10.68.5.26 我可以使用nslookup: # nslookup www.local Server: 127.0.0.1 Address: 127.0.0.1#53 Name: www.local Address: 127.0.0.1 但我不能使用ping: # ping www.local ping: unknown host www.local 我使用tcpdump来捕获ping lo.local时的lo,没有数据包,而像 # tcpdump -i em1 -n | grep local tcpdump: verbose output …

2
为什么服务器锁定会导致其他服务器退出网络?
我们有几十个Proxmox服务器(Proxmox在Debian上运行),大约每个月一次,其中一个将出现内核崩溃并锁定。关于这些锁定的最糟糕的部分是,当它是与群集主服务器位于不同交换机上的服务器时,该交换机上的所有其他Proxmox服务器将停止响应,直到我们找到实际崩溃的服务器并重新启动它为止。 当我们在Proxmox论坛上报告此问题时,建议我们升级到Proxmox 3.1,并且在过去的几个月中我们一直在这样做。不幸的是,星期五,我们迁移到Proxmox 3.1的服务器之一因内核崩溃而锁定,并且位于同一交换机上的所有Proxmox服务器再次无法通过网络访问,直到我们找到崩溃的服务器并重新启动它为止。 好吧,交换机上的几乎所有Proxmox服务器...我发现有趣的是,同一交换机上仍在Proxmox 1.9版上的Proxmox服务器不受影响。 这是崩溃的服务器的控制台的屏幕截图: 服务器锁定后,同一交换机上同时运行Proxmox 3.1的其余服务器将无法访问,并出现以下情况: e1000e 0000:00:19.0: eth0: Reset adapter unexpectedly e1000e 0000:00:19.0: eth0: Reset adapter unexpectedly e1000e 0000:00:19.0: eth0: Reset adapter unexpectedly ...etc... uname-锁定服务器的输出: Linux ------ 2.6.32-23-pve #1 SMP Tue Aug 6 07:04:06 CEST 2013 x86_64 GNU/Linux pveversion -v输出(缩写): proxmox-ve-2.6.32: 3.1-109 (running kernel: 2.6.32-23-pve) pve-manager: …

1
ethtool说eth0使用MII但使用双绞线
ethtool表示“支持的端口:[TP MII]”和“端口:MII”。我猜TP意味着双绞线和媒体独立接口。但是从物理上我看到网卡使用双绞线电缆,而不是此MII连接器。那么如何解释呢?

1
连接多个不可堆叠的网络交换机的正确方法?
我与许多具有IT员工或本地顾问的仓储和工业应用客户打交道。这些站点中的许多站点仍在使用10/100兆位交换主干网... 作为一些更大,更引人注目的计划的一部分,我设法吸引了一些客户投资于网络。例如安全性,仓库管理或VoIP(由于PoE)。 我的问题确实是关于如何在服务器机房/壁橱中布置一组3个以上的独立交换机。假设这些交换机属于Web管理的第2层全千兆位类别(HP ProCurve 1800-24G),并且没有专用的堆叠接口。假定正常范围的服务器和一个到Cisco ASA防火墙的上行链路用于Internet连接。通常,我看到像这样的开关简单地菊花链式连接。 小型企业IT的现实... :( 仅用两个开关,就可以在单元之间设置LACP绑定。生成树(如果支持)。但是三个或三个以上的单位呢? 在我自己的环境中,由于需要PoE或更复杂的路由,因此我不得不使用更高质量的可堆叠设备或仅利用完整的机箱交换机(Cisco 4507,HP 5400zl)。但是,针对上述情况的正确过程是什么?



3
在大型RTT上,1Gbps服务器的TCP吞吐量比100Mbps服务器的TCP吞吐量低
我们的基础设施分布在全球几个主要地区-新加坡,伦敦和洛杉矶。任何两个位置之间的RTT均超过150ms。 我们最近将所有服务器升级为使用1Gbps链接(从100Mbps开始)。我们已经在不同位置的服务器之间运行了一些基于TCP的测试,并且看到了一些令人惊讶的结果。这些结果是完全可重复的。 洛杉矶(100Mbps)到伦敦(100Mbps):〜96Mbps吞吐量 洛杉矶(100Mbps)至伦敦(1Gbps):〜96Mbps吞吐量 洛杉矶(1Gbps)至伦敦(100Mbps):10-40Mbps吞吐量(易失) 洛杉矶(1Gbps)至伦敦(1Gbps):10-40Mbps吞吐量(易失) 洛杉矶(1Gbps)至洛杉矶(1Gbps):吞吐量> 900Mbps 看起来,只要发件人以1Gbps的速度运行,在长链路上,我们的吞吐量就会受到极大影响。 先前的测试方法非常简单-我只是使用cURL从目标服务器下载1GB二进制文件(因此,在上述情况下,cURL客户端在London服务器上运行并从LA下载,因此LA是发送者) 。当然,这是使用单个TCP连接。 使用iperf在UDP上重复相同的测试,问题消失了! 洛杉矶(100Mbps)到伦敦(100Mbps):〜96Mbps吞吐量 洛杉矶(100Mbps)至伦敦(1Gbps):〜96Mbps吞吐量 洛杉矶(1Gbps)至伦敦(100Mbps):〜96Mbps吞吐量 洛杉矶(1Gbps)至伦敦(1Gbps):吞吐量> 250Mbps 这直指我眼中的某些TCP或NIC /端口配置问题。 两台服务器都运行带有TCP三次的CentOS6.x。两者都具有最大8MB的TCP发送和接收窗口,并启用了TCP时间戳和选择性确认。所有测试用例都使用相同的TCP配置。完整的TCP配置如下: net.core.somaxconn = 128 net.core.xfrm_aevent_etime = 10 net.core.xfrm_aevent_rseqth = 2 net.core.xfrm_larval_drop = 1 net.core.xfrm_acq_expires = 30 net.core.wmem_max = 8388608 net.core.rmem_max = 8388608 net.core.wmem_default = 131072 net.core.rmem_default = 131072 net.core.dev_weight = 64 …

1
在哪里可以将专有信息嵌入第2层或第3层数据包中?
Citrix Netscaler具有一个有趣的属性,该属性将信息嵌入到发送到主机的TCP数据包中。此属性以使Netscaler可以使用它确定必须采用的虚拟服务器,主机和路由的方式回显给Netscaler。 将专有信息回显到主机的能力具有有趣的应用程序。 Citrix Netscaler如何做到这一点(在哪里填充位),以及Netscaler(或类似设备)理论上可以在数据包中的其他什么位置填充数据? 哪些设备将(或将不允许)使这些自定义数据保持不变?

1
CentOS,VLAN /子网外部无法访问具有不同子网的两个nics eth0 eth1
我在CentOS 6.3盒子上遇到问题。我们在服务器中有两个NIC(eth0和eth1),每个NIC都分配了来自不同子网的ip,例如eth0:192.168.1.2/24(网关192.168.1.1)和eth1:192.168.2.2/24(网关192.168。) 2.1)。真正的ips是世界可路由的。 每个NIC连接到不同的交换机,但最终都在一个路由器上。在路由器上,这两个子网位于不同的VLAN中,NIC的端口未加标签,因此没有VLAN ID传递到服务器。 现在在FreeBSD上,我仅将IP分配给每个NIC,并且它可以正常工作,两个IP都可以访问。在CentOS上,我只能将网关处于活动状态的IP作为默认路由。我可以ping通同一VLAN /子网内的任何IP,但无法访问该IP。 当我对每个网关进行跟踪路由时,我会看到它们通过适当的NIC,这是合理的,因为网关位于内部。但是,在子网外部,我目前只能ping 192.168.1.2。 IPtables目前也不处于活动状态。 要使其正常工作,需要采取什么措施? 我在谷歌上搜索了几个小时,尝试了不同的方法,但是没有用。我感觉自己缺少一些重要的东西,希望可以轻松解决:-) 任何帮助表示赞赏,谢谢!史考特 路由 # route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 192.168.1.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0 192.168.2.0 0.0.0.0 255.255.255.0 U 0 0 0 eth1 169.254.0.0 0.0.0.0 255.255.0.0 U 1002 …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.