Questions tagged «linux»

Linux是基于Linux内核的类UNIX开源操作系统的通用术语。

2
在线时将时钟与NTP同步,而离线时与RTC同步?
是否存在现有的机制,该机制可在线上使Linux系统与NTP同步,而在离线时与可预测的RTC同步? 我们操作远程“收集器”:嵌入式Linux系统,用于收集传感器数据并为其添加时间戳。我们需要他们的时钟误差保持在较小的水平,例如小于5秒。通常,我们使用NTP来同步他们的时钟,并且只要系统在线,就可以正常工作。 问题在于某些收集器的上行链路非常糟糕,可能会中断数小时,数天甚至数周。这不会停止本地数据收集,但是如果没有NTP,Linux系统时钟就会严重漂移并且非常不可预测。 OTOH,硬件的RTC漂移也很大,但速率恒定。RTC漂移率因板而异,但每块板都是恒定的,可以测量。 我想我们需要的是一种可以执行以下操作的机制: 部署前测量电路板的RTC漂移率 尽可能通过NTP不断/定期调整系统时间 当NTP不可用时,可以通过RTC定期调整系统时间。考虑已知的RTC漂移率。 可选:在线测量并记录正在进行的RTC漂移率(1) 所谓“机制”,是指一些维护良好且有据可查的软件和/或配置,可以处理“在线”与“离线”两种状态,确保系统时钟与正确的时间源(ntp与ntp)同步。 rtc),检测状态变化并校正RTC漂移。是否将其实现为特殊的ntpd配置/插件,作为单独的守护程序,作为cron作业还是其他无关紧要。 我看过Chrony,但是根据它的文档,它试图预测系统时钟的漂移,在我们的情况下,它的漂移远比RTC不可预测。Chrony似乎仅使用RTC来保持重启后的时间。 (1)注意ntpd激活内核的“ 11分钟模式”(每11分钟从系统时钟更新一次rtc)。当前的内核和ntpd似乎无法阻止11分钟模式。因此,在ntpd运行时,任何rtc漂移信息都会丢失(thx @billthor)。 更新/编辑: 我们正在考虑通过USB或串行接口为MSF或DCF77信号(我们位于欧洲)添加一个外部无线电时钟。但是我们宁愿保持硬件精益。 我们的收藏家通常位于室内,通常在地下室。因此,添加GPS时钟将无济于事。 我们使用Debian7。这意味着util-linux-2.20.1中的hwclock,ntpdate-4.2.6p5,ntp-4.2.6.p5中的ntpd,chrony-1.24(可能为1.30)。 请注意,我们的问题不在于我们不知道如何使用ntpdate(8),hwclock(8),date(1)等,请参阅附加部分斜体什么,我与“机制”的意思。 添加了有关“ 11分钟模式”的脚注 这是关于离线同步和RTC漂移的非常有趣的讨论

4
我应该安装x86_64还是i386 RPM软件包?[关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,以使其成为服务器故障的主题。 5年前关闭。 我想安装RPM软件包,但不确定是否要安装x86_64或i386版本。WHM CENTOS 6.5 i686 virtuozzo在顶部说。 如何确定要安装哪个版本?
11 linux  centos  ssh  rpm 

4
在Linux上寻找odbc.ini和odbcinst.ini文件的良好文档
我看到了部分信息,旧信息,但没有实际的样本文件以及本地的简短注释那样好。 我需要了解odbc.ini和之间的确切关系odbcinst.ini。从表面上看,这是很明显的-在odbc.ini文件的顶部,有一个部分: [ODBC Data Sources] MYDSN = MyDriverName ... 但是,我不确定是否可以在驱动程序或DSN部分中进行设置。 1)我Driver = /path/to/file/.so在两个文件中都有一行,有时值会有所不同。这有道理吗?如果是这样,哪个占上风? 2)是odbcinst.ini类似于JavaScript的“原型” odbc.ini吗?换句话说,如果我要创建许多具有通用设置的DSN,可以将通用设置从升级odbc.ini为odbcinst.ini吗? 3)Driver和Setupin有odbcinst.ini什么区别?它们似乎具有相同的价值。这些设置是特定于数据库的还是通用的?

4
BTRFS:删除卷
一周前,我通过以下命令使用两个闪存驱动器(每个32GB)创建了一个BTRFS池/sbin/mkfs.btrfs -d single /dev/sda /dev/sdb。然后我意识到我应该使用分区/dev/sda1和/dev/sdb1而不是磁盘/dev/sda和/dev/sdb,因此我使用来重新创建了卷/dev/sd[ab]1。 我的问题是,现在有两卷: $ sudo btrfs fi show Label: none uuid: ba0b48ce-c729-4793-bd99-90764888851f Total devices 2 FS bytes used 28.00KB devid 2 size 29.28GB used 1.01GB path /dev/sdb1 devid 1 size 28.98GB used 1.03GB path /dev/sda1 Label: none uuid: 17020004-8832-42fe-8243-c145879a3d6a Total devices 2 FS bytes used 288.00KB devid …
11 linux  btrfs 

8
杯子没有打印“过滤器失败”消息-如何获取更多信息?
我有一台状况良好的激光打印机(Samsung ML-2010),它可以在Windows和旧版Linux上运行,但不能与全新安装的ArchLinux一起使用。识别并配置了打印机,但不打印,说明任何作业: canceled at Fri 06 Jun 2014 10:15:26 PM EEST "Filter failed" 问题是-在哪里可以找到更多信息?杯子原木似乎没有任何相关。
11 linux  printing  cups 

1
rsync:getcwd():没有这样的文件或目录(2)
我想同步Server1和Server2的日志到LogServer。 对于Server1: rsync -avz -e 'ssh -p 2188' user@server1:/usr/local/servers/logs/* /usr/local/logs/ 这一项有效,但适用于Server2: rsync -avz -e 'ssh -p 2188' user@server2:/usr/local/servers/logs/* /usr/local/logs/ 它失败: shell-init: error retrieving current directory: getcwd: cannot access parent directories: no such file or directory job-working-directory: error retrieving current directory: getcwd: cannot access parent directories: no such file or directory …
11 linux  ssh  rsync  shell 

1
ZFS池或LVM卷组对于利用许多分区是否更可靠?
在决定在配置新文件服务器时使用LVM卷组还是ZFS池时,需要考虑什么?多功能文件服务器领域是否有“更好”的选择?与之前的问题不同,我不想分层技术。 场景: RHEL / CentOS 6 x64服​​务器 许多可用的相同DAS和SAN LUN 选择: 我个人对LVM非常熟悉,因此,如果它是更好的选择,请放心使用。但是,ZFS看起来很有前途,学习新技术总是好的。 鉴于我们希望能够将相当大的存储(多个TB)共享给不同的部门,并且他们需要能够通过CIFS和NFS对其进行访问,如果我们将ZFS或LVM用于基础池管理器? 我知道可以使用类似的产品FreeNAS,但是由于多种原因,我需要能够推广到“典型”的Linux服务器上。
11 linux  lvm  partition  zfs 

1
如何进行I / O嗅探
为了确定大小,我需要了解应用程序对I / O子系统有哪些要求。我很乐意做我所谓的I / O嗅探,并从块层获取事件列表,如下所示: initiator XYZ requests block 4711 from device 0815 initiator BLA writes block 1234 to device 9876 有人告诉我blktrace是我要寻找的东西,但我无法从该工具获得此信息。
11 linux  io  block  trace 

2
互联网启动后,为什么ntp无法恢复?
我有一些Linux设备(没有TOY芯片,因此它们完全依赖ntp),它们可以在不访问Internet的情况下启动(到交换机的链接已打开)。该ntp服务将启动,但显然不会与任何同行联系。然后,我得到的ntp是正在运行但未与任何对等方同步的服务(ntpq -p给出 .INIT.状态) 问题是当建立与Internet的连接时,这确实会改变。 如果连接在启动时可用,则一切正常。同上,如果我手动发出service ntp restart(ntp连接到对等方并且时间已正确同步)。 ntp是否不应该尝试定期重新连接? 如果是:这是我希望配置的东西吗(我在配置中没有看到任何东西) 如果不是,那将是处理服务重启或服务启动延迟的好方法(我可以假设在启动后n分钟即可恢复到Internet的连接) 注意:从文档中看,最大池时间(我理解是ntp在放弃之前尝试连接到对等设备的最大时间?)为1024秒= 17分钟,这比建立所需的时间还要长。上网(约2至5分钟,最坏的情况)
11 linux  ntp  ntpd 

2
RAID 10时SSD(Intel 530)的读取/写入速度非常慢
说明: 我们有一个服务器: 型号:HP ProLiant DL160 G6 4个240GB SSD(RAID-10) 72GB DDR3内存 2个L5639 HP P410 RAID控制器(256MB,V6.40,Rom版本:8.40.41.00) SSD驱动器是4个全新的2.5“ Intel 530,读取速度为540MB / s,写入速度为490MB / s CentOS的6 文件系统是ext4 但这是RAID 10读取速度的测试结果: hdparm -t /dev/sda /dev/sda: Timing buffered disk reads: 824 MB in 3.00 seconds = 274.50 MB/sec [root@localhost ~]# hdparm -t /dev/mapper/vg_localhost-lv_root /dev/mapper/vg_localhost-lv_root: Timing buffered disk …

1
如何恢复fsck之后损坏的ext4文件系统?
我对软件raid5有点迷恋ext4文件系统。当我开始用完空间时,文件系统已经“运行良好”了好几年。我在6x2T驱动器上有9T的卷。我通过执行mdadm失败,删除,添加,重建,重复过程直到拥有更大的阵列来开始升级到3T驱动器。然后,我种植了luks容器,然后当我卸载并尝试调整大小2fs时,系统提示我文件系统很脏,需要e2fsck。 没想到我只是做了e2fsck -y / dev / mapper / candybox,它开始喷出各种各样的被删除类型消息的inode(不记得了),我杀死了e2fsck并试图将文件系统重新挂载到我所关心的备份数据上。当尝试挂载时,我得到: # mount /dev/mapper/candybox /candybox mount: wrong fs type, bad option, bad superblock on /dev/mapper/candybox, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so 回顾我的旧日志,我注意到每次计算机启动时文件系统都会出现此错误: kernel: [79137.275531] …

2
设置cron作业超时
Ubuntu Linux cron(Vixie cron?)是否支持为其作业设置超时? 具体而言,除非在此之前成功完成,否则该过程将在X秒后终止。 在某些情况下,由于网络连接和各种问题而导致任务挂起。除非您手动清理并杀死它们,否则该过程将永远停止。
11 linux  ubuntu  cron  timeout 

3
保证压力服务器上的SSH访问
前段时间我遇到了一个服务器的问题,其中Apache和Snort占用了100%的处理器,从而使sshd无法通过远程访问进行响应。我必须亲自去服务器上登录本地TTY,然后停止apache / snort。 我想知道是否有一种方法可以在CPU /内存负载为100%的情况下保证ssh连接。设置一个“不错”的优先级就足够了吗? 谢谢!

4
在ZFS主机上运行VM会对性能产生什么影响?
我正在考虑的ext3迁移到ZFS存储数据我的Debian Linux主机上,使用Linux上的ZFS。我真正想要的ZFS杀手级功能是其数据完整性保证。我也希望能够随存储需求的增长而微不足道地增加存储容量。 但是,我还在同一主机上运行了几台VM。(尽管通常情况下,在我的情况下,主机一次只能运行一个虚拟机。) 考虑到ZFS的数据校验和和写时复制行为,以及VM磁盘映像是相对较大的文件(我的主VM的磁盘映像文件当前位于31 GB)这一事实,这样的VM guest虚拟机内部的性能含义是什么?迁移?我应该采取什么措施来减少可能的负面性能影响? 如果有必要,我可以在VM磁盘映像上保留较少的数据完整性保证(我在任何VM内都没有做任何真正重要的事情),并且可以轻松地将它们与文件系统的其余部分分开,但是如果我不这样做,那就很好了。不必(甚至选择性地)关闭大多数使我想要迁移到其他文件系统的功能。 硬件对于工作站级系统而言非常强大,但是对于高端服务器(32 GB RAM,很少使用> 10 GB,6核3.3 GHz CPU,目前可用2.6 TB)而言,它的优势不大。磁盘空间,df总共约有1.1 TB可用空间;迁移到ZFS可能会增加一些可用空间),而且我不打算运行重复数据删除(因为在我的情况下启用dedup不会增加太多)。该计划是从JBOD配置开始的(显然备份良好),但是如果条件允许,我最终可能会转向双向镜像设置。

3
Linux + SSD上交换分区上的后台丢弃
问题 我想在Linux上的SSD磁盘内的交换分区上启用后台 TRIM操作。根据几篇文章(例如,这篇文章),内核会检测到此配置并自动执行丢弃操作,但是在我的测试中,尽管使用了“丢弃”安装选项来强制执行此行为,但它似乎无法正常工作。 情境 运行Linux 3.2.0的Debian Wheezy SSD磁盘:1 x 120GB OCZ Vertex 3 MI 2GB交换“普通”分区,不带其他层(LVM,RAID等) 背景 这些是我检查后台TRIM是否在交换分区上工作的步骤: TRIM支持:检查SSD磁盘是否支持TRIM命令,并且内核将设备标记为不可旋转: # hdparm -I /dev/sda | grep TRIM * Data Set Management TRIM supported (limit 1 block) * Deterministic read data after TRIM # cat /sys/block/sda/queue/rotational 0 交换填充:挂载分区,清理所有VM高速缓存,并将Linux配置为主动进行交换,将vm.swappiness设置为100。然后,运行一个分配所有可用内存并强制内核开始交换的脚本: # swapon [--discard] /dev/sda2 # …
11 linux  debian  ssd  swap  trim 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.