Questions tagged «linux»

一种广泛使用的开源操作系统,在服务器上特别流行。

6
在活动的系统上执行有效读写的最安全方法是mysqldump?
我不确定这是否是正确的,但我记得阅读过,如果您在linux中运行以下命令 mysqldump -u username -p database_name > backup_db.sql 在对数据库进行读写时,转储可能包含错误。 命令中是否有特定选项mysqldump来确保在实时系统上安全地完成此操作?我可以为用户禁用读/写功能几秒钟(数据库<50MB)

3
删除用户postgres的密码要求
我了解到,安装后,PostgreSQL的数据库root用户(postgres)没有密码: postgres=# select usename, passwd is null from pg_shadow; usename | ?column? ----------+---------- postgres | t (1 row) ...,建议您设置以下内容: alter role postgres password '<<very-secret>>'; (然后相应地更新pg_hba.conf文件) 我的问题是:当user不需要密码时,用于恢复到先前情况的SQL是什么postgres? 通常,如何删除任何角色的密码要求?我不是在问如何更改密码,而是要删除密码要求(passwd表中的空列pg_shadow)。


5
如何正确杀死MySQL?
我安装了带有CPanel的CentOS 64位,并且使用: service mysql stop 它只是保持滴答作响,似乎从未停止过。在日志中,它仅发布了许多内容: 130303 17:42:38 [Warning] /usr/sbin/mysqld: Forcing close of thread 在err.log文件中,我看到了很多这些: [Warning] /usr/sbin/mysqld: Forcing close of thread 它曾经是即时的。任何想法为什么这样做以及如何解决? 现在我必须做,killall -9 mysql但是有更好的方法吗? 服务器也非常活跃。 这是配置问题吗?记忆设置是否太高? [mysqld] default-storage-engine=MyISAM local-infile=0 symbolic-links=0 skip-networking max_connections = 500 max_user_connections = 20 key_buffer = 512M myisam_sort_buffer_size = 64M join_buffer_size = 64M read_buffer_size = 12M …

7
为什么要使用innodb_file_per_table?
有许多文章夸大了(当然是恕我直言)对的需要innodb_file_per_table。我知道使用innodb_file_per_table,应该可以更好地控制各个表;例如分别备份每个表。但是,关于获得更好性能的要求令人怀疑。 在我的测试中,在性能没有差异innodb_file_per_table,并ibdata1为60GB的数据库。当然,这是对普通查询的简单测试,现实生活中复杂查询的情况可能有所不同(这就是我问这个问题的原因)。具有64位linux ext4可以有效处理大文件。 使用innodb_file_per_table,需要更多的磁盘I / O操作;这对于复杂的JOINs和FOREIGN KEY约束非常重要。 表空间在单个共享ibdata;单独表的专用表空间如何节省磁盘空间?当然,使用释放每个表的表空间更为容易ALTER,但是这仍然是一个昂贵的过程(使用表锁)。 问题:是否innodb_file_per_table对更好的mysql性能有影响?如果是,为什么?

3
我可以更改Oracle数据库的SID吗?
服务器是Oracle Database 11g企业版11.1.0.7.0版-64位 有没有简单快捷的方法来更改服务器上测试数据库的SID? 删除和重新创建数据库是我的一个选择。但我正在寻找需要更少时间的东西。 在客户端tnsnames.ora中分配名称的另一个选项容易出错,因为它们不是集中管理的。 与在SQL Server上删除和创建数据库的时间相比,创建新的Oracle数据库所需的时间过长。进一步在SQL Server上,您可以重命名SQL Server实例。[通常,您重命名运行SQL-Server的服务器,并且在重命名服务器之前也会遇到一些问题]。

1
什么限制了连接数量?
根据https://devcenter.heroku.com/articles/heroku-postgres-legacy-plans,连接限制为500 按照https://wiki.postgresql.org/wiki/Tuning_Your_PostgreSQL_Server的说法: “通常,良好硬件上的PostgreSQL可以支持数百个连接” 此限制的决定因素是什么?#CPU核心?内存?操作系统?


2
Mongo以管理员身份为任何数据库创建用户都会引发错误
我正在尝试创建一个具有访问所有数据库的权限的简单用户,并且可以执行任何操作。当我尝试执行createUser命令时,出现以下错误: db.createUser({ user: "mongoadmin" , pwd: "mongoadmin", roles: ["userAdminAnyDatabase", "dbAdminAnyDatabase", "readWriteAnyDatabase"]}) 2015-08-20T17:09:42.300+0000 E QUERY Error: couldn't add user: No role named userAdminAnyDatabase@new_vehicles_catalog 仅当我启用身份验证配置并且需要它时,才会发生上述问题。 因此,如何为任何数据库创建具有管理员权限的用户。我想要它,因为我将mongo服务配置为使用身份验证连接。如果要执行数据转储,则必须使用此身份验证参数。 请任何帮助? 使用mongo版本3.0.5。 该服务位于Amazon Linux AMI 2015.03(HVM),SSD卷类型上-ami-1ecae776

2
该表被标记为已崩溃,应予以修复
我已经安装了MySQL和Nagios Linux PC(Centos5.5) 我已经编写了一些脚本来将数据从Nagios提取到Mysql DB(完全在Table中提取数据) 数据获取正常工作(已通过“ COUNT” cmd确认) 我在运行以下命令时遇到的问题如下: mysql>从nagios_servicechecks选择*; 错误1194(HY000):表'nagios_servicechecks'被标记为已崩溃,应予以修复 除此命令外,其他所有命令都可以正常工作。
15 mysql  linux  restore 



3
如何将mysql转换为postgresql?[关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使它成为数据库管理员Stack Exchange 的主题。 5年前关闭。 我拼命寻找一个转换工具,将一个大的mysql数据库转换为postgresql。我需要的工具/脚本是: 自由 在Linux下工作 易于使用,不会出错 您实际上已尝试并确认有效 最好不要用Java或Ruby编写 我尝试了此处列出的其他工具,但没有一个适合我。 先感谢您。

9
有哪些数据屏蔽工具?(MySQL,Linux)
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使它成为数据库管理员Stack Exchange 的主题。 5年前关闭。 我正在寻找(理想情况下是免费的,开源的)数据屏蔽工具。有这样的存在吗? 注意:这个相关问题涉及用于生成测试数据的工具,但是在这个问题中,我对从真实数据开始并对其进行遮罩以便在测试中使用更感兴趣,而不会丢失任何使其出于测试目的变得有趣的特殊关系。生成的数据可以用于某些测试目的,但是实际数据会带来您从未想到的问题。 生成测试数据大型数据集的工具
14 mysql  linux  testing 

4
无法将MySQL数据输出到文件
我正在尝试将数据从MySQL表输出到文件,但出现权限错误: $ pwd /home/dotancohen $ mkdir in $ chmod 777 in/ $ mysql -ugs -p mysql> USE someDatabase; mysql> SELECT * FROM data INTO OUTFILE '/home/dotancohen/in/data.csv'; ERROR 1045 (28000): Access denied for user 'gs'@'localhost' (using password: YES) mysql> 如果有问题的目录更改为777,那么MySQL用户为什么不能写该文件?有趣的是,我也无法写到/ tmp /。 编辑: 看起来数据库用户具有适当的MySQL权限: mysql> show grants; +----------------------------------------------------------------------------------+ | Grants for …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.