我尝试关闭 ext4 文件系统上的“丢弃”,但我无法成功。
我尝试在其中添加“nodiscard”选项,/etc/fstab
但我仍然可以看到:
# tune2fs -l /dev/md2|grep disca
Default mount options: journal_data_writeback user_xattr acl discard
我尝试关闭 ext4 文件系统上的“丢弃”,但我无法成功。
我尝试在其中添加“nodiscard”选项,/etc/fstab
但我仍然可以看到:
# tune2fs -l /dev/md2|grep disca
Default mount options: journal_data_writeback user_xattr acl discard
我正在努力弄清楚为什么 rc.local 不会在启动时执行。
该文件本身是可执行的,它是从 /etc/rc2.d 调用
的,从命令行时该文件也不会返回任何错误。
任何想法还有什么要检查以确定为什么不运行?
我尝试将 Nginx 服务器配置为反向代理,以便它从客户端接收到的 https 请求也通过 https 转发到上游服务器。
这是我使用的配置:
http {
# enable reverse proxy
proxy_redirect off;
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwared-For $proxy_add_x_forwarded_for;
upstream streaming_example_com
{
server WEBSERVER_IP:443;
}
server
{
listen 443 default ssl;
server_name streaming.example.com;
access_log /tmp/nginx_reverse_access.log;
error_log /tmp/nginx_reverse_error.log;
root /usr/local/nginx/html;
index index.html;
ssl_session_cache shared:SSL:1m;
ssl_session_timeout 10m;
ssl_certificate /etc/nginx/ssl/example.com.crt;
ssl_certificate_key /etc/nginx/ssl/example.com.key;
ssl_verify_client off;
ssl_protocols SSLv3 TLSv1 TLSv1.1 TLSv1.2;
ssl_ciphers RC4:HIGH:!aNULL:!MD5;
ssl_prefer_server_ciphers on;
location /
{
proxy_pass https://streaming_example_com;
}
}
}
无论如何,当我尝试使用反向代理访问文件时,这是我在反向代理日志中遇到的错误:
2014/03/20 12:09:07 [错误] 4113079#0: *1 SSL_do_handshake() 失败(SSL:错误:1408E0F4:SSL 例程:SSL3_GET_MESSAGE:意外消息),同时 SSL 与上游握手,客户端:192.168.1.2,服务器:streaming.example.com,请求:“GET /publishers/0/645/_teaser.jpg HTTP/1.1”,上游:“ https://MYSERVER.COM:443/publishers/0/645/_teaser.jpg ” ,主机:“streaming.example.com”
知道我做错了什么吗?
我有这个问题:
Error 324 (net::ERR_EMPTY_RESPONSE): The server closed the connection without sending any data.
如果需要,我可以提供配置文件。
任何人都知道为什么会这样?
我注意到如果我关闭open_file_cache
该问题将不再出现,但我仍然在寻找不涉及关闭文件缓存的解决方案。
我有一个 SW RAID1,我刚刚用新的硬盘替换了 /dev/sda,因为旧硬盘出现故障。
现在,在尝试重新创建 RAID 阵列时,我发现“好”硬盘 (/dev/sdb) 有坏块,阻止 mdadm 重新同步阵列。
虽然我可以进行备份,也可以替换 /dev/sdb 并完全重新安装服务器,但我想知道是否有任何方法可以“欺骗” mdadm 重新同步 RAID 阵列,然后用新的 HDD 替换 /dev/sdb .
据我推测,坏块位于 /dev/sdb 的未使用区域中,仅在尝试重新创建 RAID 阵列时使用。
我需要计算通过网络访问的 .php 脚本的展示次数。现在我在一个 1 行 MySQL 表中执行此操作并只是增加值。这通常工作正常,但是当服务器有流量突发(数百个请求/秒)时,一切都会延迟并且增量 SQL 语句开始在 MySQL 的慢速查询日志中弹出。
我试图通过 APC 进行计数,但它“丢失”了值,也就是说,当我运行一个简单的 ab 测试命令时
ab -n 100 -c 10 http://example.com/script.php
仅计算 ~50 次新印象,而在 MySQL 上计算 100 次。
我还尝试通过memcache计算印象,它工作得更好(也就是说,它能够跟上更多的同时连接)但它也无法在 50 或 100 个并发连接后计算所有内容。
我想知道是否有人知道解决这个问题的好方法?
我有 3 个服务器设置,一个前端 HAproxy 向 2 个后端服务器发送请求。
后端服务器使用相同的硬件和相同的软件 (Debian 6.0.6)。它们的配置相似,也接收大致相同数量的处理请求(HAproxy 负责处理)。
尽管如此,它的负载一直比另一个高,据我所知,它似乎与硬盘有关,通过使用iotop
似乎读取最多的进程是 php-fpm 进程。
任何关于我可以在哪里看的建议都有望有所帮助。
我需要在 ext4 系统上保存数百万个文件。
我知道具有多个子目录的结构是普遍接受的解决方案。我想知道就目录/子目录的数量而言,最佳方法是什么。
例如,我尝试了像 16/16/16/16 这样的结构(即从 1 到 16 的(子)目录),我发现我可以在 2 分钟 50 秒内将 100K 文件移动到这个结构。
当尝试将 100K 文件移动到 8/8/8/8/8/8 结构时,它花费了 11 分钟。所以 16/16/16/16 方法似乎更好,但我想知道是否有人对更好的目录/子目录分布有一些经验。
我在 /etc/rc.local 中有以下命令
chmod 666 /dev/fuse
chmod +x /usr/bin/fusermount
/bin/su someuser -c "/usr/bin/sshfs someuser@someserver:/usr/local/storage /usr/local/storage_remote -o nonempty -o reconnect"
如果我以 root 身份从命令行运行它们,它们就可以工作。
如果我重新启动服务器,它们将不会从 /etc/rc.local 运行。
我试图找出我做错了什么,但我没有控制台访问权限,而且我在 /var/log 中找不到与 sshfs 相关的任何错误。
我刚刚配置了一个 Debian 服务器,如下
apt-get install smartmontools
vi /etc/default/smartmontools - 在这里取消注释这两行
# uncomment to start smartd on system startup
start_smartd=yes
# uncomment to pass additional options to smartd on startup
smartd_opts="--interval=1800"
然后我编辑了 /etc/smartd.conf 并只取消注释这一行
DEVICESCAN -S on -o on -a -m [email protected] -s (S/../.././02|L/../../6/03)
我想知道这是否足以让系统在出现问题时向我发送警报消息和/或是否有办法模拟问题并查看 smartd 是否通过电子邮件向我发送警告。
我最近在 SW RAID1 系统(Debian 6.0)上发生了 HDD 故障,发生的事情是活动 HDD 看起来有一些坏块,这些坏块以某种方式传播到 HDD 仍然正常,但它被设置为备用并且无法同步. 这基本上是我的假设,因为我不能肯定地说。
我想知道你们中是否有人知道损坏的硬盘驱动器的错误是否有可能传播到另一个硬盘驱动器,如果有的话,是否有任何设置可以防止这种情况发生?
对此事的任何见解将不胜感激。谢谢你。
我在一个数据中心有许多 Debian 服务器,我不时注意到软件 RAID 1 已降级。虽然重新同步过程会自动启动并且我不会丢失任何数据,但我发现它很烦人,因为它会减慢服务器的速度,甚至在硬盘驱动器重新同步的几天内。
我想知道到底是什么导致 HDD 首先不同步,以及是否有任何配置选项可以防止这种情况发生。
对此事的任何想法/建议将不胜感激。
我有一个带有 3 个分区的 SW RAID 1,其中一个似乎无法在 HDD 故障/更换后重新同步。
这里有一些信息:
more /proc/mdstat
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sdb3[1] sda3[2]
2862630207 blocks super 1.2 [2/2] [UU]
md1 : active raid1 sdb2[1] sda2[2]
524276 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sda1[2](F) sdb1[1]
67107768 blocks super 1.2 [2/1] [_U]
unused devices: <none>
我尝试将 /dev/sda1 设置为错误,然后将其删除,但出现错误,请参见下文:
# mdadm --manage --set-faulty /dev/md0 /dev/sda1
mdadm: set /dev/sda1 faulty in /dev/md0
# mdadm --manage --remove /dev/md0 /dev/sda1
mdadm: hot remove failed for /dev/sda1: Device or resource busy
你对我还可以尝试什么有什么建议吗?
我有 2 个 Debian Linux 6.0.4 服务器有一个奇怪的行为:5-7-10 天后它们挂起。我的意思是服务器需要重新启动,在此之前 ping 不会回答。
几个月来我一直在努力解决这个问题,这里有一些想法/我尝试过但无法解决问题。
虽然我有多年的管理经验,但我从未遇到过这样的问题,现在我不知道还能去哪里调查。
如果您知道我可以尝试什么来解决问题,请与我分享:-)