我最近被问到以下问题:
如果您的根文件系统未安装并且您无法安装它(它已丢失)并且您没有任何二进制文件 - 您只有根 shell,您如何重新启动 linux 服务器。
我认为它与 /proc 有关,但也许根本不可能。谁能提供一些关于在这种情况下我应该做什么的指导?
我最近被问到以下问题:
如果您的根文件系统未安装并且您无法安装它(它已丢失)并且您没有任何二进制文件 - 您只有根 shell,您如何重新启动 linux 服务器。
我认为它与 /proc 有关,但也许根本不可能。谁能提供一些关于在这种情况下我应该做什么的指导?
我在 8 个磁盘 1TB 7k2rpm 上配置了 RAID6 的 P2000 SAS 存储。我想用 4 个 SAS15K 300GB 添加 RAID1+0。
问题是,这个存储是否支持这个设置?它应该可以毫无困难地使用 2 种 RAID 类型吗?谢谢。
这周我的一台 Windows 机器上出现奇怪的随机崩溃。崩溃总是以 BSOD 结束,但在随机系统驱动程序中以随机错误代码结束。事件日志中没有记录。
所以首先猜测是内存,但我意识到里面只有一个SSD磁盘。我不相信来自磁盘的任何 SMART 数据,但这次也许我应该相信。你怎么看?用Parted magic自检磁盘没问题。我负担不起笔试。
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 120 120 050 Pre-fail Always - 0/0
5 Retired_Block_Count 0x0033 100 100 003 Pre-fail Always - 0
9 Power_On_Hours_and_Msec 0x0032 095 095 000 Old_age Always - 4581h+05m+42.650s
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 290
171 Program_Fail_Count 0x0032 000 000 000 Old_age Always - 0
172 Erase_Fail_Count 0x0032 000 000 000 Old_age Always - 0
174 Unexpect_Power_Loss_Ct 0x0030 000 000 000 Old_age Offline - 11
177 Wear_Range_Delta 0x0000 000 000 000 Old_age Offline - 1
181 Program_Fail_Count 0x0032 000 000 000 Old_age Always - 0
182 Erase_Fail_Count 0x0032 000 000 000 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
194 Temperature_Celsius 0x0022 128 129 000 Old_age Always - 128 (0 127 0 129 0)
195 ECC_Uncorr_Error_Count 0x001c 100 100 000 Old_age Offline - 0/0
196 Reallocated_Event_Count 0x0033 100 100 003 Pre-fail Always - 0
201 Unc_Soft_Read_Err_Rate 0x001c 100 100 000 Old_age Offline - 0/0
204 Soft_ECC_Correct_Rate 0x001c 100 100 000 Old_age Offline - 0/0
230 Life_Curve_Status 0x0013 100 100 000 Pre-fail Always - 100
231 SSD_Life_Left 0x0013 100 100 010 Pre-fail Always - 0
233 SandForce_Internal 0x0000 000 000 000 Old_age Offline - 1319
234 SandForce_Internal 0x0032 000 000 000 Old_age Always - 944
241 Lifetime_Writes_GiB 0x0032 000 000 000 Old_age Always - 944
242 Lifetime_Reads_GiB 0x0032 000 000 000 Old_age Always - 1317
Model Family: SandForce Driven SSDs
Device Model: Corsair Force 3 SSD
我不得不在一个数据库上建立一个符号链接到 MySQL (Debian 6.0) 上的另一个位置。所以/var/lib/mysql/dbname
指向/home/user/dbname
,但 MySQL 给出
MySQL 错误:1017(找不到文件:'./dbname/tbl201206.frm'(错误号:13))
我已经阅读了一些关于在数据目录或表文件上创建符号链接的手册,但是 mysqld 也可以读取这种链接吗?
简单的问题,我有 3 台主机运行 4.1 Essentials Plus 和 vmware HA。我尝试创建多个虚拟机,以填充每台服务器 90% 的内存容量。我知道 vmware 在虚拟机中有非常复杂的内存管理,但我不明白 vCenter 如何允许我什至在超过临界内存级别的虚拟机上启动,而主机故障转移仍然可以处理。
是不是因为虚拟机没有使用内存,所以还是认为是空闲的,所以虚拟机才能开机?但是,如果所有 VM 在主机故障前都真正使用 RAM,将会发生什么情况——它们在故障后无法迁移到其他主机。
XenServer 中的默认行为是,它会自动计算群集内可以使用的最大内存级别,以便主机故障仍然受到保护。Vmware 做同样的事情?
准入策略已启用。已启用 VMware 高可用性。
如果您能回答我关于存储性能的一些问题,我会很高兴。设置
基本上,我必须查看我们的存储的主要原因是将监控 VM 从其中一台主机的本地磁盘传输到存储。因此,在进行任何迁移之前,我使用 iometer 设置了一个新的 VM,并在夜间运行测试,当时集群中没有重要的作业在运行。此 VM 只有 1 个发电机工作线程。
Access Specification Name IOps Read IOps Write IOps MBps Read MBps Write MBps Transactions per Second Average Response Time Average Read Response Time
512B; 100% Read; 0% random 5617.191059 5617.191059 0.000000 2.742769 2.742769 0.000000 5617.191059 0.176979 0.176979
512B; 75% Read; 0% random 3190.524306 2369.761725 820.762581 1.557873 1.157110 0.400763 3190.524306 0.312244 0.321925
512B; 50% Read; 0% random 1055.807449 524.819993 530.987456 0.515531 0.256260 0.259271 1055.807449 0.946000 0.421600
512B; 25% Read; 0% random 1006.956966 239.414257 767.542709 0.491678 0.116901 0.374777 1006.956966 0.853556 0.687116
512B; 0% Read; 0% random 35.123065 0.000000 35.123065 0.017150 0.000000 0.017150 35.123065 28.349538 0.000000
4K; 75% Read; 0% random 3034.296095 2247.847150 786.448945 11.852719 8.780653 3.072066 3034.296095 0.328614 0.333793
4K; 25% Read; 0% random 2237.793260 587.671309 1650.121951 8.741380 2.295591 6.445789 2237.793260 0.445755 0.636275
16K; 75% Read; 0% random 627.852712 474.796322 153.056389 9.810199 7.418693 2.391506 627.852712 1.591288 1.840213
16K; 25% Read; 0% random 478.619741 116.666329 361.953412 7.478433 1.822911 5.655522 478.619741 2.086953 1.281547
32K; 75% Read; 0% random 848.266506 649.372846 198.893660 26.508328 20.292901 6.215427 848.266506 1.176316 1.334378
32K; 25% Read; 0% random 443.441341 117.275291 326.166050 13.857542 3.664853 10.192689 443.441341 2.253707 7.158792
hdparm 读取测试(使用 hdparm -t /dev/sda)给出了 300MB/s。
我们的监控系统从 +- 40 个虚拟机和 30 个设备获取信息,每个主机至少有 10 个服务,但实际上是 cacti 产生了大部分的 IOPS。它每分钟同时大量更新 RRD 数据。尽管如此,我还是决定将 VM 迁移到存储。迁移后,我测量了监控产生的 IOPS - 平均值为 800,但在每个 VM 上进行任何读取操作后的响应时间非常糟糕 - 5-10 秒,监控实际上杀死了一些 VM,因为内核在某些 VM 上超时IO操作。hdparm 给出了 1.4MB/秒。我关闭了 cacti RRD 处理,它运行良好,但我们没有图表。
我的问题:
1)您如何看待 iometer 在此设置上的性能?应该更好,没问题,还是我应该搜索一些错误配置?
2)您是否建议使用带有监控软件的单独物理主机,并且不要用这种 IOPS“打扰”存储?
3)这个问题比较笼统。存储测试后,我们可以获得不同块大小的 IOPS/mbps。但是我如何评估应用程序最常使用的块大小呢?例如,数据库系统通常使用 75% 的读取操作,但块大小是多少,以便我可以将其与我的结果进行比较?在不知道这些信息的情况下,我的 iometer 测试只是简单的数字。
更新 1: 感谢您的回答。
所以我们所做的是,我们为 rrd 处理创建了 ramdisk,并且所有 rrd 每小时都同步到监控磁盘。一切都运行得相当快,但我们会考虑为这种需要良好写入性能的 IOPS 创建另一个具有 RAID 10 的 RAID 组。