这是机器规格:
CPU(s): 20
Thread(s) per core: 1
Core(s) per socket: 10
Socket(s): 2
根据我目前所读到的内容,这些数字意味着我可以运行 20 个并行作业,因为我有 20 个 CPU。
但是,我可以在每个 CPU 中运行多少个线程?
这是机器规格:
CPU(s): 20
Thread(s) per core: 1
Core(s) per socket: 10
Socket(s): 2
根据我目前所读到的内容,这些数字意味着我可以运行 20 个并行作业,因为我有 20 个 CPU。
但是,我可以在每个 CPU 中运行多少个线程?
我知道这听起来很笼统的问题。
考虑使用虚拟化运行的 2 个操作系统,例如操作系统级虚拟化。如果两个托管操作系统都使用相同的资源,如何处理并发性以及它是如何工作的?
此处某处的连接存在限制...在 Windows Server 2008 机器上,对在 localhost 上运行的 url 的每个请求大约需要 3 秒才能完成。这对于 url 来说很好,也很正常。
但是,如果我在大约 10 个选项卡中打开相同的 localhost url,并将它们设置为同时重新加载,它们会依次完成,彼此间隔 3 秒。这意味着最后一个标签需要 30 秒才能加载 (3s x 10)。特别奇怪的是,firebug 报告每个页面需要 3 秒才能加载。要补充的另一点是,状态栏在最后一个选项卡中处于“完成”状态,直到完成前 3 秒,然后变为“等待本地主机”。
我祈祷某处有一些连接限制,否则如果不止一个用户一次访问该站点,这将是一场灾难!也许是一个限制,或者一台电脑在给定时间不能同时向 url 发出超过 2 个请求?
我有一个无盘主机“A”,它的目录 NFS 安装在服务器“B”上。A 上的进程写入该目录中的两个文件 F1 和 F2,B 上的进程监视这些文件的更改。假设 B 轮询更改的速度比 A 预期的要快。进程 A 寻找文件的头部,写入数据并刷新。进程 B 寻找文件的头部并进行读取。
关于如何在 B 处检测 A 执行的更改的顺序,是否有任何保证?
具体来说,如果 A 交替写入一个文件,然后写入另一个文件,是否可以预期 B 会注意到 F1 和 F2 的交替变化?或者 B 可以想象地检测到 F1 上的一系列变化,然后是 F2 上的一系列变化?
我知道这个问题中有很多假设。例如,我几乎可以肯定,即使只对一个文件进行操作,如果 A 对文件执行 100 次操作,由于 NFS 之前缓存了 A 上的一些操作,B 可能会看到较少数量的更改而产生相同的结果它们被传达给 B。当然,即使不涉及 NFS 并且读取和写入过程都在同一个真实文件系统上运行,并发文件访问也会出现问题。
我什至在这里提出问题的原因是,似乎大多数时候,上述设置确实以与在 A 处所做的相同顺序检测到 B 处的更改,但偶尔会出现一些事件以转置的方式发生命令。那么,是否值得尝试完成这项工作?有没有办法调整 NFS 以使其工作,也许是缓存设置或其他什么?或者像这样的细粒度行为对 NFS 的期望太高了?