我正在设计一个客户端连接并保持连接的网络服务——该模型离 IRC 不远,减去 s2s 连接。
我可以使用一些帮助来了解如何进行容量规划,特别是与处理来自/到客户端的消息相关的系统资源成本。
有一篇文章试图让 100 万个客户端连接到同一台服务器 [1]。当然,这些客户端中的大多数在测试中完全处于空闲状态。如果客户端每 5 秒左右发送一条消息,系统肯定会崩溃。
但是......你怎么做的少挥手,你知道,测量这样一个断裂点?
我们谈论的是由客户端通过 TCP 套接字发送到内核并由应用程序读取的消息。数据在内存中从一个缓冲区移动到另一个缓冲区。我是否需要考虑内存吞吐量(“5 GT/s”[2] 等)?
我很确定我有能力测量由于处理消息所需的 TCP/IP 缓冲区、预期带宽和 CPU 资源而导致的基本内存需求。我对我所说的“thoughput”有点模糊。
帮助!
另外,真的有人这样做吗?或者,大多数人会挥手看看现实世界提供了什么,然后做出适当的反应吗?
[1] http://www.metabrew.com/article/a-million-user-comet-application-with-mochiweb-part-3/
不,不是。无论如何,如果你做得正确,就不会。对于 Linux,您应该查找 sendfile(2) 和 splice(2) 系统调用。其他内核可能具有类似的零拷贝功能,但 AFAIK 尚未标准化。
在实践中,最好将程序编写得尽可能简单,测量瓶颈在哪里,改进,测量,改进……预测瓶颈是困难的,过早的优化是万恶之源(正如 Knuth 所说)。