AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / server / 问题

问题[max-file-descriptors](server)

Martin Hope
zwol
Asked: 2020-10-03 12:28:47 +0800 CST

通过 systemd 套接字激活传递 8192 个套接字 - E2BIG 失败

  • 2

我正在尝试让 systemd 启动一个守护进程并将 8,192 个监听套接字传递给它。我有一个.service和.socket文件可以可靠地使用更多“正常”数量的侦听套接字,如下所示:

# a-daemon.socket
[Unit]
Description=A Daemon (sockets)
After=network.target

[Socket]
Accept=no
ListenStream=8192

# a-daemon.service
[Unit]
Description=A Daemon
After=network.target
Requires=a-daemon.socket

[Install]
WantedBy=multi-user.target

[Service]
Type=notify
ExecStart=/usr/local/sbin/a-daemon

但是如果我换成a-daemon.socket一个有 8,192ListenStream行的版本,每个 TCP 端口从 8192 到 16383(含)一个,那么守护程序将不再启动。套接字单元可以正常启动,但服务单元失败;我得到的唯一错误信息是

systemd[17563]: a-daemon.service: Failed to execute command: Argument list too long
systemd[17563]: a-daemon.service: Failed at step EXEC spawning /usr/local/sbin/a-daemon: Argument list too long

据我了解,这实际上不是参数 list的问题,因为 systemd 不会将套接字 fd 编号放在守护进程的命令行或类似的东西上。我猜这是同时打开文件数量限制的问题,所以我设置DefaultLimitNOFILE=32768了/etc/systemd/system.conf一个等效设置/etc/security/limits.conf并重新启动。没变。然后我把ExecStartPre=/usr/sbin/prlimit -n.service文件放进去,尝试重启,确认增加的限制已经生效:

prlimit[18134]: RESOURCE   DESCRIPTION                             SOFT      HARD UNITS
prlimit[18134]: NOFILE     max number of open files               32768     32768 files

但是服务仍然失败,同样的方式。现在我没有主意了。你能建议我可以尝试做些什么来完成这项工作吗?

(我知道监听 8,192 个连续的 TCP 端口是一件很奇怪的事情。请相信我,我有一个很好的理由,我不能分享。)

socket systemd max-file-descriptors
  • 1 个回答
  • 357 Views
Martin Hope
TheGrandPackard
Asked: 2016-05-10 09:09:14 +0800 CST

如何计算专用 squid 服务器的 ulimit -n(文件描述符)

  • 3

我有一个生产 squid 服务器,它在提供内容并报告它没有文件描述符时遇到了一些问题。我成功地将它从 1024(默认)增加到 4096,它似乎解决了我在日志中的错误。对于某些未缓存的调用,我仍然看到响应代码 0 和 0 字节,这让我相信在高峰量(启动风暴)中,我的文件描述符计数仍然太低。

我已经阅读了一些帖子,可以将设置设置为 24k、40k 甚至 70k。由于这是一个专用的 squid 盒,我不担心其他进程/用户在系统范围内竞争文件描述符,但我真的很想知道粗略计算我应该配置多少个文件描述符的最佳实践是什么对于 ulimit -n。

在我的配置中,我有最多 3000 个客户端 TCP 连接,最多 3000 个服务器端 TCP 连接,以及一些在 squid 配置中默认配置的日志文件(cache.log、squid.log)。是否像说我应该将我的 ulimit -n 设置为 3000 + 3000 + 2 + (一些开销)一样简单?由于缺乏有关此事的文档,我可能会将其设置为 24k 只是为了永远不必处理它,但我更喜欢遵循最佳实践公式 - 就像使用 apache2 一样,您可以计算多少请求所需的内存希望能够同时处理。

编辑:忘了提到我没有将这些缓存文件写入磁盘,它们保留在内存中。这是几百个文件(总共<5 MB)网站是唯一通过这个加载的页面,所以这就是我省略磁盘读/写文件描述符的原因。

squid max-file-descriptors
  • 2 个回答
  • 1880 Views
Martin Hope
ananthan
Asked: 2012-07-11 07:45:45 +0800 CST

Strace Apache 进程输出显示等待 24 秒?可能是什么原因?

  • 4

对其中一个 apache 子项执行 strace,它在两个系统调用之间显示 24 秒。我如何确定导致此行为的原因。看起来两个子项花费的时间几乎相同(24.7 和 23.92)秒。

我们在 php5 和 mysql 5 中使用 apache prefork

/var/lib/php5/ 是 php 会话文件夹

带有 processid -20539 的 apache children1 的 strace 输出

ps -u www 数据 | grep apache2 | awk '{print"-p " $1}' | xargs strace -o /strace/strace.log -ff -s4096 -r

20539 0.000064 关闭(13)= 0

20539 0.000060 打开(“/var/lib/php5/sess_9t2cvnvdoruh666rjpm515idm0”,O_RDWR|O_CREAT,0600)= 13

20539 0.000065 羊群(13,LOCK_EX)= 0

20539 24.711888 fcntl(13,F_SETFD,FD_CLOEXEC)= 0

20539 0.000056 fstat(13, {st_mode=S_IFREG|0600, st_size=211, ...}) = 0

20539 0.000080 lseek(13、0、SEEK_SET)= 0

带 processid 的 apache children2 的 strace 输出 - 20556

20556 0.000056 关闭(13)= 0

20556 0.000058 打开(“/var/lib/php5/sess_9t2cvnvdoruh666rjpm515idm0”,O_RDWR|O_CREAT,0600)= 13

20556 0.000062 羊群(13,LOCK_EX)= 0

20556 23.928294 fcntl(13,F_SETFD,FD_CLOEXEC)= 0

20556 0.000055 fstat(13, {st_mode=S_IFREG|0600, st_size=211, ...}) = 0

20556 0.000083 lseek(13、0、SEEK_SET)= 0

文件描述符(13)调用的文件可能有问题吗?我对 strace 输出的理解有什么问题吗?

php apache-2.2 strace max-file-descriptors
  • 1 个回答
  • 1737 Views
Martin Hope
Kevin
Asked: 2009-08-01 14:35:35 +0800 CST

大容量系统的实用最大打开文件描述符 (ulimit -n)

  • 79

我们最近开始对我们的应用程序进行负载测试,并注意到它在大约 24 小时后耗尽了文件描述符。

我们在戴尔 1955 上运行 RHEL 5:

CPU:2 x 双核 2.66GHz 4MB 5150 / 1333FSB RAM:8GB RAM 硬盘:2 x 160GB 2.5" SATA 硬盘

我检查了文件描述符限制,它设置为 1024。考虑到我们的应用程序可能有大约 1000 个传入连接和 1000 个传出连接,这似乎相当低。更不用说任何需要打开的实际文件。

我的第一个想法是将 ulimit -n 参数增加几个数量级,然后重新运行测试,但我想知道将此变量设置得太高的任何潜在后果。

除了弄清楚我们的软件理论上可以打开多少个文件描述符之外,是否有任何最佳实践来设置它?

java linux ulimit max-file-descriptors
  • 5 个回答
  • 167514 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve