AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / server / 问题

问题[pool](server)

Martin Hope
SteppingHat
Asked: 2021-05-07 08:20:21 +0800 CST

ZFS 池不断 DEGRADED 或 FAULTED

  • 2

我有一个游泳池,raidz1-0里面有 5 个驱动器。我不确定确切的时间,但突然之间,所有驱动器都从始终ONLINE没有读取、写入或校验和错误变为随机吐出各种问题。

    NAME                                            STATE     READ WRITE CKSUM
    Data                                            DEGRADED     0     0     0
      raidz1-0                                      DEGRADED   149   185     0
        gptid/905fe084-a003-11e9-9d12-000c29c8a62a  DEGRADED    57   127     5  too many errors
        gptid/2b75693a-9f09-11e9-8310-000c29c8a62a  ONLINE       7     5     5
        gptid/b8b4dd8f-82e9-11eb-b23f-000c29c8a62a  DEGRADED    70   171     5  too many errors
        gptid/b88beac0-e1f3-11e7-aeb0-000c29c8a62a  DEGRADED    51     6    14  too many errors
        gptid/4eb702b3-e2c3-11e7-9896-000c29c8a62a  FAULTED      8    13     2  too many errors

我做了一些基本的故障排除:

  • SMART 表明一切都很好(除了一些比我想要的温度在 40C 范围内的温度高一些)。所以驱动器看起来状态良好。没有坏扇区,没有挂起的扇区,没有什么不寻常的。此时,所有驱动器都已旋转了约 3 年。
  • 每个驱动器都通过单独的 SATA 连接直接连接到主板。我已经重新安装并更换了 SATA 电缆,但没有成功。

在某个时间点,我更换了池中的第三个磁盘。当时,它吐出的错误最多,并且总是第一个进入 DEGRADED 状态。我用一个全新的驱动器替换了它,它已经运行了几个月,立即发现与池的其余部分相同的问题。

即使在zpool clear大约 5 小时后,我也有以下状态。

    NAME                                            STATE     READ WRITE CKSUM
    Data                                            DEGRADED     0     0     0
      raidz1-0                                      DEGRADED     1     0     0
        gptid/905fe084-a003-11e9-9d12-000c29c8a62a  ONLINE       2     4     0
        gptid/2b75693a-9f09-11e9-8310-000c29c8a62a  ONLINE       0     0     0
        gptid/b8b4dd8f-82e9-11eb-b23f-000c29c8a62a  FAULTED      1    11     0  too many errors
        gptid/b88beac0-e1f3-11e7-aeb0-000c29c8a62a  ONLINE       1     1     0
        gptid/4eb702b3-e2c3-11e7-9896-000c29c8a62a  ONLINE       1     6     0

我不确定这里发生了什么或其他地方可以看。

我不知道这是否是巧合,但我注意到这是在升级 ZFS 池作为 FreeNAS 更新之一的一部分之后开始发生的(我认为它是 11.2U - 是的,我正在运行 FreeNAS)

我唯一能想到的最后一件事是一个坏的 SATA 控制器。但在我开始之前,还有什么我可以解决的吗?这是用于业余爱好的家庭服务器,更换控制器本质上意味着一个全新的服务器,所以如果可能的话,我想避免这种情况。不幸的是,没有任何剩余的 PCIe 端口可以安装外部控制器。

提前致谢!

zfs storage truenas pool
  • 1 个回答
  • 264 Views
Martin Hope
user2250246
Asked: 2020-09-08 11:32:00 +0800 CST

TCP连接池是什么意思?

  • 1

为什么创建一个新的 TCP 连接被认为是昂贵的?是我想到另一个问题时想到的问题。

保持 TCP 连接处于活动状态以及通过连接池缓存连接到底意味着什么?(我确实理解线程池的概念,但与连接池的“连接”部分混淆)。

TCP 流量在到达目的地之前不应该流经许多基于 Internet 的 IP(计算机和路由器等)吗?如果是这样,那么连接甚至意味着什么?它是否指为 TCP 流量建立一次的路径,并且重新使用连接意味着一次又一次地使用相同的路径,直到该路径中的某些 IP 不再可用?

windows linux connection networking pool
  • 1 个回答
  • 1656 Views
Martin Hope
ALchEmiXt
Asked: 2020-03-17 13:41:40 +0800 CST

ZFS:编辑 ubuntu 上失败池的 zpool 驱动器顺序

  • 1

我对到底发生了什么以及如何在 Ubuntu 18.04 上进行最近扩展的 zfs 配置有点迷茫。

我有一台使用 ZFS 运行多年的存储服务器,其中有 2 个池,每个池包含 10 多个驱动器。一切都很好,直到......我们决定通过添加一个包含 10 个磁盘的新 vdev 来扩展一个池。插上后一切正常。这就是我添加设备所做的(我现在知道我应该在磁盘上按 id 完成 :-( ):

~$ sudo modprobe zfs
~$ dmesg|grep ZFS
[   17.948569] ZFS: Loaded module v0.6.5.6-0ubuntu26, ZFS pool version 5000, ZFS filesystem version 5
~$ lsscsi
[0:0:0:0]    disk    HGST     HUS724020ALS640  A1C4  /dev/sda
[0:0:1:0]    disk    HGST     HUS724020ALS640  A1C4  /dev/sdb
[0:0:2:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sdc
[0:0:3:0]    enclosu LSI      SAS2X28          0e12  -
[1:0:0:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sdd
[1:0:1:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sde
[1:0:2:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sdf
[1:0:3:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sdg
[1:0:4:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sdh
[1:0:5:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sdi
[1:0:6:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sdj
[1:0:7:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sdk
[1:0:8:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sdl
[1:0:9:0]    disk    HGST     HUS726040AL5210  A7J0  /dev/sdm
[1:0:10:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdn
[1:0:11:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdo
[1:0:12:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdp
[1:0:13:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdq
[1:0:14:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdr
[1:0:15:0]   disk    HGST     HUS726060AL5210  A519  /dev/sds
[1:0:16:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdt
[1:0:17:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdu
[1:0:18:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdv
[1:0:19:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdw
[1:0:20:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdx
[1:0:21:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdy
[1:0:22:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdz
[1:0:23:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdaa
[1:0:24:0]   enclosu LSI CORP SAS2X36          0717  -
[1:0:25:0]   disk    HGST     HUS726040AL5210  A7J0  /dev/sdab
[1:0:26:0]   enclosu LSI CORP SAS2X36          0717  -
[1:0:27:0]   disk    HGST     HUH721010AL4200  A384  /dev/sdac      ===>from here below the new plugged disks
[1:0:28:0]   disk    HGST     HUH721010AL4200  A384  /dev/sdad
[1:0:30:0]   disk    HGST     HUH721010AL4200  A384  /dev/sdae
[1:0:31:0]   disk    HGST     HUH721010AL4200  A384  /dev/sdaf
[1:0:32:0]   disk    HGST     HUH721010AL4200  A384  /dev/sdag
[1:0:33:0]   disk    HGST     HUH721010AL4200  A384  /dev/sdah
[1:0:34:0]   disk    HGST     HUH721010AL4200  A384  /dev/sdai
[1:0:35:0]   disk    HGST     HUH721010AL4200  A384  /dev/sdaj
[1:0:36:0]   disk    HGST     HUH721010AL4200  A384  /dev/sdak
[1:0:37:0]   disk    HGST     HUH721010AL4200  A384  /dev/sdal

接下来,我将驱动器作为新的 raidz2 vdev 添加到现有的存档池中。之后似乎运行顺利:

~$ sudo zpool add -f archive raidz2 sdac sdad sdae sdaf sdag sdah sdai sdaj sdak sdal
~$ sudo zpool status
  pool: archive
state: ONLINE
  scan: scrub repaired 0 in 17h18m with 0 errors on Sun Dec  8 17:42:17 2019
config:
        NAME                        STATE     READ WRITE CKSUM
        archive                     ONLINE       0     0     0
          raidz2-0                  ONLINE       0     0     0
            scsi-35000cca24311c340  ONLINE       0     0     0
            scsi-35000cca24311ecbc  ONLINE       0     0     0
            scsi-35000cca24d019248  ONLINE       0     0     0
            scsi-35000cca24311e30c  ONLINE       0     0     0
            scsi-35000cca243113ab0  ONLINE       0     0     0
            scsi-35000cca24311c188  ONLINE       0     0     0
            scsi-35000cca24311e7c8  ONLINE       0     0     0
            scsi-35000cca24311e3f0  ONLINE       0     0     0
            scsi-35000cca24311e7bc  ONLINE       0     0     0
            scsi-35000cca24311e40c  ONLINE       0     0     0
            scsi-35000cca243118054  ONLINE       0     0     0
            scsi-35000cca243115cb8  ONLINE       0     0     0
          raidz2-1                  ONLINE       0     0     0
            sdac                    ONLINE       0     0     0
            sdad                    ONLINE       0     0     0
            sdae                    ONLINE       0     0     0
            sdaf                    ONLINE       0     0     0
            sdag                    ONLINE       0     0     0
            sdah                    ONLINE       0     0     0
            sdai                    ONLINE       0     0     0
            sdaj                    ONLINE       0     0     0
            sdak                    ONLINE       0     0     0
            sdal                    ONLINE       0     0     0

errors: No known data errors

  pool: scratch
state: ONLINE
  scan: scrub repaired 0 in 9h8m with 0 errors on Sun Dec  8 09:32:15 2019
config:
        NAME                        STATE     READ WRITE CKSUM
        scratch                     ONLINE       0     0     0
          raidz2-0                  ONLINE       0     0     0
            scsi-35000cca24311e2e8  ONLINE       0     0     0
            scsi-35000cca24311e858  ONLINE       0     0     0
            scsi-35000cca24311ea5c  ONLINE       0     0     0
            scsi-35000cca24311c344  ONLINE       0     0     0
            scsi-35000cca24311e7ec  ONLINE       0     0     0
            scsi-35000cca24311bcb8  ONLINE       0     0     0
            scsi-35000cca24311e8a8  ONLINE       0     0     0
            scsi-35000cca2440b4f98  ONLINE       0     0     0
            scsi-35000cca24311e8f0  ONLINE       0     0     0
            scsi-35000cca2440b4ff0  ONLINE       0     0     0
            scsi-35000cca243113e30  ONLINE       0     0     0
            scsi-35000cca24311e9b4  ONLINE       0     0     0
            scsi-35000cca243137e80  ONLINE       0     0     0

errors: No known data errors

但是,重新启动很可能会打乱磁盘驱动器的顺序(设备分配;不确定是否很难,但似乎很可能)。至少这是我在阅读了许多文档和问题后所能理解的。目前的状态如下。暂存池工作正常。存档池不是:

~$ sudo zpool status -v
  pool: archive
state: UNAVAIL
status: One or more devices could not be used because the label is missing
or invalid.  There are insufficient replicas for the pool to continue
functioning.
action: Destroy and re-create the pool from
a backup source.
  see: http://zfsonlinux.org/msg/ZFS-8000-5E
  scan: none requested
config:

NAME                        STATE    READ WRITE CKSUM
archive                    UNAVAIL      0    0    0  insufficient replicas
  raidz2-0                  ONLINE      0    0    0
    scsi-35000cca24311c340  ONLINE      0    0    0
    scsi-35000cca24311ecbc  ONLINE      0    0    0
    scsi-35000cca24d019248  ONLINE      0    0    0
    scsi-35000cca24311e30c  ONLINE      0    0    0
    scsi-35000cca243113ab0  ONLINE      0    0    0
    scsi-35000cca24311c188  ONLINE      0    0    0
    scsi-35000cca24311e7c8  ONLINE      0    0    0
    scsi-35000cca24311e3f0  ONLINE      0    0    0
    scsi-35000cca24311e7bc  ONLINE      0    0    0
    scsi-35000cca24311e40c  ONLINE      0    0    0
    scsi-35000cca243118054  ONLINE      0    0    0
    scsi-35000cca243115cb8  ONLINE      0    0    0
  raidz2-1                  UNAVAIL      0    0    0  insufficient replicas
    sdac                    FAULTED      0    0    0  corrupted data
    sdad                    FAULTED      0    0    0  corrupted data
    sdae                    FAULTED      0    0    0  corrupted data
    sdaf                    FAULTED      0    0    0  corrupted data
    sdag                    FAULTED      0    0    0  corrupted data
    sdah                    FAULTED      0    0    0  corrupted data
    sdai                    FAULTED      0    0    0  corrupted data
    sdaj                    FAULTED      0    0    0  corrupted data
    sdak                    FAULTED      0    0    0  corrupted data
    sdal                    FAULTED      0    0    0  corrupted data

  pool: scratch
state: ONLINE
  scan: scrub repaired 0 in 16h36m with 0 errors on Sun Feb  9 17:00:25 2020
config:

NAME                        STATE    READ WRITE CKSUM
scratch                    ONLINE      0    0    0
  raidz2-0                  ONLINE      0    0    0
    scsi-35000cca24311e2e8  ONLINE      0    0    0
    scsi-35000cca24311e858  ONLINE      0    0    0
    scsi-35000cca24311ea5c  ONLINE      0    0    0
    scsi-35000cca24311c344  ONLINE      0    0    0
    scsi-35000cca24311e7ec  ONLINE      0    0    0
    scsi-35000cca24311bcb8  ONLINE      0    0    0
    scsi-35000cca24311e8a8  ONLINE      0    0    0
    scsi-35000cca2440b4f98  ONLINE      0    0    0
    scsi-35000cca24311e8f0  ONLINE      0    0    0
    scsi-35000cca2440b4ff0  ONLINE      0    0    0
    scsi-35000cca243113e30  ONLINE      0    0    0
    scsi-35000cca24311e9b4  ONLINE      0    0    0
    scsi-35000cca243137e80  ONLINE      0    0    0

errors: No known data errors

我尝试了 zpool 导出存档(也使用 -f),但它抱怨缺少设备。

~$ sudo zpool export -f archive
cannot export 'archive': one or more devices is currently unavailable

显然导入也失败了......

还有什么可以尝试的?我简直不敢相信“简单”的磁盘重新排序会弄乱存档池中的所有数据。

编辑 3 月 23 日

问题确实是驱动顺序发生了变化。
如果我在池上运行 zdb,它会显示存储在标签中的所有信息,并且大型新磁盘被错误的 /dev/sdxx 设备引用。我通过列出驱动器的 guid 以及实际分配的 /dev/sdxx 设备及其 ID 来确定这一点。它给了我下面的映射:

老开发者和当前开发者的映射表

但是如何解决这个问题。理论上,将更正的 zdb 数据重写到磁盘应该可以解决这个问题。

zfs ubuntu-18.04 pool raidz
  • 1 个回答
  • 244 Views
Martin Hope
da-chiller
Asked: 2020-02-20 15:06:37 +0800 CST

初始池创建期间 XenServer 网络配置错误

  • 0

我相信我犯了一个可怕的错误。

我有一个 XEN8.0 (Citrix Hypervisor) 用于在办公室的本地机器上运行测试。它有一个本地 IP 地址。经典的。

然后我想将我的 VM 来宾移动到云中的专用服务器。XEN 已安装、配置好,很酷。

然后,来宾的 XenCenter 中的带输入/输出功能的传输无法正常工作。然后我选择创建一个池,因为我认为我可以简单地将访客系统移动到另一台服务器上。你可能知道会发生什么。

现在的情况:

云中的 XEN_1,主控,公共可访问 IP(新)

XEN_2 本地、从属、路由器后面的本地 IP(旧)

XEN_1# xe pool-sync-database
You attempted an operation which involves a host which could not be contacted.

XEN_2# xe pif-list
The master reports that it cannot talk back to the slave on the supplied management IP address.
ip: 192.168.103.81

XEN_2# xe pif-list params=uuid,host-name-label,device,management
The host toolstack is still initialising. Please wait.

我假设,XEN_2 告诉 XEN_1 他的 IP 是他无法访问的,所以这是一个死锁的情况。

问题:是否可以以某种方式告诉 XEN_1 我本地路由器的 IP?

非常糟糕的是,XEN_2 的本地存储无法访问,并且有一个客户系统具有非常非常重要的内容。因此,消失整个系统并不是一个真正的选择。

其他问题:是否可以通过 SSH 访问访客数据?

任何帮助深表感谢!谢谢

ip xenserver pool
  • 1 个回答
  • 427 Views
Martin Hope
abr_stackoverflow
Asked: 2016-12-16 00:51:58 +0800 CST

Ubuntu 16.04 中的 PHP7。一个 FPM 池尝试 chroot 另一个 FPM 池

  • 0

我将我的网站从旧的 PHP (php 5.4) 和 OS (Ubuntu 12.04) 移动到带有 PHP 7 和 Ubuntu 16.04 的新服务器。我在创建 FPM 池时遇到了错误。这是我的常用池配置:

[zabbix.example.com]
include = /etc/php/7.0/fpm/default-config.conf

user = www-data
group = www-data
listen = /data/www/zabbix/tmp/php-fpm.sock

request_terminate_timeout = 60s ; 30 sec for work
request_slowlog_timeout = 5s ; add to slowlog after 5 sec

slowlog = /data/www/zabbix/logs/slow.log
chroot =  /data/www/zabbix
chdir =   /public_html

php_admin_flag[display_errors] = off
php_admin_flag[display_startup_errors] = off

php_admin_value[memory_limit] = 256M
php_admin_value[sendmail_path] = /usr/sbin/sendmail -t [email protected]

php_admin_value[post_max_size] = 16M
php_admin_value[max_execution_time] = 300
php_admin_value[max_input_time] = 300

这是 default-config.conf:

pm = dynamic
pm.max_children = 100
pm.start_servers = 12
pm.min_spare_servers = 5
pm.max_spare_servers = 50
pm.max_requests = 1000
pm.status_path = /status

listen.backlog = -1
listen.owner = www-data
listen.group = www-data
listen.mode = 0666

ping.path = /ping
ping.response = pong

request_terminate_timeout = 90
request_slowlog_timeout = 20
catch_workers_output = yes
php_flag[display_errors] = off
php_flag[display_startup_errors] = off
php_value[disable_functions] = show_source,system,shell_exec,passthru,exec,popen,proc_open

php_admin_value[upload_tmp_dir] = /tmp

security.limit_extensions = .php .php3 .php4 .php5 .htm

此配置适用于旧服务器。但是在新服务器上,我遇到了 chrooting 问题。一些站点使用另一个站点的 chroot 目录。例如,我有这些池:site1.example.com、site2.example.com、site3.example.com、zabbix.example.com。所以 site1.example.com 尝试查找 site2.example.com 目录。如果我加载 site3.example.com,它会显示 zabbix.example.com。

我该如何解决?

php php-fpm pool
  • 2 个回答
  • 708 Views
Martin Hope
user126715
Asked: 2016-09-30 10:57:09 +0800 CST

oracle 可以同时处理 SERVER = POOLED (DRCP) 和 SERVER = DEDICATED 客户端吗?

  • 1

我运行一个使用 Oracle 11g 实例作为后端的 PHP 应用程序。我们目前连接 DEDICATED 作为我们的类型,但我们无法扩展。

因此,我向 DBA 建议我们实现 DRCP 连接池,因为这似乎是在 php 环境中处理的最佳(唯一?)方式。

问题是其他应用程序/供应商也连接到同一个数据库,并且 DBA 关心将每个人切换到池化,因为这将是一项巨大的测试工作。此外,我们会有不同的用户 ID,所以如果我们都必须在同一个池中,我什至认为在这种情况下池化是没有意义的。

所以,我的问题是服务器可以同时为想要通过 DEDICATED 连接的客户端和我通过 POOLED 连接的客户端提供服务吗?

database oracle database-administration oracle-11g pool
  • 1 个回答
  • 290 Views
Martin Hope
Déjà vu
Asked: 2016-09-28 08:02:13 +0800 CST

用另一个文件覆盖 php-fpm 池配置值

  • 14

必须自定义新服务器的 php-fpm 池配置,我想知道是否有可能/允许/建议有一个新的池文件,其名称按字母顺序排列在原始文件之后,该文件仅具有覆盖初始配置的值。

原始配置在/etc/php/7.0/fpm/pool.dnamed中www.conf。

看来,根据安装相关的页面,工程师直接修改原件(保存一份初始值)。例如

[www]
...
user www-data
group www-data
pm.max_children 2

修改后给出

[www]
...
user myapp         ; was www-data
group myapp        ; was www-data
pm.max_children 8  ; was 2

但似乎这可能是在下次升级 php-fpm 后重复的任务(此外配置在7.0路径中,这令人担忧)。

而不是修改原始文件,我想保持它不变,并添加另一个,说wwwmyapp.conf这将声明同一个池,并且只有已更改的值

在wwwmyapp.conf

[www]        ; same pool!
user myapp
group myapp
pm.max_children 8

in pool.d, 文件列表

www.conf
wwwmyapp.conf

因为在php-fpm.conf所有池 conf 文件中加载,值wwwmyapp将在www( 在同一个www池中) 之后读取,并且应该覆盖第一个值。

  • 它似乎在一些测试中有效并且没有报告错误,但它会一直有效,并且适用于所有值吗?
  • 我们应该直接覆盖配置文件吗?

即使在 php.net 上,也无法在任何文档中找到答案。

configuration php-fpm pool
  • 3 个回答
  • 10326 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve