AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / user-125459

Steve Lorimer's questions

Martin Hope
Steve Lorimer
Asked: 2017-08-01 10:28:00 +0800 CST

如何隧道多播流量?

  • 0

我正在尝试在一台机器上接收多播,将其转发到另一台机器,然后在该机器上重播。

  • test_env:可以访问原始多播流的机器
  • mcast_sender:我试图将多播转发到并重新多播的机器

到目前为止我已经尝试过:

结合tcpdump,我尝试了以下方法netcat:tcpreplay

上test_env:

我有一个 python 脚本,它执行 IGMP 连接并永远坐在那里,从套接字读取并丢弃数据(只是保持套接字打开)

$ ./mcast_sub INADDR_ANY 239.194.5.1 21001 &

现在有问题的接口将接收多播数据,所以我可以运行tcp_dump:

$ sudo tcpdump -i eth5 host 239.194.5.1 > /tmp/capture.pcap

我现在可以tail在 pcap 文件上运行,并将其通过管道传输到netcat

$ tail -f /tmp/capture.pcap -n+1 | nc -l 12345

上mcast_sender:

然后,我mcast_sender可以从 netcat 端口接收这些数据,并将其转储到那里的本地文件中:

$ nc test_env 12345 > /tmp/capture.pcap

然后使用tcpreplay我可以读取捕获文件mcast_sender并重播它

$ sudo tcpreplay --intf1=eth8 /tmp/capture.pcap

我的问题:

-管道似乎正在工作tcpdump。netcat我已经验证我正在写一个文件mcast_sender。

但是,当我尝试tcpreplay在其上运行时,出现错误:

$ sudo tcpreplay --intf1=eth8 /tmp/capture.pcap
Failed: Error opening pcap file: unknown file format

问题:

  • 有可能做我在这里尝试的吗?
  • 为什么写入的文件mcast_sender无效?
  • 有没有更好的方法来实现我在这里想要做的事情?
tcpdump
  • 1 个回答
  • 1207 Views
Martin Hope
Steve Lorimer
Asked: 2015-10-20 12:50:28 +0800 CST

sendmail:在不是这种情况下抱怨“组可写目录”?

  • 1

sendmail由于Group writable directory错误,我无法启动我的服务:

$ service sendmail start
Starting sendmail: 451 4.0.0 /etc/mail/sendmail.cf: line 87: fileclass: cannot open '/etc/mail/local-host-names': Group writable directory
451 4.0.0 /etc/mail/sendmail.cf: line 596: fileclass: cannot open '/etc/mail/trusted-users': Group writable directory
                                                           [FAILED]
Starting sm-client: /etc/mail/submit.cf: line 552: fileclass: cannot open '/etc/mail/trusted-users': Group writable directory
                                                           [FAILED]

但是,权限似乎是正确的:

/ETC:

$ ls -ld /etc
drwxr-xr-x. 93 root root 4096 Oct 17 14:23 /etc

/etc/邮件:

$ ls -ld /etc/mail
drwx------ 2 root root 4096 Oct 19 16:43 /etc/mail

/etc/邮件/*:

$ ls -ld /etc/mail/*
-rw------- 1 root root   469 May 20  2009 /etc/mail/access
-rw------- 1 root root 12288 May  5 18:11 /etc/mail/access.db
-rw------- 1 root root     0 Jun  8  2014 /etc/mail/aliasesdb-stamp
-rw------- 1 root root   233 Apr 12  2007 /etc/mail/domaintable
-rw------- 1 root root 12288 May  5 18:11 /etc/mail/domaintable.db
-rw------- 1 root root  5584 Nov 11  2010 /etc/mail/helpfile
-rw------- 1 root root    64 Apr 12  2007 /etc/mail/local-host-names
-rw------- 1 root root   997 Apr 12  2007 /etc/mail/mailertable
-rw------- 1 root root 12288 May  5 18:11 /etc/mail/mailertable.db
-rwx--x--x 1 root root  2700 May 20  2009 /etc/mail/make
-rw------- 1 root root    92 May 20  2009 /etc/mail/Makefile
-rw------- 1 root root 58439 Nov 11  2010 /etc/mail/sendmail.cf
-rw------- 1 root root  7202 May 20  2009 /etc/mail/sendmail.mc
-rw------- 1 root root 41521 Nov 11  2010 /etc/mail/submit.cf
-rw------- 1 root root   941 Nov 11  2010 /etc/mail/submit.mc
-rw------- 1 root root   127 Apr 12  2007 /etc/mail/trusted-users
-rw------- 1 root root  1847 Apr 12  2007 /etc/mail/virtusertable
-rw------- 1 root root 12288 May  5 18:11 /etc/mail/virtusertable.db

这里有什么问题?

linux
  • 1 个回答
  • 1267 Views
Martin Hope
Steve Lorimer
Asked: 2014-05-28 15:00:05 +0800 CST

我应该采取哪些步骤来最好地尝试恢复失败的软件 raid5 设置?

  • 4

我的突袭失败了,我不确定要采取哪些最佳步骤才能最好地尝试恢复它。

我在 raid5 配置中有 4 个驱动器。看起来好像失败了(sde1),但md无法启动数组,因为它sdd1说不新鲜

我能做些什么来恢复阵列吗?

我在下面粘贴了一些摘录/var/log/messages和mdadm --examine:

/var/log/messages

$ egrep -w sd[b,c,d,e]\|raid\|md /var/log/messages

nas kernel: [...] sd 5:0:0:0: [sde]  
nas kernel: [...] sd 5:0:0:0: [sde] CDB: 
nas kernel: [...] end_request: I/O error, dev sde, sector 937821218
nas kernel: [...] sd 5:0:0:0: [sde] killing request
nas kernel: [...] md/raid:md0: read error not correctable (sector 937821184 on sde1).
nas kernel: [...] md/raid:md0: Disk failure on sde1, disabling device.
nas kernel: [...] md/raid:md0: Operation continuing on 2 devices. 
nas kernel: [...] md/raid:md0: read error not correctable (sector 937821256 on sde1).
nas kernel: [...] sd 5:0:0:0: [sde] Unhandled error code 
nas kernel: [...] sd 5:0:0:0: [sde]  
nas kernel: [...] sd 5:0:0:0: [sde] CDB: 
nas kernel: [...] end_request: I/O error, dev sde, sector 937820194
nas kernel: [...] sd 5:0:0:0: [sde] Synchronizing SCSI cache 
nas kernel: [...] sd 5:0:0:0: [sde]  
nas kernel: [...] sd 5:0:0:0: [sde] Stopping disk
nas kernel: [...] sd 5:0:0:0: [sde] START_STOP FAILED
nas kernel: [...] sd 5:0:0:0: [sde]  
nas kernel: [...] md: unbind<sde1>
nas kernel: [...] md: export_rdev(sde1)
nas kernel: [...] md: bind<sdd1>
nas kernel: [...] md: bind<sdc1>
nas kernel: [...] md: bind<sdb1>
nas kernel: [...] md: bind<sde1>
nas kernel: [...] md: kicking non-fresh sde1 from array!
nas kernel: [...] md: unbind<sde1>
nas kernel: [...] md: export_rdev(sde1)
nas kernel: [...] md: kicking non-fresh sdd1 from array!
nas kernel: [...] md: unbind<sdd1>
nas kernel: [...] md: export_rdev(sdd1)
nas kernel: [...] md: raid6 personality registered for level 6
nas kernel: [...] md: raid5 personality registered for level 5
nas kernel: [...] md: raid4 personality registered for level 4
nas kernel: [...] md/raid:md0: device sdb1 operational as raid disk 2
nas kernel: [...] md/raid:md0: device sdc1 operational as raid disk 0
nas kernel: [...] md/raid:md0: allocated 4338kB
nas kernel: [...] md/raid:md0: not enough operational devices (2/4 failed)
nas kernel: [...] md/raid:md0: failed to run raid set.
nas kernel: [...] md: pers->run() failed ...

mdadm --examine

$ mdadm --examine /dev/sd[bcdefghijklmn]1

/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 4dc53f9d:f0c55279:a9cb9592:a59607c9
           Name : NAS:0
  Creation Time : Sun Sep 11 02:37:59 2011
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 3907027053 (1863.02 GiB 2000.40 GB)
     Array Size : 5860538880 (5589.05 GiB 6001.19 GB)
  Used Dev Size : 3907025920 (1863.02 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : e8369dbc:bf591efa:f0ccc359:9d164ec8

    Update Time : Tue May 27 18:54:37 2014
       Checksum : a17a88c0 - correct
         Events : 1026050

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : A.A. ('A' == active, '.' == missing)
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 4dc53f9d:f0c55279:a9cb9592:a59607c9
           Name : NAS:0
  Creation Time : Sun Sep 11 02:37:59 2011
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 3907027053 (1863.02 GiB 2000.40 GB)
     Array Size : 5860538880 (5589.05 GiB 6001.19 GB)
  Used Dev Size : 3907025920 (1863.02 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 78221e11:02acc1c8:c4eb01bf:f0852cbe

    Update Time : Tue May 27 18:54:37 2014
       Checksum : 1fbb54b8 - correct
         Events : 1026050

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : A.A. ('A' == active, '.' == missing)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 4dc53f9d:f0c55279:a9cb9592:a59607c9
           Name : NAS:0
  Creation Time : Sun Sep 11 02:37:59 2011
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 3907027053 (1863.02 GiB 2000.40 GB)
     Array Size : 5860538880 (5589.05 GiB 6001.19 GB)
  Used Dev Size : 3907025920 (1863.02 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : fd282483:d2647838:f6b9897e:c216616c

    Update Time : Mon Oct  7 19:21:22 2013
       Checksum : 6df566b8 - correct
         Events : 32621

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing)
/dev/sde1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 4dc53f9d:f0c55279:a9cb9592:a59607c9
           Name : NAS:0
  Creation Time : Sun Sep 11 02:37:59 2011
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 3907027053 (1863.02 GiB 2000.40 GB)
     Array Size : 5860538880 (5589.05 GiB 6001.19 GB)
  Used Dev Size : 3907025920 (1863.02 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : e84657dd:0882a7c8:5918b191:2fc3da02

    Update Time : Tue May 27 18:46:12 2014
       Checksum : 33ab6fe - correct
         Events : 1026039

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAA. ('A' == active, '.' == missing)
linux
  • 2 个回答
  • 1511 Views
Martin Hope
Steve Lorimer
Asked: 2012-06-27 18:16:17 +0800 CST

cpusets 不工作 - 线程没有在我指定的 cpuset 中运行?

  • 1

我曾经cpuset屏蔽一些cpus供一些实时线程独占使用。

显示 cpuset 配置,测试应用程序RealtimeTest1正在运行并将其任务移至 cpusets:

$ cset set --list -r
cset: 
         Name         CPUs-X    MEMs-X Tasks Subs Path
 ------------   ---------- - ------- - ----- ---- ----------
         root         0-23 y     0-1 y   279    2 /
       system 0,2,4,6,8,10 n       0 n   202    0 /system
       shield 1,3,5,7,9,11 n       1 n     0    2 /shield
RealtimeTest1      1,3,5,7 n       1 n     0    4 /shield/RealtimeTest1
      thread1            3 n       1 n     1    0 /shield/RealtimeTest1/thread1
      thread2            5 n       1 n     1    0 /shield/RealtimeTest1/thread2
         main            1 n       1 n     1    0 /shield/RealtimeTest1/main

我可以询问cpuset文件系统以显示我的任务应该固定到我请求的 cpus 上:

/cpusets/shield/RealtimeTest1 $ for i in `find -name tasks`; do echo $i; cat $i; echo "------------"; done

./thread1/tasks
17651 
------------
./main/tasks
17649 
------------
./thread2/tasks
17654
------------

此外,如果我使用sched_getaffinity,它会报告cpuset它的作用——thread1 在 cpu 3 上,而 thread2 在 cpu 5 上。

但是,如果我运行top -p 17649 -Hwithf,j调出last used cpu,它表明线程 1 在线程 2 的 cpu 上运行,而主线程在systemcpuset中的一个 cpu 上运行

(注意线程 17654 正在运行 FIFO,因此线程 17651 被阻塞)

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  P COMMAND                                                                                                                                                                                             
17654 root      -2   0 54080  35m 7064 R  100  0.4   5:00.77 3 RealtimeTest                                                                                                                                                                                         
17649 root      20   0 54080  35m 7064 S    0  0.4   0:00.05 2 RealtimeTest                                                                                                                                                                                         
17651 root      20   0 54080  35m 7064 R    0  0.4   0:00.00 3 RealtimeTest    

此外,寻找其运行/proc/17649/task的last_cpu每个任务:

/proc/17649/task $  for i in `ls -1`; do cat $i/stat | awk '{print $1 " is on " $(NF - 5)}'; done
17649 is on 2
17651 is on 3
17654 is on 3

所以报道是一回事,但现实是另一cpuset回事sched_getaffinity

我会说这cpuset不起作用?

我的机器配置是:

$ cat /etc/SuSE-release
SUSE Linux Enterprise Server 11 (x86_64)
VERSION = 11
PATCHLEVEL = 1
$ uname -a
Linux foobar 2.6.32.12-0.7-default #1 SMP 2010-05-20 11:14:20 +0200 x86_64 x86_64 x86_64 GNU/Linux

更新:

此外,我在调用之前和之后进行解析/proc/pid/task/tid/stat和调用,并且我也在固定之后做一个尝试让线程移动......sched_getcpu()cset --movesched_yield()

这是一个示例输出:

13:12:56 INFO before pinning thread 17508 reports lastCpu=0, currCpu=1
13:12:56 INFO pinning thread 17508 to cpu 3 (/shield/RealtimeTest1/thread1)
13:12:56 INFO SetAffinity cset response:
    cset: moving following pidspec: 17508
    cset: moving 1 userspace tasks to /shield/RealtimeTest1/thread1
    cset: done
13:12:56 INFO after pinning thread 17508 reports lastCpu=0, currCpu=1
13:12:56 INFO after sch_yld thread 17508 reports lastCpu=0, currCpu=1

所以线程不会立即移动到它的新 cpuset,甚至在sched_yield

这可能是 SLES 11 / SP 1 问题吗?

linux scheduler
  • 1 个回答
  • 1648 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve