Por que não tenho uma escolha de sistemas de arquivo quando gravo um DVD de dados com o brasero no 24.04? Existe um sistema de arquivo padrão para DVD?
Isso vem acontecendo há alguns meses, mas é definitivamente uma mudança de comportamento no ano passado. Toda vez que uma nova versão do Chrome é lançada, recebo uma mensagem no Chrome dizendo que a atualização falhou e que devo reiniciar o navegador para instalar a atualização. Reiniciar não faz diferença, é claro.
sudo apt install google-chrome-stable
retorna "google-chrome-stable já é a versão mais recente"
apt show google-chrome-stable
mostra o mesmo número de versão do Chrome, confirmando que é a versão que o apt pensa que é.
Todos eles mostram minha versão instalada (e aparentemente atualizada) como v129.whatever, mas a versão estável atual de acordo com o Google é v131.whatever. Leva uma eternidade do Google lançar uma nova versão para ela aparecer no repositório ou algo está quebrado? Se levar tempo, há uma maneira de desabilitar a mensagem que aparece no Chrome o tempo todo para dizer que está desatualizado?
É apenas um pequeno incômodo, pois uso o Opera para a maioria das coisas, mas ainda uso o Chrome para alguns sites que "não suportam" o Opera.
O Opera atualiza bem, e notei hoje que o Chromium foi atualizado via Discover, então parece ser algo peculiar ao Chrome.
Estou usando o Kubuntu 24.10, mas o comportamento não mudou desde o 24.04, pelo menos.
Edição 1: A pergunta semelhante sugerida é uma que eu olhei antes de postar esta. A resposta marcada para essa diz que apt show google-chrome-stable
não encontra nenhum resultado, sugerindo que não foi instalado do repositório. A minha mostra uma saída com número de versão e informações do mantenedor, então presumivelmente não é o mesmo problema.
Dito isso, apt show
o show Apt-Manual-Installed: yes
so poderia ser esse o problema? Se sim, como faço para instalá-lo corretamente para que o gerenciador de pacotes o mantenha atualizado?
Edição 2: Olhando para outras postagens/respostas, lembrei-me de como tenho instalado/atualizado. Cada vez que recebo esse alerta, vou ao site de download do Chrome, baixo o pacote x64 .deb mais recente e o instalo comsudo dpkg -i ~/Downloads/google-chrome-stable_current_amd64.deb
Isso provavelmente explica o sinalizador de instalação manual, apt show
mas sou levado a acreditar que isso também deve adicionar automaticamente o repositório do Google para atualizações. Existe uma maneira de verificar se essa parte funcionou?
Edição 3: Saída sudo apt update
aparentemente não mostrando nenhum repositório do Google:
flim@flim:~$ sudo apt update
[sudo] password for flim:
Hit:1 http://gb.archive.ubuntu.com/ubuntu oracular InRelease
Hit:2 http://archive.ubuntu.com/ubuntu oracular InRelease
Get:3 http://archive.ubuntu.com/ubuntu oracular-updates InRelease [126 kB]
Get:4 http://gb.archive.ubuntu.com/ubuntu oracular-updates InRelease [126 kB]
Hit:5 http://gb.archive.ubuntu.com/ubuntu oracular-backports InRelease
Get:6 http://archive.ubuntu.com/ubuntu oracular-updates/main amd64 Packages [62.7 kB]
Get:7 http://gb.archive.ubuntu.com/ubuntu oracular-updates/main amd64 Packages [62.7 kB]
Get:8 http://gb.archive.ubuntu.com/ubuntu oracular-updates/universe amd64 Packages [28.1 kB]
Hit:9 http://security.ubuntu.com/ubuntu oracular-security InRelease
Fetched 406 kB in 6s (65.9 kB/s)
4 packages can be upgraded. Run 'apt list --upgradable' to see them.
flim@flim:~$
Desde a atualização para a versão 24.10, minha tela de login está piscando, embora fique desligada por longos períodos de tempo, e quando fica ligada, dura apenas um segundo.
Às vezes recebo uma mensagem na tela preta dizendo out of range
.
Ainda consigo fazer login digitando minha senha, pois felizmente o Focus exibe por padrão a caixa de entrada de senha, e quando chego na área de trabalho, tudo fica bem.
Alguma ideia de como posso estabilizar meu gerenciador de login ou isso é um bug conhecido e impossível de corrigir no momento?
Recentemente atualizei meu Ubuntu para 24.04. Agora, quando abro o RStudio, recebo esta mensagem de erro:
Não consigo instalar o bspm
pacote. Já tentei a recomendação deste post , mas não funcionou. Também tentei fazer este texto. Finalmente li sobre o problema e encontrei esta informação , mas nenhuma delas funcionou.
Aparentemente, o problema é que o repositório ainda não criou uma URL para o noble.
Talvez seja uma solução , mas também não funcionou.
Quando executo install.packages("bspm") de dentro de uma sessão R, recebo isto:
Error en loadNamespace(x): no hay paquete llamado 'bspm'
Calls: loadNamespace -> withRestarts -> withOneRestart -> doWithOneRestart Ejecución interrumpida
Warning in install.packages: installation of package 'bspm' had non-zero exit status.
The downloaded source packages are in '/tmp/Rtmp04ur7K/downloaded_packages'
Recentemente, mudei para o Linux e estou executando-o em escala de 125%. A maioria dos aplicativos que estou instalando parece borrada e o problema é resolvido quando mudo para escala de 100%, mas tudo parece pequeno e inutilizável. (Consegui consertar o Vs Code, mas o PyCharm ainda está borrado) Por favor, ajude.
Eu instalei o opensearch e o opensearch-dashboard na minha vm ubuntu. Quando tento descobrir os recursos usados pelo opensearch-dashboard com o comando
top -U opensearch
eu apenas entendo
Tasks: 125 total, 1 running, 124 sleeping, 0 stopped, 0 zombie
%Cpu(s): 0,2 us, 0,1 sy, 0,0 ni, 99,6 id, 0,0 wa, 0,1 hi, 0,1 si, 0,0 st
MiB Mem : 3665,1 total, 869,7 free, 1745,8 used, 1049,5 buff/cache
MiB Swap: 0,0 total, 0,0 free, 0,0 used. 1606,2 avail Mem
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
70188 opensea+ 20 0 5078340 1,4g 22956 S 0,3 39,1 2:19.24 java
e eu acho que esse tipo de informação agrega o opensearch E o opensearch-dashboard como posso descobrir apenas a memória, CPU e espaço em disco usados pelo dashboard?
Fundo
Tenho um dual-boot instalado em duas unidades SSD. Uma é o Windows 11 e a outra é o Ubuntu Desktop 24.04.
Ontem, meu sistema Ubuntu travou, e não consigo entrar tty
no shell. Então, tenho que forçar a reinicialização.
Felizmente, meu sistema e todas as unidades de HDD/SSD estão boas.
Infelizmente, um SSD não consegue ser montado automaticamente /media
quando clico nele como antes.
Embora eu possa montá-lo manualmente, ainda quero saber o que aconteceu depois da falha. Espero que este SSD possa ser montado automaticamente como outras unidades HDD/SSD quando eu clicar nele no menu inferior.
Alguém pode me dar algum conselho?
Pistas
journalctl -xe
11月 13 10:20:31 usename-pc tracker-miner-fs-3[23503]: (tracker-extract-3:23503): GLib-GIO-WARNING **: 10:20:31.507: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-er>
11月 13 10:20:43 usename-pc tracker-miner-fs-3[23636]: (tracker-extract-3:23636): GLib-GIO-WARNING **: 10:20:43.119: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-er>
11月 13 10:20:45 usename-pc microsoft-edge.desktop[4901]: Fontconfig error: Cannot load default config file: No such file: (null)
11月 13 10:20:45 usename-pc microsoft-edge.desktop[4901]: [4947:4953:1113/102045.400351:ERROR:ssl_client_socket_impl.cc(892)] handshake failed; returned -1, SSL error code 1, net_error -100
11月 13 10:20:55 usename-pc tracker-miner-fs-3[23686]: (tracker-extract-3:23686): GLib-GIO-WARNING **: 10:20:55.780: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-er>
tail /var/log/syslog
2024-11-13T10:24:30.677338+08:00 usename-pc tracker-miner-fs-3[24194]: (tracker-extract-3:24194): GLib-GIO-WARNING **: 10:24:30.676: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-error-quark, 13)
2024-11-13T10:24:41.383113+08:00 usename-pc tracker-miner-fs-3[24278]: (tracker-extract-3:24278): GLib-GIO-WARNING **: 10:24:41.382: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-error-quark, 13)
2024-11-13T10:24:41.425386+08:00 usename-pc microsoft-edge.desktop[4901]: [4894:4894:1113/102441.425166:ERROR:interface_endpoint_client.cc(725)] Message 0 rejected by interface blink.mojom.WidgetHost
2024-11-13T10:24:52.025510+08:00 usename-pc tracker-miner-fs-3[24369]: (tracker-extract-3:24369): GLib-GIO-WARNING **: 10:24:52.025: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-error-quark, 13)
2024-11-13T10:25:01.018299+08:00 usename-pc CRON[24401]: (root) CMD (command -v debian-sa1 > /dev/null && debian-sa1 1 1)
2024-11-13T10:25:05.211864+08:00 usename-pc tracker-miner-fs-3[24407]: (tracker-extract-3:24407): GLib-GIO-WARNING **: 10:25:05.211: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-error-quark, 13)
2024-11-13T10:25:07.690463+08:00 usename-pc systemd[1]: Starting fwupd-refresh.service - Refresh fwupd metadata and update motd...
2024-11-13T10:25:07.722400+08:00 usename-pc systemd[1]: fwupd-refresh.service: Deactivated successfully.
2024-11-13T10:25:07.722494+08:00 usename-pc systemd[1]: Finished fwupd-refresh.service - Refresh fwupd metadata and update motd.
2024-11-13T10:25:15.936874+08:00 usename-pc tracker-miner-fs-3[24441]: (tracker-extract-3:24441): GLib-GIO-WARNING **: 10:25:15.936: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-error-quark, 13)
2024-11-13T10:25:26.476227+08:00 usename-pc tracker-miner-fs-3[24464]: (tracker-extract-3:24464): GLib-GIO-WARNING **: 10:25:26.476: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-error-quark, 13)
2024-11-13T10:25:37.372215+08:00 usename-pc tracker-miner-fs-3[24484]: (tracker-extract-3:24484): GLib-GIO-WARNING **: 10:25:37.371: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-error-quark, 13)
2024-11-13T10:25:47.479607+08:00 usename-pc tracker-miner-fs-3[24494]: (tracker-extract-3:24494): GLib-GIO-WARNING **: 10:25:47.479: Error creating IO channel for /proc/self/mountinfo: 无效的参数 (g-io-error-quark, 13)
'smartctl' --info --health --capabilities '/dev/sdd'
martctl 7.4 2023-08-01 r5530 [x86_64-linux-6.8.0-48-generic] (local build)
Copyright (C) 2002-23, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Phison Driven SSDs
Device Model: KINGSTON SA400S37480G
Serial Number: xxx
LU WWN Device Id: 5 0026b7 38301c9bc
Firmware Version: SAN20102
User Capacity: 480,103,981,056 bytes [480 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: Solid State Device
TRIM Command: Available
Device is: In smartctl database 7.3/5528
ATA Version is: ACS-3 T13/2161-D revision 4
SATA Version is: SATA 3.2, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Nov 13 10:37:21 2024 CST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 120) seconds.
Offline data collection
capabilities: (0x11) SMART execute Offline immediate.
No Auto Offline data collection support.
Suspend Offline collection upon new
command.
No Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
No Selective Self-test supported.
SMART capabilities: (0x0002) Does not save SMART data before
entering power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 10) minutes.
sudo fsck /dev/sdd
usename@usename-pc:~$ sudo fsck /dev/sdd
fsck,来自 util-linux 2.39.3
e2fsck 1.47.0 (5-Feb-2023)
ext2fs_open2:超级块中的幻数有错
fsck.ext2:超级块无效,正在尝试备份块...
fsck.ext2: 超级块中的幻数有错 尝试打开 /dev/sdd 时
超级块无法被读取,或它未能正确地描述一个有效的 ext2/ext3/ext4 文件系统。
如果设备有效并确实为 ext2/ext3/ext4 文件系统(而非 swap 或 ufs 等格式),
这说明超级块已经损坏,您可能需要指定备选超级块来运行 e2fsck:
e2fsck -b 8193 <设备>
或
e2fsck -b 32768 <设备>
在 /dev/sdd 中发现一个 dos 分区表
sudo blkid
usename@usename-pc:~$ sudo blkid
/dev/sdb2: UUID="081470ff--????---????--ba96-3dcd12b7a0f8" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="fa267313-4dfa-????-????-2c8fa2fe9f12"
/dev/loop1: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop19: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/sdd1: LABEL="code_space" BLOCK_SIZE="512" UUID="A27A6????AE5" TYPE="ntfs" PARTUUID="c832????-01"
/dev/loop17: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop25: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/sdb1: UUID="9F3B--????-" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="dfc51496-????--????--a1cb-723dc731dc8a"
/dev/loop15: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop6: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop23: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop13: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop4: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop21: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop11: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop2: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop0: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop18: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop9: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop26: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/sdc2: PARTLABEL="Microsoft reserved partition" PARTUUID="534d64be--????---????--81cc-b6f5d7c12fc7"
/dev/sdc3: BLOCK_SIZE="512" UUID="3952EC-????-7F3" TYPE="ntfs" PARTLABEL="Basic data partition" PARTUUID="9664f6a5--????---????---????--eeabf27b57bc"
/dev/sdc1: UUID="3C4B--????-" BLOCK_SIZE="512" TYPE="vfat" PARTLABEL="EFI system partition" PARTUUID="5c54a3e0-8-????--????---????--215601e8ef2b"
/dev/loop16: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop7: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop24: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/sda4: BLOCK_SIZE="512" UUID="88042-????-74B8E" TYPE="ntfs" PARTUUID="06cd5035--????---????--b611-df96c85bd394"
/dev/sda2: PARTLABEL="Microsoft reserved partition" PARTUUID="10936ee2-b687--????---????--c0a0b58c79f3"
/dev/sda3: BLOCK_SIZE="512" UUID="74F4FC-????-C86A0" TYPE="ntfs" PARTLABEL="Basic data partition" PARTUUID="24ce83f0--????---????--a60c-7f8a928884d6"
/dev/sda1: UUID="7ADB--????-" BLOCK_SIZE="512" TYPE="vfat" PARTLABEL="EFI system partition" PARTUUID="830a6dbe--????---????--b32d-013e3ef39a08"
/dev/loop14: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop5: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop22: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop12: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop3: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop20: BLOCK_SIZE="131072" TYPE="squashfs"
/dev/loop10: BLOCK_SIZE="131072" TYPE="squashfs"
Resultado
Ainda não descobri por que não consigo montar automaticamente, mas vou usar fstab
para fazer isso
Estou em um servidor Ubuntu 22.04.5 LTS. As portas de rede já estão trunked. Estou tentando configurar uma ponte virtual com um vínculo como escravo usando netplan em uma VLAN 202. Abaixo não está funcionando:
$ cat /etc/netplan/00-bond-bridge-config.yaml
network:
version: 2
renderer: networkd
ethernets:
eno3:
dhcp4: false
eno4:
dhcp4: false
bonds:
bond0:
dhcp4: false
interfaces: [eno3, eno4]
parameters:
mode: active-backup
mii-monitor-interval: 100
vlans:
bond0.202:
id: 202
link: bond0
bridges:
br0:
dhcp4: false
interfaces: [bond0.202]
addresses: [192.168.1.2/24]
routes:
- to: default
via: 192.168.1.1
nameservers:
addresses: [1.1.1.1, 8.8.8.8]
search: []
Não consigo fazer ping no meu host Ubuntu. O que há de errado no meu arquivo yaml?
parece que não consigo fazer o fail2ban funcionar.
Tenho o ufw instalado e funcionando com este status:
~$ sudo ufw status
Status: active
To Action From
-- ------ ----
25/tcp ALLOW Anywhere
2278/tcp ALLOW Anywhere
80,143,443,465,587,993/tcp ALLOW Anywhere
110,995/tcp ALLOW Anywhere
80/tcp ALLOW Anywhere
22/tcp DENY Anywhere
25/tcp (v6) ALLOW Anywhere (v6)
2278/tcp (v6) ALLOW Anywhere (v6)
80,143,443,465,587,993/tcp (v6) ALLOW Anywhere (v6)
110,995/tcp (v6) ALLOW Anywhere (v6)
80/tcp (v6) ALLOW Anywhere (v6)
22/tcp (v6) DENY Anywhere (v6)
Não fiz alterações no jail.conf
arquivo e apenas criei um jail.local
arquivo.
/etc/fail2ban/jail.local
[DEFAULT]
ignoreip = 127.0.0.1/8 ::1/128
[sshd]
#mode = normal
enabled = true
bantime = 1h
port = 2278
filter = sshd
logpath = /var/log/auth.log
maxretry = 5
[postfix]
enabled = true
bantime = 1h
mode = more
port = smtp,465,submission
filter = postfix
logpath = /var/log/mail.log
[postfix-sasl]
enabled = true
bantime = 1h
maxretry = 5
filter = postfix[mode=auth]
port = smtp,465,submission,imap,imaps,pop3,pop3s
logpath = /var/log/mail.log
~$ sudo fail2ban-client status
Status
|- Number of jail: 3
`- Jail list: postfix, postfix-sasl, sshd
~$ sudo fail2ban-client status postfix
Status for the jail: postfix
|- Filter
| |- Currently failed: 0
| |- Total failed: 0
| `- Journal matches: _SYSTEMD_UNIT=postfix.service
`- Actions
|- Currently banned: 0
|- Total banned: 0
`- Banned IP list:
Bani manualmente um IP:
~$ sudo fail2ban-client -vvv set postfix banip 1.2.3.4
+ 32 743F3BD1E080 fail2ban.configreader INFO Loading configs for fail2ban under /etc/fail2ban
+ 32 743F3BD1E080 fail2ban.configreader DEBUG Reading configs for fail2ban under /etc/fail2ban
+ 33 743F3BD1E080 fail2ban.configreader DEBUG Reading config files: /etc/fail2ban/fail2ban.conf
+ 33 743F3BD1E080 fail2ban.configparserinc INFO Loading files: ['/etc/fail2ban/fail2ban.conf']
+ 33 743F3BD1E080 fail2ban.configparserinc TRACE Reading file: /etc/fail2ban/fail2ban.conf
+ 33 743F3BD1E080 fail2ban.configparserinc INFO Loading files: ['/etc/fail2ban/fail2ban.conf']
+ 33 743F3BD1E080 fail2ban.configparserinc TRACE Shared file: /etc/fail2ban/fail2ban.conf
+ 34 743F3BD1E080 fail2ban INFO Using socket file /var/run/fail2ban/fail2ban.sock
+ 34 743F3BD1E080 fail2ban INFO Using pid file /var/run/fail2ban/fail2ban.pid, [INFO] logging to /var/log/fail2ban.log
+ 34 743F3BD1E080 fail2ban HEAVY CMD: ['set', 'postfix', 'banip', '1.2.3.4']
+ 73 743F3BD1E080 fail2ban HEAVY OK : 1
+ 73 743F3BD1E080 fail2ban.beautifier HEAVY Beautify 1 with ['set', 'postfix', 'banip', '1.2.3.4']
1
+ 73 743F3BD1E080 fail2ban DEBUG Exit with code 0
O comando iptables -nL
não mostra que este IP foi banido pelo fail2ban:
~$ sudo iptables -nL
Chain INPUT (policy DROP)
target prot opt source destination
ufw-before-logging-input 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-before-input 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-after-input 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-after-logging-input 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-reject-input 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-track-input 0 -- 0.0.0.0/0 0.0.0.0/0
Chain FORWARD (policy DROP)
target prot opt source destination
ufw-before-logging-forward 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-before-forward 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-after-forward 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-after-logging-forward 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-reject-forward 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-track-forward 0 -- 0.0.0.0/0 0.0.0.0/0
Chain OUTPUT (policy ACCEPT)
target prot opt source destination
ufw-before-logging-output 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-before-output 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-after-output 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-after-logging-output 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-reject-output 0 -- 0.0.0.0/0 0.0.0.0/0
ufw-track-output 0 -- 0.0.0.0/0 0.0.0.0/0
Chain ufw-after-forward (1 references)
target prot opt source destination
Chain ufw-after-input (1 references)
target prot opt source destination
ufw-skip-to-policy-input 17 -- 0.0.0.0/0 0.0.0.0/0 udp dpt:137
ufw-skip-to-policy-input 17 -- 0.0.0.0/0 0.0.0.0/0 udp dpt:138
ufw-skip-to-policy-input 6 -- 0.0.0.0/0 0.0.0.0/0 tcp dpt:139
ufw-skip-to-policy-input 6 -- 0.0.0.0/0 0.0.0.0/0 tcp dpt:445
ufw-skip-to-policy-input 17 -- 0.0.0.0/0 0.0.0.0/0 udp dpt:67
ufw-skip-to-policy-input 17 -- 0.0.0.0/0 0.0.0.0/0 udp dpt:68
ufw-skip-to-policy-input 0 -- 0.0.0.0/0 0.0.0.0/0 ADDRTYPE match dst-type BROADCAST
Chain ufw-after-logging-forward (1 references)
target prot opt source destination
LOG 0 -- 0.0.0.0/0 0.0.0.0/0 limit: avg 3/min burst 10 LOG flags 0 level 4 prefix "[UFW BLOCK] "
Chain ufw-after-logging-input (1 references)
target prot opt source destination
LOG 0 -- 0.0.0.0/0 0.0.0.0/0 limit: avg 3/min burst 10 LOG flags 0 level 4 prefix "[UFW BLOCK] "
Chain ufw-after-logging-output (1 references)
target prot opt source destination
LOG 0 -- 0.0.0.0/0 0.0.0.0/0 limit: avg 3/min burst 10 LOG flags 0 level 4 prefix "[UFW ALLOW] "
Chain ufw-after-output (1 references)
target prot opt source destination
Chain ufw-before-forward (1 references)
target prot opt source destination
ACCEPT 0 -- 0.0.0.0/0 0.0.0.0/0 ctstate RELATED,ESTABLISHED
ACCEPT 1 -- 0.0.0.0/0 0.0.0.0/0 icmptype 3
ACCEPT 1 -- 0.0.0.0/0 0.0.0.0/0 icmptype 11
ACCEPT 1 -- 0.0.0.0/0 0.0.0.0/0 icmptype 12
ACCEPT 1 -- 0.0.0.0/0 0.0.0.0/0 icmptype 8
ufw-user-forward 0 -- 0.0.0.0/0 0.0.0.0/0
Chain ufw-before-input (1 references)
target prot opt source destination
ACCEPT 0 -- 0.0.0.0/0 0.0.0.0/0
ACCEPT 0 -- 0.0.0.0/0 0.0.0.0/0 ctstate RELATED,ESTABLISHED
ufw-logging-deny 0 -- 0.0.0.0/0 0.0.0.0/0 ctstate INVALID
DROP 0 -- 0.0.0.0/0 0.0.0.0/0 ctstate INVALID
ACCEPT 1 -- 0.0.0.0/0 0.0.0.0/0 icmptype 3
ACCEPT 1 -- 0.0.0.0/0 0.0.0.0/0 icmptype 11
ACCEPT 1 -- 0.0.0.0/0 0.0.0.0/0 icmptype 12
ACCEPT 1 -- 0.0.0.0/0 0.0.0.0/0 icmptype 8
ACCEPT 17 -- 0.0.0.0/0 0.0.0.0/0 udp spt:67 dpt:68
ufw-not-local 0 -- 0.0.0.0/0 0.0.0.0/0
ACCEPT 17 -- 0.0.0.0/0 224.0.0.251 udp dpt:5353
ACCEPT 17 -- 0.0.0.0/0 239.255.255.250 udp dpt:1900
ufw-user-input 0 -- 0.0.0.0/0 0.0.0.0/0
Chain ufw-before-logging-forward (1 references)
target prot opt source destination
LOG 0 -- 0.0.0.0/0 0.0.0.0/0 ctstate NEW limit: avg 3/min burst 10 LOG flags 0 level 4 prefix "[UFW AUDIT] "
Chain ufw-before-logging-input (1 references)
target prot opt source destination
LOG 0 -- 0.0.0.0/0 0.0.0.0/0 ctstate NEW limit: avg 3/min burst 10 LOG flags 0 level 4 prefix "[UFW AUDIT] "
Chain ufw-before-logging-output (1 references)
target prot opt source destination
LOG 0 -- 0.0.0.0/0 0.0.0.0/0 ctstate NEW limit: avg 3/min burst 10 LOG flags 0 level 4 prefix "[UFW AUDIT] "
Chain ufw-before-output (1 references)
target prot opt source destination
ACCEPT 0 -- 0.0.0.0/0 0.0.0.0/0
ACCEPT 0 -- 0.0.0.0/0 0.0.0.0/0 ctstate RELATED,ESTABLISHED
ufw-user-output 0 -- 0.0.0.0/0 0.0.0.0/0
Chain ufw-logging-allow (0 references)
target prot opt source destination
LOG 0 -- 0.0.0.0/0 0.0.0.0/0 limit: avg 3/min burst 10 LOG flags 0 level 4 prefix "[UFW ALLOW] "
Chain ufw-logging-deny (2 references)
target prot opt source destination
LOG 0 -- 0.0.0.0/0 0.0.0.0/0 ctstate INVALID limit: avg 3/min burst 10 LOG flags 0 level 4 prefix "[UFW AUDIT INVALID] "
LOG 0 -- 0.0.0.0/0 0.0.0.0/0 limit: avg 3/min burst 10 LOG flags 0 level 4 prefix "[UFW BLOCK] "
Chain ufw-not-local (1 references)
target prot opt source destination
RETURN 0 -- 0.0.0.0/0 0.0.0.0/0 ADDRTYPE match dst-type LOCAL
RETURN 0 -- 0.0.0.0/0 0.0.0.0/0 ADDRTYPE match dst-type MULTICAST
RETURN 0 -- 0.0.0.0/0 0.0.0.0/0 ADDRTYPE match dst-type BROADCAST
ufw-logging-deny 0 -- 0.0.0.0/0 0.0.0.0/0 limit: avg 3/min burst 10
DROP 0 -- 0.0.0.0/0 0.0.0.0/0
Chain ufw-reject-forward (1 references)
target prot opt source destination
Chain ufw-reject-input (1 references)
target prot opt source destination
Chain ufw-reject-output (1 references)
target prot opt source destination
Chain ufw-skip-to-policy-forward (0 references)
target prot opt source destination
DROP 0 -- 0.0.0.0/0 0.0.0.0/0
Chain ufw-skip-to-policy-input (7 references)
target prot opt source destination
DROP 0 -- 0.0.0.0/0 0.0.0.0/0
Chain ufw-skip-to-policy-output (0 references)
target prot opt source destination
ACCEPT 0 -- 0.0.0.0/0 0.0.0.0/0
Chain ufw-track-forward (1 references)
target prot opt source destination
Chain ufw-track-input (1 references)
target prot opt source destination
Chain ufw-track-output (1 references)
target prot opt source destination
ACCEPT 6 -- 0.0.0.0/0 0.0.0.0/0 ctstate NEW
ACCEPT 17 -- 0.0.0.0/0 0.0.0.0/0 ctstate NEW
Chain ufw-user-forward (1 references)
target prot opt source destination
Chain ufw-user-input (1 references)
target prot opt source destination
ACCEPT 6 -- 0.0.0.0/0 0.0.0.0/0 tcp dpt:25
ACCEPT 6 -- 0.0.0.0/0 0.0.0.0/0 tcp dpt:2278
ACCEPT 6 -- 0.0.0.0/0 0.0.0.0/0 multiport dports 80,143,443,465,587,993
ACCEPT 6 -- 0.0.0.0/0 0.0.0.0/0 multiport dports 110,995
ACCEPT 6 -- 0.0.0.0/0 0.0.0.0/0 tcp dpt:80
DROP 6 -- 0.0.0.0/0 0.0.0.0/0 tcp dpt:22
Chain ufw-user-limit (0 references)
target prot opt source destination
LOG 0 -- 0.0.0.0/0 0.0.0.0/0 limit: avg 3/min burst 5 LOG flags 0 level 4 prefix "[UFW LIMIT BLOCK] "
REJECT 0 -- 0.0.0.0/0 0.0.0.0/0 reject-with icmp-port-unreachable
Chain ufw-user-limit-accept (0 references)
target prot opt source destination
ACCEPT 0 -- 0.0.0.0/0 0.0.0.0/0
Chain ufw-user-logging-forward (0 references)
target prot opt source destination
Chain ufw-user-logging-input (0 references)
target prot opt source destination
Chain ufw-user-logging-output (0 references)
target prot opt source destination
Chain ufw-user-output (1 references)
target prot opt source destination
O serviço Fail2ban está em execução.
~$ sudo systemctl status fail2ban.service
● fail2ban.service - Fail2Ban Service
Loaded: loaded (/usr/lib/systemd/system/fail2ban.service; enabled; preset: enabled)
Active: active (running) since Tue 2024-11-12 21:09:28 CET; 1h 6min ago
Docs: man:fail2ban(1)
Main PID: 1001 (fail2ban-server)
Tasks: 9 (limit: 4556)
Memory: 49.7M (peak: 53.2M)
CPU: 10.557s
CGroup: /system.slice/fail2ban.service
└─1001 /usr/bin/python3 /usr/bin/fail2ban-server -xf start
Nov 12 21:09:28 crosis systemd[1]: Started fail2ban.service - Fail2Ban Service.
Nov 12 21:09:29 crosis fail2ban-server[1001]: 2024-11-12 21:09:29,352 fail2ban.configreader [1001]: WARNING 'allowipv6' not defined in 'Definition'. Using default one: 'auto'
Nov 12 21:09:30 crosis fail2ban-server[1001]: Server ready
Estou esquecendo de algo? Estou fazendo algo errado?
Tenho dois repositórios para um site: um para o backend, um para o frontend. Quero copiar arquivos do frontend para o diretório do backend, para que tudo possa ser servido de um só lugar.
Quando executo o build
comando no frontend, uma pasta chamada dist/
é criada. Quero copiar todos esses arquivos para uma pasta com o caminho relativo ../backend/public
. Essa public
pasta pode já conter alguns outros arquivos.
Meu script atual usa nomes codificados para index.html
e e assets/
diretório, mas mais arquivos podem ser adicionados ao longo do tempo, então eu gostaria de uma solução genérica que copie tudo o que não foi alterado dist/
para ../backend/public
.
#!/bin/bash
cd ../backend/public
rm -rf index.html assets
cp ../../frontend/dist/index.html ./
cp -r ../../frontend/dist/assets ./assets