我有一个应用程序,我正在使用 AWS 来运行它。我有两个实例。一个已停止,一个正在运行。每个实例都附加了一个卷。我想终止已停止的实例,但我想确保它不会影响应用程序。我的假设是,已停止的实例不会影响应用程序,因为它已停止。
我目前还没有做任何事情,因为我不想弄乱这个应用程序。
我有一个应用程序,我正在使用 AWS 来运行它。我有两个实例。一个已停止,一个正在运行。每个实例都附加了一个卷。我想终止已停止的实例,但我想确保它不会影响应用程序。我的假设是,已停止的实例不会影响应用程序,因为它已停止。
我目前还没有做任何事情,因为我不想弄乱这个应用程序。
我有 3 个实例(node-0
,, )运行 2node-1
个node-2
服务 - 一个是 a websocket
,另一个是 an API
(两个服务在每个实例中运行)。
目标群体设置:
目标群体 | 实例 | 健康检查路径 |
---|---|---|
api-节点-0 | 节点-0 | /某些路径/api/v1/ping |
api-节点-1 | 节点 1 | /某些路径/api/v1/ping |
api-节点-2 | 节点2 | /某些路径/api/v1/ping |
websocket-节点-0 | 节点-0 | /某些路径/websocket/v1/ping |
websocket-节点-1 | 节点 1 | /某些路径/websocket/v1/ping |
websocket-节点-2 | 节点2 | /某些路径/websocket/v1/ping |
听众和规则:
HTTPS:443 监听器
规则:
/some-path/api/*
/some-path/websocket/*
健康检查属性:
负载均衡器属性:
PS如果您需要有关设置的更多信息,请告诉我。
在所有目标组都健康的正常测试期间,ALB 似乎按预期运行。当我想模拟一个节点上的服务之一变得不健康的情况时,问题出现了,我更改了 ie 的运行状况检查路径api-node-1
,它显示为不健康(Error 404
),但流量仍在发送到它。通过访问日志和 CloudWatch 指标(RequestCountPerTarget
)确认。我还尝试模拟不健康的组,通过从实例中删除相关安全组来阻止 ALB 的访问。(Error 400
)
测试方法(针对不健康目标组):使用 curl(10-20 次)或 Grafana k6 负载测试并在访问日志和 Cloudwatch 中监控流量 - 流量仍然被路由到所有实例,其中一个实例显示为不健康。
您可以在此处找到讨论此问题的另一个问题的链接。
在处理跨账户数据副本时遇到了一些困难。具体来说,我正尝试将 S3 存储桶从一个 AWS 账户(在 中eu-west-1
)克隆到另一个 AWS 账户(在 中eu-west-2
)。
我已尝试按照本指南设置存储桶复制,添加复制批处理操作来复制现有文件,并且还按照本指南尝试了 DataSync 作业。
尽管严格遵循了指南:
复制指标显示没有活动,并且 24 小时后目标存储桶仍然为空。
复制批处理操作因原因而中止Job failure rate 100% is above 50%
。
DataSync 作业的 CloudWatch 日志仅提供以下详细信息:finished with status Unable to connect to S3 endpoint
我想知道我是否遗漏了指南中假设已经设置的一些先决条件;例如,在跨账户权限生效之前,是否需要在两个 AWS 账户之间建立某种信任关系?
即,帐户 987654321098 中的预期目标 S3 存储桶具有权限策略,其中包含此代码片段以识别源帐户中的操作角色:
"Sid": "DataSyncCreateS3LocationAndTaskAccess",
"Effect": "Allow",
"Principal": { "AWS": "arn:aws:iam::123456789012:role/source-account-datasync-s3-copy-role" }
..这就是目标账户信任来自其他账户的 IAM 角色所需要的全部内容吗?
对于aws EC2和aliyun实例或其他类似的云计算服务,虚拟机是否保证每次启动时都在同一台物理机上运行,或者它可能会从一台物理机迁移到另一台物理机?
我还知道虚拟机管理程序支持实时迁移,因此我正在运行的 aws/aliyun 实例是否有可能被服务提供商迁移,这可能会导致短时间中断或无响应。
我提出这个问题的原因是:我有一台阿里云服务器,从另一台 aws 服务器收集实时数据包流。每个数据包都有一个发送方时间戳标签。在接收方,接收方使用 (current_local_timestamp - sender_timestamp) 来获取经过的时间。通常这个经过的时间大约为 30~50ms,有时约为 100ms。但在极端情况下,这个经过的时间可能会长达几秒甚至超过 1 分钟,这种情况每月至少发生 2~3 次,通常是在星期五(但并非总是)或一些节假日。
我正在试图找出运输延误严重的原因。
0 我正在尝试使用 AWS 服务来构建我的项目,后端 Java 使用 Docker 作为容器并使用 Maven 作为依赖项,前端使用 Angular 16,现在我有一个带有 6 个子网的 VPC,其中两个是公共的。我有一个具有公共访问权限的 RDS 实例和一个与此 RDS 实例连接的免费套餐 EC2 实例,还没有测试这个连接,所以不确定它是否有效。我正在尝试在 EC2 中构建我的项目,一个带有多个 Java Maven 服务的 Docker Compose Up 命令,其中两个服务具有来自我的 CodeArtifact 存储库的依赖项,但它不仅无法访问此依赖项,即使我正确配置了 settings.xml,当我尝试在 EC2 内部运行它时,获取 CodeArtifact 令牌的命令也会以超时结束,但在我的本地机器上运行良好。我的安全组(即此 EC2 正在使用的安全组)对“0.0.0.0/0”和“::/0”上的所有协议都具有出站权限,并且我的 CodeArtifact 策略允许我的根用户和我的开发用户执行所有操作,我现在正在使用这两个用户。我做错了什么吗?我在这里看到这是可能的,但可能不再可能了?公共子网具有相同的 ACL 配置,尝试添加另一条规则以允许出站和入站流量,但没有成功!
尝试创建 IAM 角色,但同样失败!我创建了一个新实例,尝试了有 IAM 角色和没有 IAM 角色的情况,即使在附加 IAM 角色后,我也超时了!我设法截取了附加 IAM 角色之前和之后的屏幕截图
我已经看到很多从 Windows 文件系统到 S3 存储桶进行单向同步的示例,但我想以另一种方式进行。
我有一个使用常规 aws sync 的系统,但令我有些恐惧的是,本地更改会反映回存储桶。我想不出办法让它只在一个方向上同步。
aws cp 确实有效,但它似乎每次都会获得一个全新的副本,并且存储桶中有半 TB 的数据,从成本和带宽的角度来看这根本不理想,特别是当每天只有几百 MB 的变化时。
有人能指出我解决这个问题的正确方向吗?或者,如果我错过了一个关于这个问题的问题,也许可以指出那个问题(我看过了,但也许我的谷歌搜索能力最近有点生疏了)
运行时terraform apply
出现此错误:
Error: parsing old engine_version: Malformed version: 7.x
│
│ with module.redis_cluster.aws_elasticache_replication_group.replication_group,
│ on ../../../../modules/redis/main.tf line 11, in resource "aws_elasticache_replication_group" "replication_group":
│ 11: resource "aws_elasticache_replication_group" "replication_group" {
│
这似乎是hashicorp/terraform-provider-aws#32252中描述的问题,并且在评论中有详细的解决方法:
- 我们使用通配符语法在 Terraform 中配置了一些 Redis 实例:
6.x
- 有人在 AWS 控制台 UI 中手动更新了 Redis 引擎
7.0.*
- 更新后,代码已更新为
7.x
手动。它与AWS提供商配合良好4.37.0
。- 当我开始在同一个存储库中工作时,我将 AWS 提供程序从 更新
4.37.0
为5.9.0
并遇到了问题:7.x
值和 都不起作用7.0
。这是Redis versions must match <major>.<minor>...
或Error: parsing old engine_version: Malformed version: 7.x
错误。
解决方法继续描述编辑远程状态以修复问题。除了该解决方法之外,还有其他更简单的方法可以解决这个问题吗?
请参阅上面的图片。我的用户有时遇到问题,即使令牌存在并作为标头发送。这是一个 ajax 请求,我确保它将首先 getToken(),然后在返回承诺时继续使用 ajax。为什么在这种情况下,尽管令牌不存在,机器人仍会发出质询(基本上会杀死 ajax)?最近我实施了 AWS Waf + 启用了 Bot Control,我的用户有时(随机)在使用网站时遇到困难。有时他们无法加载页面,直到他们刷新,有时 ajax 会死机,即使使用 getToken() 也是如此。
我已经包含了由 AWS WAF 的应用程序集成提供的 challenge.js 脚本,该脚本还将在浏览时在页面加载时获取/重新获取令牌。
谢谢
我的团队一直在尝试使用 AWS S3 Glacier 存储类存储许多小对象(约 10kB),但发现它的成本比仅将对象存储在标准存储类中要高得多。
从 AWS S3 定价页面上无法清楚了解这些费用来自何处。AWS 定价计算器确实提供了更多信息,但仍然缺乏对这些费用的解释。
例如,对于 S3 Glacier 存储类,定价计算器给出了每月存储 100 GB、平均对象大小为 10kB 的以下数据:
Unit conversions
S3 Glacier Deep Archive Average Object Size: 10 KB x 9.5367432e-7 GB in a KB = 0.0000095367432 GB
Pricing calculations
100 GB per month / 0.0000095367432 GB average item size = 10,485,759.9605 unrounded number of objects
Round up by 1 (10485759.9605) = 10485760 number of objects
10,485,760 number of objects x 32 KB = 335,544,320.00 KB overhead
335,544,320.00 KB overhead / 1048576 KB in a GB = 320.00 GB overhead
320.00 GB overhead x 0.00099 USD = 0.3168 USD (Glacier Deep Archive storage overhead cost for metadata)
Glacier Deep Archive storage overhead cost: 0.3168 USD
10,485,760 number of objects x 8 KB = 83,886,080.00 KB overhead
83,886,080.00 KB overhead / 1048576 KB in a GB = 80.00 GB overhead
Tiered price for: 80.00 GB
80 GB x 0.023 USD = 1.84 USD
Total tier cost = 1.84 USD (S3 Standard storage overhead cost)
S3 Standard storage overhead cost: 1.84 USD
100 GB per month x 0.00099 USD = 0.099 USD (Glacier Deep Archive storage cost)
Glacier Deep Archive storage cost: 0.099 USD
0.3168 USD + 1.84 USD + 0.099 USD = 2.2558 USD (Total Glacier Deep Archive storage cost)
S3 Glacier Deep Archive cost (monthly): 2.26 USD
我正在努力理解这一点。
它提到了“间接成本”。互联网表明这是存储有关所存储对象的元数据的成本。但为什么是 2 位元数据(一个 32 KB,另一个 8KB)?当我在 Glacier Class 中存储时,为什么标准存储使用需要付费?
有人能提供有关这些额外费用的更多详细信息吗?或者如果我错过了 AWS 文档中的某些内容,请为我指明正确的方向?
我有一个实时的 ec2 服务器实例,其中 MySQL 安装在本地(不使用 RDS),还有另一个备份服务器,作为实时服务器的从属运行 MySQL 复制。
我现在正在尝试生成每日自动 SQL 转储,到目前为止,我一直在研究 AWS CLI,以便通过以下方式自动化整个过程:
我让它完全运行起来(命令等等),但我注意到一个问题是,通过 AMI 启动的实例中的 MySQL 非常慢,生成完整备份需要 2-3 倍的时间(与在实时服务器中执行相比)。
我尝试不在备份/从属服务器中执行此操作,因为我们希望备份服务器的数据始终处于准备状态,但生成 mysqldump 将暂时需要暂停从属服务器并稍后恢复(也就是说,将会有 xx 段时间的滞后,其中 xx 是生成 mysql dump 所需的时间)。
有没有更好的解决方案?我们不使用 RDS 主要是因为成本问题,因此我们全部手动完成。
我的目标是按表创建多个 sql 备份文件,从某种意义上说,1 个表 1 个文件,但每个文件在数据方面必须具有相同的截止日期。