0
我按照指南https://grafana.com/docs/loki/latest/setup/install/helm/install-monolithic/在我的 k8s 集群中安装 loki:
deploymentMode: SingleBinary
loki:
commonConfig:
replication_factor: 1
storage:
type: 'filesystem'
schemaConfig:
configs:
- from: "2024-01-01"
store: tsdb
index:
prefix: loki_index_
period: 24h
object_store: filesystem # we're storing on filesystem so there's no real persistence here.
schema: v13
singleBinary:
replicas: 1
read:
replicas: 0
backend:
replicas: 0
write:
replicas: 0
安装工作“正常”,但如果我执行kubectl describe pod loki-chunks-cache-0
.我在 loki-chunks-cache-0 中看到以下错误:
警告 FailedScheduling 59 秒(24 小时内 x297)默认调度程序 0/2 个节点可用:1 pod 太多,2 内存不足。抢占:0/2 个节点
以及以下资源请求:
memcached:
Image: memcached:1.6.23-alpine
Port: 11211/TCP
Host Port: 0/TCP
Args:
-m 8192
--extended=modern,track_sizes
-I 5m
-c 16384
-v
-u 11211
Limits:
memory: 9830Mi
Requests:
cpu: 500m
memory: 9830Mi
我知道问题是我的 k8s 集群中没有足够的内存。但是我是否可以在 yaml 中指示此缓存的限制/请求以减少这些需求或完全禁用它?
从官方grafana/loki helm图表存储库https://github.com/grafana/loki/tree/main/product/helm/loki我发现memcached-chunks-cache StatefulSet资源由Helm图表中的这个特定值管理:
发现于https://github.com/grafana/loki/blob/main/production/helm/loki/values.yaml#L2979。此外,可以通过以下方式禁用它:
发现于https://github.com/grafana/loki/blob/main/production/helm/loki/values.yaml#L2965。
不幸的是,我发现CPU请求是硬编码的(参考:https ://github.com/grafana/loki/blob/main/development/helm/loki/templates/memcached/_memcached-statefulset.tpl#L101 )。
这就是我的值文件的样子:
这个配置在我的本地集群上运行良好
获取洛基豆荚
希望这会有用!