가정 할 수 있습는 조건이 있는 경우 500k 에 로그 지난 15 분하는 것에 대한 더 나은 내 탄력 있는 스 성능
- 10 지수는 개최 이 500k 로그입니다.
- 가는 1 인덱스를 보유 500k 로그와 함께 더 많은 파편입니다.
개선하는 데 도움이 나는 성과 대시보드 누군가의 도움을 받을 수 있는가?
가정 할 수 있습는 조건이 있는 경우 500k 에 로그 지난 15 분하는 것에 대한 더 나은 내 탄력 있는 스 성능
개선하는 데 도움이 나는 성과 대시보드 누군가의 도움을 받을 수 있는가?
tldr 사용 ILM 이것을 처리하기 위하여 당신이 설정한 분할의 크기 사이에 30-50 기가바이트,하자 관리는 모든 이해 당신
더 이상 대답은 지수 있는 문제,그것은 파편
예를 들어 사용하는 경우 10 지수는 1 주 1 복제 분할,그리고 500K 의 이벤트는 500MB,당신은 20 조각으로 25MB 의 데이터습니다. 자원 힙,CPU 그동 방법을 요구하는 관리 이와 같은 경우 동일한 분할된 데이터베이스 및 인덱스 개수지만,50 기가 바이트의 데이터에서는 각 분할
권장 크기의 파편이 30-50 기가바이트,하지만 그에 따라 사용할 경우 무리의 다른 것을 클러스터의 크기 조정,쿼리와 인덱싱 Sla and more. 대부분의 로깅을 사용할 경우,50GB 는 사이에 균형을 유지 밀도와 반응성
공식 웹 사이트 제안을 목표로 분할의 크기 사이에 10GB50GB.500k 로그를 사용 색인(1 분할에 충분하다).을 읽을 수 있는 다음 문서입니다.
https://www.elastic.co/guide/en/elasticsearch/reference/current/size-your-shards.html#shard-size-recommendation