Het Opzetten van Filebeat en Logstash in DevOps
Wanneer een applicatie logs genereert, is het belangrijk om deze te verzamelen, te verwerken en te analyseren. In DevOps wordt hiervoor vaak de ELK-stack (Elasticsearch, Logstash, Kibana) samen met Filebeat gebruikt. Filebeat leest logs van uw server, Logstash verwerkt en filtert de data, en Elasticsearch slaat deze op voor verdere analyse.
U leert hoe u Filebeat en Logstash configureert om samen te werken met onze Flask-applicatie, zodat alle gebruikersgebeurtenissen correct worden verzameld en naar de ELK-stack worden verzonden.
Hoe het werkt
Filebeat fungeert als een agent op de server waarop uw applicatie draait. Het bewaakt logbestanden en stuurt nieuwe vermeldingen naar Logstash. Logstash ontvangt de logs, verwerkt deze — zoals het parseren van JSON-structuren — en stuurt ze vervolgens door naar Elasticsearch. Elasticsearch slaat de gegevens op en organiseert ze, zodat u eenvoudig kunt zoeken, analyseren en visualiseren in Kibana.
In ons voorbeeld bewaakt Filebeat het app.log-bestand dat door de Flask-applicatie wordt gegenereerd. Logstash verwerkt deze logs en stuurt ze naar Elasticsearch. Elasticsearch maakt een aparte index voor elke dag, genaamd flask-logs-YYYY.MM.DD. Deze dagelijkse indexen helpen u de logs per datum te organiseren, waardoor het eenvoudiger wordt om gebeurtenissen te zoeken, trends te analyseren of problemen van een specifieke dag op te lossen zonder alle logs tegelijk te hoeven doorzoeken.
Filebeat configureren
Maak eerst een configuratiebestand voor Filebeat. Zorg ervoor dat u zich in de map elk-demo
bevindt die u eerder hebt aangemaakt. Voer vervolgens het volgende commando uit om het Filebeat-configuratiebestand te maken en te openen:
Hiermee wordt de editor geopend waarin je de Filebeat-configuratie kunt plakken.
Na het plakken, sla het bestand op met Ctrl + O
, druk op Enter
en sluit af met Ctrl + X
.
Voeg in de editor de volgende configuratie in:
filebeat.yml
Deze configuratie instrueert Filebeat om het bestand /logs/app.log
te monitoren. Elke nieuwe logregel wordt verzonden naar Logstash, dat luistert op poort 5044. Dit zorgt ervoor dat alle gebeurtenissen van de applicatie automatisch worden verzonden voor verwerking en indexering.
Logstash configureren
Maak vervolgens een configuratiebestand voor Logstash aan. Zorg ervoor dat je je in de map elk-demo
bevindt die je eerder hebt aangemaakt. Voer daarna het volgende commando uit om het Logstash configuratiebestand te maken en te openen:
Dit opent de editor waarin je de Logstash-configuratie kunt plakken. Plak de volgende configuratie in het bestand:
logstash.conf
Met deze configuraties zijn Filebeat en Logstash klaar om samen te werken. Filebeat bewaakt de applicatielogs, Logstash filtert en verwerkt deze, en Elasticsearch slaat de gegevens op en indexeert ze, zodat ze klaar zijn voor analyse en visualisatie in Kibana.
1. Wat is de belangrijkste rol van Filebeat in de ELK-stack?
2. Waarom maakt Logstash een aparte index voor elke dag in Elasticsearch?
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Awesome!
Completion rate improved to 3.7
Het Opzetten van Filebeat en Logstash in DevOps
Veeg om het menu te tonen
Wanneer een applicatie logs genereert, is het belangrijk om deze te verzamelen, te verwerken en te analyseren. In DevOps wordt hiervoor vaak de ELK-stack (Elasticsearch, Logstash, Kibana) samen met Filebeat gebruikt. Filebeat leest logs van uw server, Logstash verwerkt en filtert de data, en Elasticsearch slaat deze op voor verdere analyse.
U leert hoe u Filebeat en Logstash configureert om samen te werken met onze Flask-applicatie, zodat alle gebruikersgebeurtenissen correct worden verzameld en naar de ELK-stack worden verzonden.
Hoe het werkt
Filebeat fungeert als een agent op de server waarop uw applicatie draait. Het bewaakt logbestanden en stuurt nieuwe vermeldingen naar Logstash. Logstash ontvangt de logs, verwerkt deze — zoals het parseren van JSON-structuren — en stuurt ze vervolgens door naar Elasticsearch. Elasticsearch slaat de gegevens op en organiseert ze, zodat u eenvoudig kunt zoeken, analyseren en visualiseren in Kibana.
In ons voorbeeld bewaakt Filebeat het app.log-bestand dat door de Flask-applicatie wordt gegenereerd. Logstash verwerkt deze logs en stuurt ze naar Elasticsearch. Elasticsearch maakt een aparte index voor elke dag, genaamd flask-logs-YYYY.MM.DD. Deze dagelijkse indexen helpen u de logs per datum te organiseren, waardoor het eenvoudiger wordt om gebeurtenissen te zoeken, trends te analyseren of problemen van een specifieke dag op te lossen zonder alle logs tegelijk te hoeven doorzoeken.
Filebeat configureren
Maak eerst een configuratiebestand voor Filebeat. Zorg ervoor dat u zich in de map elk-demo
bevindt die u eerder hebt aangemaakt. Voer vervolgens het volgende commando uit om het Filebeat-configuratiebestand te maken en te openen:
Hiermee wordt de editor geopend waarin je de Filebeat-configuratie kunt plakken.
Na het plakken, sla het bestand op met Ctrl + O
, druk op Enter
en sluit af met Ctrl + X
.
Voeg in de editor de volgende configuratie in:
filebeat.yml
Deze configuratie instrueert Filebeat om het bestand /logs/app.log
te monitoren. Elke nieuwe logregel wordt verzonden naar Logstash, dat luistert op poort 5044. Dit zorgt ervoor dat alle gebeurtenissen van de applicatie automatisch worden verzonden voor verwerking en indexering.
Logstash configureren
Maak vervolgens een configuratiebestand voor Logstash aan. Zorg ervoor dat je je in de map elk-demo
bevindt die je eerder hebt aangemaakt. Voer daarna het volgende commando uit om het Logstash configuratiebestand te maken en te openen:
Dit opent de editor waarin je de Logstash-configuratie kunt plakken. Plak de volgende configuratie in het bestand:
logstash.conf
Met deze configuraties zijn Filebeat en Logstash klaar om samen te werken. Filebeat bewaakt de applicatielogs, Logstash filtert en verwerkt deze, en Elasticsearch slaat de gegevens op en indexeert ze, zodat ze klaar zijn voor analyse en visualisatie in Kibana.
1. Wat is de belangrijkste rol van Filebeat in de ELK-stack?
2. Waarom maakt Logstash een aparte index voor elke dag in Elasticsearch?
Bedankt voor je feedback!