Konfigurering av Filebeat og Logstash i DevOps
Når en applikasjon genererer logger, er det viktig å samle inn, behandle og analysere dem. I DevOps brukes ofte ELK-stacken (Elasticsearch, Logstash, Kibana) sammen med Filebeat til dette formålet. Filebeat leser logger fra serveren din, Logstash behandler og filtrerer dataene, og Elasticsearch lagrer dem for videre analyse.
Du vil lære hvordan du konfigurerer Filebeat og Logstash til å fungere med vår Flask-applikasjon slik at alle brukereventer blir riktig samlet inn og sendt til ELK-stacken.
Hvordan det fungerer
Filebeat fungerer som en agent på serveren der applikasjonen din kjører. Den overvåker loggfiler og sender nye oppføringer til Logstash. Logstash mottar loggene, behandler dem — for eksempel ved å analysere JSON-strukturer — og sender dem deretter videre til Elasticsearch. Elasticsearch lagrer og organiserer dataene slik at du enkelt kan søke, analysere og visualisere dem i Kibana.
I vårt eksempel vil Filebeat overvåke app.log-filen som genereres av Flask-applikasjonen. Logstash vil behandle disse loggene og sende dem til Elasticsearch. Elasticsearch oppretter et eget indeks for hver dag, navngitt flask-logs-YYYY.MM.DD. Disse daglige indeksene hjelper deg å organisere loggene etter dato, noe som gjør det enklere å søke etter hendelser, analysere trender eller feilsøke problemer fra en bestemt dag uten å måtte gå gjennom alle loggene samtidig.
Konfigurere Filebeat
Først, opprett en konfigurasjonsfil for Filebeat. Sørg for at du er i elk-demo
-mappen som du opprettet tidligere. Kjør deretter følgende kommando for å opprette og åpne Filebeat-konfigurasjonsfilen:
Dette åpner redigeringsprogrammet hvor du kan lime inn Filebeat-konfigurasjonen.
Etter innliming, lagre filen med Ctrl + O
, trykk Enter
, og avslutt med Ctrl + X
.
Sett inn følgende konfigurasjon i redigeringsprogrammet:
filebeat.yml
Denne konfigurasjonen instruerer Filebeat til å overvåke filen /logs/app.log
. Hver nye loggoppføring sendes til Logstash, som lytter på port 5044. Dette sikrer at alle hendelser fra applikasjonen automatisk sendes for behandling og indeksering.
Konfigurering av Logstash
Opprett deretter en konfigurasjonsfil for Logstash. Sørg for at du befinner deg i mappen elk-demo
som du opprettet tidligere. Kjør deretter følgende kommando for å opprette og åpne Logstash-konfigurasjonsfilen:
Dette åpner redigeringsprogrammet hvor du kan lime inn Logstash-konfigurasjonen. Lim inn følgende konfigurasjon i filen:
logstash.conf
Med disse konfigurasjonene er Filebeat og Logstash klare til å samarbeide. Filebeat overvåker applikasjonsloggene, Logstash filtrerer og behandler dem, og Elasticsearch lagrer og indekserer dataene, slik at de er klare for analyse og visualisering i Kibana.
1. Hva er hovedrollen til Filebeat i ELK-stacken?
2. Hvorfor oppretter Logstash et eget indeks for hver dag i Elasticsearch?
Takk for tilbakemeldingene dine!
Spør AI
Spør AI
Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår
Awesome!
Completion rate improved to 3.7
Konfigurering av Filebeat og Logstash i DevOps
Sveip for å vise menyen
Når en applikasjon genererer logger, er det viktig å samle inn, behandle og analysere dem. I DevOps brukes ofte ELK-stacken (Elasticsearch, Logstash, Kibana) sammen med Filebeat til dette formålet. Filebeat leser logger fra serveren din, Logstash behandler og filtrerer dataene, og Elasticsearch lagrer dem for videre analyse.
Du vil lære hvordan du konfigurerer Filebeat og Logstash til å fungere med vår Flask-applikasjon slik at alle brukereventer blir riktig samlet inn og sendt til ELK-stacken.
Hvordan det fungerer
Filebeat fungerer som en agent på serveren der applikasjonen din kjører. Den overvåker loggfiler og sender nye oppføringer til Logstash. Logstash mottar loggene, behandler dem — for eksempel ved å analysere JSON-strukturer — og sender dem deretter videre til Elasticsearch. Elasticsearch lagrer og organiserer dataene slik at du enkelt kan søke, analysere og visualisere dem i Kibana.
I vårt eksempel vil Filebeat overvåke app.log-filen som genereres av Flask-applikasjonen. Logstash vil behandle disse loggene og sende dem til Elasticsearch. Elasticsearch oppretter et eget indeks for hver dag, navngitt flask-logs-YYYY.MM.DD. Disse daglige indeksene hjelper deg å organisere loggene etter dato, noe som gjør det enklere å søke etter hendelser, analysere trender eller feilsøke problemer fra en bestemt dag uten å måtte gå gjennom alle loggene samtidig.
Konfigurere Filebeat
Først, opprett en konfigurasjonsfil for Filebeat. Sørg for at du er i elk-demo
-mappen som du opprettet tidligere. Kjør deretter følgende kommando for å opprette og åpne Filebeat-konfigurasjonsfilen:
Dette åpner redigeringsprogrammet hvor du kan lime inn Filebeat-konfigurasjonen.
Etter innliming, lagre filen med Ctrl + O
, trykk Enter
, og avslutt med Ctrl + X
.
Sett inn følgende konfigurasjon i redigeringsprogrammet:
filebeat.yml
Denne konfigurasjonen instruerer Filebeat til å overvåke filen /logs/app.log
. Hver nye loggoppføring sendes til Logstash, som lytter på port 5044. Dette sikrer at alle hendelser fra applikasjonen automatisk sendes for behandling og indeksering.
Konfigurering av Logstash
Opprett deretter en konfigurasjonsfil for Logstash. Sørg for at du befinner deg i mappen elk-demo
som du opprettet tidligere. Kjør deretter følgende kommando for å opprette og åpne Logstash-konfigurasjonsfilen:
Dette åpner redigeringsprogrammet hvor du kan lime inn Logstash-konfigurasjonen. Lim inn følgende konfigurasjon i filen:
logstash.conf
Med disse konfigurasjonene er Filebeat og Logstash klare til å samarbeide. Filebeat overvåker applikasjonsloggene, Logstash filtrerer og behandler dem, og Elasticsearch lagrer og indekserer dataene, slik at de er klare for analyse og visualisering i Kibana.
1. Hva er hovedrollen til Filebeat i ELK-stacken?
2. Hvorfor oppretter Logstash et eget indeks for hver dag i Elasticsearch?
Takk for tilbakemeldingene dine!