Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Udfordring: Aggregering af Data i Segmenter | Arbejde med Store Datasæt
Håndtering af Store Datamængder med Python
Sektion 1. Kapitel 4
single

single

Udfordring: Aggregering af Data i Segmenter

Stryg for at vise menuen

Når du arbejder med store datasæt, er det ofte nødvendigt at udføre aggregeringer uden at indlæse hele filen i hukommelsen. En almindelig opgave er at summere værdierne i en bestemt kolonne i en meget stor CSV-fil. Da filen muligvis ikke kan være i hukommelsen, kan du behandle den i håndterbare bidder ved hjælp af pandas read_csv()-funktionen med parameteren chunksize.

For hver bid beregner du summen af den ønskede kolonne og aggregerer derefter disse delsummer for at få det samlede resultat. Denne metode er effektiv og skalerbar og gør det muligt at håndtere filer af stort set enhver størrelse, så længe hver bid passer i hukommelsen.

Opgave

Swipe to start coding

Skriv en funktion, der returnerer den samlede sum af en specificeret kolonne i en stor CSV-fil ved at læse filen i bidder.

  • Beregn summen af den specificerede kolonne for hver bid.
  • Saml summerne fra alle bidder for at beregne den samlede sum.
  • Returnér den samlede sum som én enkelt værdi.

Løsning

Switch to desktopSkift til skrivebord for at øve i den virkelige verdenFortsæt der, hvor du er, med en af nedenstående muligheder
Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 4
single

single

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

some-alt