Työskentely Tiettyjen Elementtien Kanssa
HTML-dokumentin selaaminen Python-attribuuttien avulla palauttaa vain tietyn elementin ensimmäisen esiintymän. Mutta entä jos olet kiinnostunut elementin ensimmäisestä esiintymästä etkä tiedä sen koko polkua? Tällaisissa tapauksissa voit käyttää .find()
-metodia, jolle välitetään tunniste (ilman < >
-sulkuja) merkkijonona. Esimerkiksi etsitään ensimmäinen <div>
-elementti HTML-dokumentista.
123456789101112# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/jesus.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") print(soup.find("div"))
Lisäksi voit hakea kaikki tietyn elementin esiintymät käyttämällä .find_all()
-metodia. Tämä palauttaa listan esiintymistä. Esimerkiksi etsitään kaikki <p>
-tunnisteet HTML-dokumentista.
123456789101112# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/jesus.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") print(soup.find_all("p"))
Voit käyttää myös .find_all()
-metodia löytääksesi useita tageja antamalla listan tageista. Esimerkiksi kerätään kaikki <div>
- ja <title>
-elementit.
12345678910111213# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/page.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") for el in soup.find_all(["div", "title"]): print(el)
Kiitos palautteestasi!
Kysy tekoälyä
Kysy tekoälyä
Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme
Awesome!
Completion rate improved to 4.35
Työskentely Tiettyjen Elementtien Kanssa
Pyyhkäise näyttääksesi valikon
HTML-dokumentin selaaminen Python-attribuuttien avulla palauttaa vain tietyn elementin ensimmäisen esiintymän. Mutta entä jos olet kiinnostunut elementin ensimmäisestä esiintymästä etkä tiedä sen koko polkua? Tällaisissa tapauksissa voit käyttää .find()
-metodia, jolle välitetään tunniste (ilman < >
-sulkuja) merkkijonona. Esimerkiksi etsitään ensimmäinen <div>
-elementti HTML-dokumentista.
123456789101112# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/jesus.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") print(soup.find("div"))
Lisäksi voit hakea kaikki tietyn elementin esiintymät käyttämällä .find_all()
-metodia. Tämä palauttaa listan esiintymistä. Esimerkiksi etsitään kaikki <p>
-tunnisteet HTML-dokumentista.
123456789101112# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/jesus.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") print(soup.find_all("p"))
Voit käyttää myös .find_all()
-metodia löytääksesi useita tageja antamalla listan tageista. Esimerkiksi kerätään kaikki <div>
- ja <title>
-elementit.
12345678910111213# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/page.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") for el in soup.find_all(["div", "title"]): print(el)
Kiitos palautteestasi!