Last active
February 28, 2020 17:12
-
-
Save AngeloFaella/3c5179be895015649c8f75025db92ab2 to your computer and use it in GitHub Desktop.
Python Web Scraper: get the table of Serie A league from legaseriea.it. I used this scraper in this project: https://github.com/AngeloFaella/serie_A_analysis
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
from bs4 import BeautifulSoup | |
import requests | |
links = ['http://www.legaseriea.it/it/serie-a/classifica/2018-19', | |
'http://www.legaseriea.it/it/serie-a/classifica/2017-18', | |
'http://www.legaseriea.it/it/serie-a/classifica/2016-17', | |
'http://www.legaseriea.it/it/serie-a/classifica/2015-16', | |
'http://www.legaseriea.it/it/serie-a/classifica/2014-15', | |
'http://www.legaseriea.it/it/serie-a/classifica/2013-14', | |
'http://www.legaseriea.it/it/serie-a/classifica/2012-13', | |
'http://www.legaseriea.it/it/serie-a/classifica/2011-12', | |
'http://www.legaseriea.it/it/serie-a/classifica/2010-11', | |
'http://www.legaseriea.it/it/serie-a/classifica/2009-10', | |
'http://www.legaseriea.it/it/serie-a/classifica/2008-09', | |
'http://www.legaseriea.it/it/serie-a/classifica/2007-08', | |
'http://www.legaseriea.it/it/serie-a/classifica/2006-07', | |
'http://www.legaseriea.it/it/serie-a/classifica/2005-06', | |
'http://www.legaseriea.it/it/serie-a/classifica/2004-05', | |
'http://www.legaseriea.it/it/serie-a/classifica/2003-04', | |
'http://www.legaseriea.it/it/serie-a/classifica/2002-03', | |
'http://www.legaseriea.it/it/serie-a/classifica/2001-02', | |
'http://www.legaseriea.it/it/serie-a/classifica/2000-01', | |
'http://www.legaseriea.it/it/serie-a/classifica/1999-00'] | |
def scrape_table(url): | |
# request HTML page | |
user_agent = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.97 Safari/537.36' | |
headers = {"user-agent": user_agent} | |
req = requests.get(url, headers=headers) | |
# get table | |
soup = BeautifulSoup(req.text, "html.parser") | |
table = soup.find("div", {"id": "classifiche"}) | |
table = table.find("table", {"class": "classifica tabella"}) | |
table = table.find("tbody") | |
if table == None: | |
return | |
# extract info from table | |
data = '' | |
dataset = open('serie_A_'+ url[-7:] +'.csv', 'a') | |
rows = table.findAll('tr') | |
for row in rows: | |
cols = row.findAll('td') | |
head = cols[0] | |
data += head.find('span').text + ',' # pos | |
data += str(head.text)[3:].strip() # name | |
cols = cols[1:] | |
for col in cols: # add other stats | |
data += ',' + col.text | |
data += '\n' | |
# write to .csv | |
dataset.write(data) | |
dataset.close() | |
print('Done') | |
### MAIN | |
for link in links: | |
print('Scraping '+link) | |
scrape_table(link) |
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment