147 lines
4.8 KiB
Python
147 lines
4.8 KiB
Python
#coding: utf-8
|
|
import requests
|
|
import json
|
|
from bs4 import BeautifulSoup
|
|
import re
|
|
from time import sleep
|
|
import webbrowser
|
|
import mysql.connector
|
|
from datetime import datetime
|
|
|
|
cerca = "altura"
|
|
|
|
cnx = mysql.connector.connect(
|
|
user='root', password='1234',
|
|
host='192.168.1.22', port=33066,
|
|
database='departiculares_spider'
|
|
)
|
|
|
|
class Anunci:
|
|
def __init__(self, json_text, preu_capturat):
|
|
json_tree = json.loads(json_text, strict=False)
|
|
self.titol = json_tree['name']
|
|
self.descripcio = json_tree['description']
|
|
self.url = json_tree['url']
|
|
self.preu = preu_capturat
|
|
|
|
def te_altura(self):
|
|
regex = ".*(À|Á|à|á|a)tic.*"
|
|
compilador = re.compile(regex, re.IGNORECASE)
|
|
atico = compilador.match(titol)
|
|
regex = ".*(d|D).plex.*"
|
|
compilador = re.compile(regex, re.IGNORECASE)
|
|
duplex = compilador.match(titol)
|
|
return atico or duplex
|
|
|
|
def te_piscina(self):
|
|
regex = ".*pi(c|s|z|sc)ina.*"
|
|
compilador = re.compile(regex, re.IGNORECASE)
|
|
te = compilador.match(desc)
|
|
return te
|
|
|
|
def te_parquing(self):
|
|
regex = ".*p.r(qu|k)in.*"
|
|
compilador = re.compile(regex, re.IGNORECASE)
|
|
te = compilador.match(desc)
|
|
if te == False:
|
|
regex = ".*aparca.*"
|
|
compilador = re.compile(regex, re.IGNORECASE)
|
|
te = compilador.match(desc)
|
|
return te
|
|
|
|
def te_traster(self):
|
|
regex = ".*traster.*"
|
|
compilador = re.compile(regex, re.IGNORECASE)
|
|
te = compilador.match(desc)
|
|
return te
|
|
|
|
def es_chalet(self):
|
|
regex = ".*(C|c)(halet|asa) .*"
|
|
compilador = re.compile(regex, re.IGNORECASE)
|
|
te = compilador.match(titol)
|
|
return te
|
|
|
|
|
|
|
|
headers = {
|
|
"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36"
|
|
}
|
|
base_url = "https://www.departiculares.com/alquiler/barcelona/el-barcelones&priceMax=1200&sizeMin=60"
|
|
|
|
def tractar_anunci(anunci):
|
|
c0 = cnx.cursor()
|
|
c0.execute("SELECT count(*) FROM anuncis WHERE titol=%s", [anunci.titol])
|
|
existance_count = c0.fetchone()
|
|
if existance_count[0] > 0:
|
|
print("--- Preexistent ---")
|
|
else:
|
|
c1 = cnx.cursor()
|
|
c1.execute("INSERT INTO anuncis (titol, preu, url, cerca, data_update, descripcio) VALUES (%s,%s,%s,%s,%s,%s)", [anunci_seleccionat.titol, anunci_seleccionat.preu, anunci_seleccionat.url, cerca, datetime.now().strftime('%Y-%m-%d %H:%M:%S'), anunci_seleccionat.descripcio])
|
|
c1.close()
|
|
cnx.commit()
|
|
print("--- Guardat a BD ---")
|
|
c0.close()
|
|
|
|
|
|
pagina = 1
|
|
pagina_horitzo = 2
|
|
while pagina < pagina_horitzo:
|
|
print("Aranya visitant pàgina " + str(pagina))
|
|
cua_url = ""
|
|
if pagina > 1:
|
|
cua_url = "&page=" + str(pagina)
|
|
url = base_url + cua_url
|
|
|
|
respuesta = requests.get(url, headers=headers)
|
|
soup = BeautifulSoup(respuesta.text, features="lxml")
|
|
resultats = soup.find('ul', class_="list-results")
|
|
if resultats is not None:
|
|
resultats_item = resultats.find_all('li', class_="list-result-item")
|
|
anuncis_list = []
|
|
|
|
for resultat_item in resultats_item:
|
|
preu_txt = resultat_item.find('p', class_="details-price")
|
|
preu = -1
|
|
if preu_txt is not None:
|
|
preu = int(preu_txt.text.strip().replace('.', '').replace('€', ''))
|
|
|
|
if preu > 400:
|
|
res_json = resultat_item.find('script', type='application/ld+json')
|
|
anunci = Anunci(res_json.string, preu)
|
|
titol = anunci.titol
|
|
desc = anunci.descripcio
|
|
|
|
#if anunci.te_parquing() and anunci.te_piscina():
|
|
if anunci.te_altura():
|
|
anuncis_list.append(anunci)
|
|
|
|
for anunci_seleccionat in anuncis_list:
|
|
print("** Anunci **")
|
|
print("Títol: " + anunci_seleccionat.titol)
|
|
print("Descripció: " + anunci_seleccionat.descripcio)
|
|
print("Url: ")
|
|
print(anunci_seleccionat.url)
|
|
if anunci_seleccionat.preu > 0:
|
|
print("Preu: " + str(anunci_seleccionat.preu))
|
|
print("************")
|
|
tractar_anunci(anunci_seleccionat)
|
|
|
|
resultats = soup.find('ul', class_="pager")
|
|
resultats_item = resultats.find_all('a')
|
|
for resultat_item in resultats_item:
|
|
paginador = resultat_item.text
|
|
if paginador.isnumeric():
|
|
pagina_horitzo = int(paginador)
|
|
|
|
print("setejat horitzo a " + str(pagina_horitzo))
|
|
|
|
pagina = pagina + 1
|
|
print("fent una pausa...")
|
|
sleep(10)
|
|
|
|
else:
|
|
print("sembla que no hi ha res a tractar")
|
|
pagina = pagina + 1
|
|
|
|
print("Fi de recorregut")
|
|
cnx.close() |