首页 前端知识 分享一个基于python的租房数据分析与可视化系统Hadoop大数据源码(源码、调试、LW、开题、PPT)

分享一个基于python的租房数据分析与可视化系统Hadoop大数据源码(源码、调试、LW、开题、PPT)

2024-08-27 21:08:03 前端知识 前端哥 1003 900 我要收藏

💕💕作者:计算机源码社
💕💕个人简介:本人 八年开发经验,擅长Java、Python、PHP、.NET、Node.js、Android、微信小程序、爬虫、大数据、机器学习等,大家有这一块的问题可以一起交流!
💕💕学习资料、程序开发、技术解答、文档报告
💕💕如需要源码,可以扫取文章下方二维码联系咨询

💕💕Java项目
💕💕微信小程序项目
💕💕Android项目
💕💕Python项目
💕💕PHP项目
💕💕ASP.NET项目
💕💕Node.js项目
💕💕选题推荐

项目实战|python安居客租房数据分析与可系统hadoop

文章目录

  • 1、选题背景
  • 2、研究目的和意义
  • 3、系统功能设计
  • 4、系统页面设计
  • 5、参考文献
  • 6、核心代码

1、选题背景

  随着城市化进程的加速,租房市场逐渐成为许多人关注的焦点,尤其是在大中城市中,租房需求持续增长。然而,租房市场信息复杂,房源数量庞大且分布广泛,租房者在选择时往往面临信息不对称、价格不透明等问题。与此同时,互联网技术的发展使得大量租房信息可以通过网络获取,但这些信息往往分散且难以系统化利用。因此,利用现代技术手段对租房数据进行系统化采集、分析与展示,成为提升租房市场透明度和效率的迫切需求。

2、研究目的和意义

  租房数据分析与可视化系统的主要目的是通过构建一个基于Python、Flask和Echarts的综合性租房数据分析与可视化系统,实现对安居客网站上租房数据的自动化采集、处理和存储,并以直观、易懂的方式展示分析结果。通过本系统,用户能够清晰地看到房源价格、面积、楼层、地址、格局等关键信息的分布情况,帮助租房者做出更加明智的决策。同时,系统还提供了房屋信息管理、用户管理、个人信息管理等功能,进一步提升了用户在使用过程中的便利性和效率。

  租房数据分析与可视化系统的开发不仅能够为租房者提供强有力的市场数据支持,还可以为房地产中介公司和政策制定者提供详实的数据分析工具,帮助他们更好地理解市场动态,制定合理的营销策略和政策。通过数据的系统化管理与大屏可视化展示,系统显著提升了租房市场的信息透明度和数据利用效率,减少了信息不对称带来的决策风险。系统的开发过程也展示了如何将Python、Flask、Scrapy、MySQL和Echarts等技术集成应用于实际问题,为其他领域的类似研究提供了参考和借鉴。

3、系统功能设计

基于Python的租房数据分析与可视化系统的研究内容主要包括以下三个方面:

数据采集与预处理:本研究的首要任务是通过Scrapy爬虫技术从安居客网站获取大量的租房相关数据。爬取的数据将包括房源价格、房屋面积、楼层、地址、房屋格局、发布时间等关键信息。由于网络数据通常存在冗余、噪声和不一致的情况,研究内容将集中在如何提高爬虫的效率、确保数据的完整性和准确性。数据采集完成后,还需进行数据预处理,包括数据清洗、格式化、缺失值填补等,以保证数据的质量,为后续的数据分析提供可靠的基础。

数据存储与管理:研究的第二个内容是对采集到的租房数据进行存储和管理。选择MySQL作为数据存储的后台,将爬取和处理后的数据按照预定的数据库结构进行存储。研究将探讨如何设计适合的数据库结构,使得数据存储高效且便于后续查询。同时,研究内容还包括数据的增量更新策略,确保数据库中数据的实时性和完整性。为了满足系统在高并发环境下的稳定运行,研究将探索数据库的优化和性能调优方法。

数据分析与可视化:研究的核心部分在于如何利用Python和Echarts技术对租房数据进行分析和可视化展示。研究内容包括开发多维度的数据分析模块,如房源价格分布分析、房屋面积统计、楼层分布情况、地理位置分析、房屋格局分布以及租房市场趋势分析等。这些分析将以图表、地图和词云等多种可视化形式展现,帮助用户直观理解租房市场的各项指标。研究还将探讨如何在Flask框架下实现这些可视化组件的动态展示和交互功能,最终构建一个用户友好的租房数据分析与展示平台。

4、系统页面设计

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
如需要源码,可以扫取文章下方二维码联系咨询

5、参考文献

[1]周海伟.基于人脸识别大数据的杭州公租房违规行为特征分析与应用研究[J].科技通报,2022,38(09):41-46.DOI:10.13774/j.cnki.kjtb.2022.09.007.
[2]左铭书.基于数据挖掘的在线短租房销量影响因素分析[D].山东师范大学,2022. DOI:10.27280/d.cnki.gsdsu.2022.000414.
[3]李涛.基于Python的租房信息可视化及价格预测[J].现代信息科技,2021,5(16):96-99.DOI:10.19850/j.cnki.2096-4706.2021.16.024.
[4]武帅,张苗,夏换,等.K-Means聚类和时间序列的在线短租共享经济分析[J].信息技术与信息化,2021,(08):41-46.
[5]陈永俊,夏艳锋,高宇航,等.基于NLP技术的警情文本数据分析应用[J].警察技术,2021,(02):39-42.
[6]刘艾旺.基于电力营销大数据的用电客户精准营销[D].浙江大学,2021. DOI:10.27461/d.cnki.gzjdx.2021.002552.
[7]王慧东.数据挖掘技术在租房数据中的应用研究[D].昆明理工大学,2020. DOI:10.27200/d.cnki.gkmlu.2020.000952.
[8]岳福梅,郭欣,张丽坤,等.基于居民用水数据的实有人口估测算法[J].信息技术与信息化,2019,(08):86-89.
[9]大数据分析Airbnb租房[J].中国科技信息,2019,(13):8-9.
[10]郅臻.昆明勘测设计研究院职工宿舍管理系统的研究与分析[D].云南大学,2018.
[11]韩学伟.房产经纪人网络营销系统的设计与实现[D].山东大学,2018.
[12]黄文柱.三明学院公租房管理信息系统的研究与分析[D].云南大学,2017.
[13]罗腾.公共租赁住房管理系统的研究与分析[D].云南大学,2016.
[14]梅承茏.房产中介管理系统的研究与分析[D].云南大学,2016.
[15]王惠平.基于数据挖掘的公租房管理系统设计与实现[D].苏州大学,2016.
[16]秦欣欣.潍坊市住房保障管理系统的设计与实现[D].山东大学,2015.
[17]杨文碧.昆明市公共租赁住房管理信息系统的研究与分析[D].云南大学,2015.
[18]兰伟.房地产中介公司租房管理信息系统设计与实现[D].电子科技大学,2014.

6、核心代码

# # -*- coding: utf-8 -*-

# 数据爬取文件

import scrapy
import pymysql
import pymssql
from ..items import ZufangItem
import time
from datetime import datetime,timedelta
import datetime as formattime
import re
import random
import platform
import json
import os
import urllib
from urllib.parse import urlparse
import requests
import emoji
import numpy as np
import pandas as pd
from sqlalchemy import create_engine
from selenium.webdriver import ChromeOptions, ActionChains
from scrapy.http import TextResponse
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
# 租房
class ZufangSpider(scrapy.Spider):
    name = 'zufangSpider'
    spiderUrl = 'https://m.anjuke.com/zufang/m/house/api_houselist_data_Jgs?page={}&search_firstpage=1&search_param=%7B%22city_id%22%3A3%2C%22platform%22%3A3%2C%22select_type%22%3A1%2C%22page_size%22%3A30%2C%22cityDomain%22%3A%22gz%22%2C%22cityListName%22%3A%22gz%22%2C%22sid%22%3A%22d0548cba8e891a9978f6c74d3fafb675%22%7D&font_encrypt='
    start_urls = spiderUrl.split(";")
    protocol = ''
    hostname = ''
    realtime = False

    headers = {
        "Cookie":"输入自己的cookie"
    }

    def __init__(self,realtime=False,*args, **kwargs):
        super().__init__(*args, **kwargs)
        self.realtime = realtime=='true'

    def start_requests(self):

        plat = platform.system().lower()
        if not self.realtime and (plat == 'linux' or plat == 'windows'):
            connect = self.db_connect()
            cursor = connect.cursor()
            if self.table_exists(cursor, '9krj0476_zufang') == 1:
                cursor.close()
                connect.close()
                self.temp_data()
                return
        pageNum = 1 + 1
        for url in self.start_urls:
            if '{}' in url:
                for page in range(1, pageNum):
                    next_link = url.format(page)
                    yield scrapy.Request(
                        url=next_link,
                        headers=self.headers,
                        callback=self.parse
                    )
            else:
                yield scrapy.Request(
                    url=url,
                    headers=self.headers,
                    callback=self.parse
                )

    # 列表解析
    def parse(self, response):
        _url = urlparse(self.spiderUrl)
        self.protocol = _url.scheme
        self.hostname = _url.netloc
        plat = platform.system().lower()
        if not self.realtime and (plat == 'linux' or plat == 'windows'):
            connect = self.db_connect()
            cursor = connect.cursor()
            if self.table_exists(cursor, '9krj0476_zufang') == 1:
                cursor.close()
                connect.close()
                self.temp_data()
                return
        data = json.loads(response.body)
        try:
            list = data["data"]["list"]
        except:
            pass
        for item in list:
            fields = ZufangItem()


            try:
                fields["title"] = str( item["property"]["base"]["title"])

            except:
                pass
            try:
                fields["photo"] = str( item["property"]["base"]["default_photo"])

            except:
                pass
            try:
                fields["postdate"] = str( item["property"]["base"]["post_date"])

            except:
                pass
            try:
                fields["renttype"] = str( item["property"]["base"]["rent_type"])

            except:
                pass
            try:
                fields["price"] = float( item["property"]["base"]["attribute"]["price"])
            except:
                pass
            try:
                fields["areanum"] = float( item["property"]["base"]["attribute"]["area_num"])
            except:
                pass
            try:
                fields["floor"] = int( item["property"]["base"]["attribute"]["floor"])
            except:
                pass
            try:
                fields["geju"] = str( item["property"]["base"]["attribute"]["room_num"]+"室"+item["property"]["base"]["attribute"]["toilet_num"]+"厅")

            except:
                pass
            try:
                fields["address"] = str( item["community"]["base"]["name"])

            except:
                pass
            try:
                fields["laiyuan"] = str("https://gz.zu.anjuke.com/fangyuan/"+str( item["property"]["base"]["house_id"]))

            except:
                pass

            yield fields

    # 详情解析
    def detail_parse(self, response):
        fields = response.meta['fields']
        return fields

    # 数据清洗
    def pandas_filter(self):
        engine = create_engine('mysql+pymysql://root:123456@localhost/spider9krj0476?charset=UTF8MB4')
        df = pd.read_sql('select * from zufang limit 50', con = engine)

        # 重复数据过滤
        df.duplicated()
        df.drop_duplicates()

        #空数据过滤
        df.isnull()
        df.dropna()

        # 填充空数据
        df.fillna(value = '暂无')

        # 异常值过滤

        # 滤出 大于800 和 小于 100 的
        a = np.random.randint(0, 1000, size = 200)
        cond = (a<=800) & (a>=100)
        a[cond]

        # 过滤正态分布的异常值
        b = np.random.randn(100000)
        # 3σ过滤异常值,σ即是标准差
        cond = np.abs(b) > 3 * 1
        b[cond]

        # 正态分布数据
        df2 = pd.DataFrame(data = np.random.randn(10000,3))
        # 3σ过滤异常值,σ即是标准差
        cond = (df2 > 3*df2.std()).any(axis = 1)
        # 不满⾜条件的⾏索引
        index = df2[cond].index
        # 根据⾏索引,进⾏数据删除
        df2.drop(labels=index,axis = 0)

    # 去除多余html标签
    def remove_html(self, html):
        if html == None:
            return ''
        pattern = re.compile(r'<[^>]+>', re.S)
        return pattern.sub('', html).strip()

    # 数据库连接
    def db_connect(self):
        type = self.settings.get('TYPE', 'mysql')
        host = self.settings.get('HOST', 'localhost')
        port = int(self.settings.get('PORT', 3306))
        user = self.settings.get('USER', 'root')
        password = self.settings.get('PASSWORD', '123456')

        try:
            database = self.databaseName
        except:
            database = self.settings.get('DATABASE', '')

        if type == 'mysql':
            connect = pymysql.connect(host=host, port=port, db=database, user=user, passwd=password, charset='utf8')
        else:
            connect = pymssql.connect(host=host, user=user, password=password, database=database)
        return connect

    # 断表是否存在
    def table_exists(self, cursor, table_name):
        cursor.execute("show tables;")
        tables = [cursor.fetchall()]
        table_list = re.findall('(\'.*?\')',str(tables))
        table_list = [re.sub("'",'',each) for each in table_list]

        if table_name in table_list:
            return 1
        else:
            return 0

    # 数据缓存源
    def temp_data(self):

        connect = self.db_connect()
        cursor = connect.cursor()
        sql = '''
            insert into `zufang`(
                id
                ,title
                ,photo
                ,postdate
                ,renttype
                ,price
                ,areanum
                ,floor
                ,geju
                ,address
                ,laiyuan
            )
            select
                id
                ,title
                ,photo
                ,postdate
                ,renttype
                ,price
                ,areanum
                ,floor
                ,geju
                ,address
                ,laiyuan
            from `9krj0476_zufang`
            where(not exists (select
                id
                ,title
                ,photo
                ,postdate
                ,renttype
                ,price
                ,areanum
                ,floor
                ,geju
                ,address
                ,laiyuan
            from `zufang` where
                `zufang`.id=`9krj0476_zufang`.id
            ))
        '''

        cursor.execute(sql)
        connect.commit()
        connect.close()

💕💕作者:计算机源码社
💕💕个人简介:本人 八年开发经验,擅长Java、Python、PHP、.NET、Node.js、Android、微信小程序、爬虫、大数据、机器学习等,大家有这一块的问题可以一起交流!
💕💕学习资料、程序开发、技术解答、文档报告
💕💕如需要源码,可以扫取文章下方二维码联系咨询

转载请注明出处或者链接地址:https://www.qianduange.cn//article/17122.html
评论
发布的文章

安装Nodejs后,npm无法使用

2024-11-30 11:11:38

大家推荐的文章
会员中心 联系我 留言建议 回顶部
复制成功!