在用Python抓取网站数据时,提取出来的网页信息不是今日的信息,这是怎么回事?

2024-05-09

1. 在用Python抓取网站数据时,提取出来的网页信息不是今日的信息,这是怎么回事?

我也看了一下确实是 26号,但是发现网页信息里面隐含了js,估计是放到了js里面了,你去找找吧http://aqicn.org/air-static/jscripts/jqueryui/js/jquery-ui-1.8.18.custom.min.js

在用Python抓取网站数据时,提取出来的网页信息不是今日的信息,这是怎么回事?

2. 新手python抓取网页源码处理

先用id定位,定位到了在用getatribute来获取value

3. python如何抓取网页源代码中的字符串

正则提取
找前后关键字
python可以很方便地抓取网页并过滤网页的内容,那么,如何从如下的网页中提取良玉的博客blog.uouo123.com。

window.quickReplyflag = true;






良玉的博客blog.uouo123.com



如下是核心代码,使用正则表达式实现:
html2 = opener.open(page).read()
allfinds2 = re.findall(r'\r\n(.+?)',html2, re.S)
print allfinds2[0].strip()
第一行:打开链接,page指向的是所要提取的文章标题的链接;
第二行:当读取到了连接的内容后,使用正则表达式进行匹配。这里要匹配的字符串的尾部是,要匹配最近的需要注意下面黑体字部分:

python如何抓取网页源代码中的字符串

4. Python的requests包在抓取页面的时候页面源代码抓取不完全,页面数据不是动态加载的。

您好,首先,sys.setdefaultencoding is evil。
其次,不会用 Requests 就去看文档,不要乱来。
如果 Requests 检测不到正确的编码,那么你告诉它正确的是什么:
response.encoding = 'gbk'
print response.text
原始内容在 response.content 里,bytes,自己想怎么处理就怎么处理。

单个请求完全没必要用 Session。直接 requests.get(xxx) 就可以了。
最后,弄不明白怎么处理编码错误的字符串就仔细想想,或者用 Python 3.x,不要散弹枪编程。
以下是 Python 3。Python 2 在那个字符串前加个 u 告诉它是 unicode 也一样。

5. python抓取的网页源代码中包含反斜杠,怎么处理

上面的反斜杠是字符串中的转义,为什么要去掉?去掉后应该会让url变成无效的吧。
一般使用BeautifulSoup解析网页。创建BeautifuleSoup对象之后,直接取属性就可以。

python抓取的网页源代码中包含反斜杠,怎么处理

6. python爬虫怎么获取动态的网页源码

一个月前实习导师布置任务说通过网络爬虫获取深圳市气象局发布的降雨数据,网页如下:
心想,爬虫不太难的,当年跟zjb爬煎蛋网无(mei)聊(zi)图的时候,多么清高。由于接受任务后的一个月考试加作业一大堆,导师也不催,自己也不急。
但是,导师等我一个月都得让我来写意味着这东西得有多难吧。。。今天打开一看的确是这样。网站是基于Ajax写的,数据动态获取,所以无法通过下载源代码然后解析获得。
从某不良少年写的抓取淘宝mm的例子中收到启发,对于这样的情况,一般可以同构自己搭建浏览器实现。phantomJs,CasperJS都是不错的选择。
导师的要求是获取过去一年内深圳每个区每个站点每小时的降雨量,执行该操作需要通过如上图中的历史查询实现,即通过一个时间来查询,而这个时间存放在一个hidden类型的input标签里,当然可以通过js语句将其改为text类型,然后执行send_keys之类的操作。然而,我失败了。时间可以修改设置,可是结果如下图。

为此,仅抓取实时数据。选取python的selenium,模拟搭建浏览器,模拟人为的点击等操作实现数据生成和获取。selenium的一大优点就是能获取网页渲染后的源代码,即执行操作后的源代码。普通的通过 url解析网页的方式只能获取给定的数据,不能实现与用户之间的交互。selenium通过获取渲染后的网页源码,并通过丰富的查找工具,个人认为最好用的就是find_element_by_xpath("xxx"),通过该方式查找到元素后可执行点击、输入等事件,进而向服务器发出请求,获取所需的数据。

[python] view plain copy
# coding=utf-8  
from testString import *  
from selenium import webdriver  
import string  
import os  
from selenium.webdriver.common.keys import Keys  
import time  
import sys  
default_encoding = 'utf-8'  
if sys.getdefaultencoding() != default_encoding:  
reload(sys)  
sys.setdefaultencoding(default_encoding)  


district_navs = ['nav2','nav1','nav3','nav4','nav5','nav6','nav7','nav8','nav9','nav10']  
district_names = ['福田区','罗湖区','南山区','盐田区','宝安区','龙岗区','光明新区','坪山新区','龙华新区','大鹏新区']  


flag = 1  
while (flag > 0):  
driver = webdriver.Chrome()  
driver.get("hianCe/")  
# 选择降雨量  
driver.find_element_by_xpath("//span[@id='fenqu_H24R']").click()  

filename = time.strftime("%Y%m%d%H%M", time.localtime(time.time())) + '.txt'  
#创建文件  
output_file = open(filename, 'w')  
# 选择行政区  
for i in range(len(district_navs)):  
driver.find_element_by_xpath("//div[@id='" + district_navs[i] + "']").click()  
# print driver.page_source  
timeElem = driver.find_element_by_id("time_shikuang")  
#输出时间和站点名  
output_file.write(timeElem.text + ',')  
output_file.write(district_names[i] + ',')  
elems = driver.find_elements_by_xpath("//span[@onmouseover='javscript:changeTextOver(this)']")  
#输出每个站点的数据,格式为:站点名,一小时降雨量,当日累积降雨量  
for elem in elems:  
output_file.write(AMonitorRecord(elem.get_attribute("title")) + ',')  
output_file.write('\n')  
output_file.close()  
driver.close()  
time.sleep(3600)  
文件中引用的文件testString只是修改输出格式,提取有效数据。[python] view plain copy
#Encoding=utf-8  
def OnlyCharNum(s, oth=''):  
s2 = s.lower()  
fomart = 'abcdefghijklmnopqrstuvwxyz0123456789,.'  
for c in s2:  
if not c in fomart:  
s = s.replace(c, '')  
return s  


def AMonitorRecord(str):  
str = str.split(":")  
return str[0] + "," + OnlyCharNum(str[1])  
一小时抓取一次数据,结果如下:

7. 如何用python解析网页并获得网页真实的源码

Python 2.7版本的话 代码如下:

#!/usr/bin/env python
# -*- coding:utf8 -*-
import urllib
import urllib2
import string
import re

addr1 = 某个网址的地址(string format)
response1 = urllib.urlopen(addr1)
text1 = response1.read()
response1.close()

text1就是网页的源代码,可以print出来看。UTF8的代码是为了确保能正确抓取中文。

如何用python解析网页并获得网页真实的源码

8. 如何使用python或R抓取网页被隐藏的源代码

    隐藏的源代码?不知道你指的是什么?我的理解有两种,一是不在前段显示,但是查看源代码时有,二是,异步加载的内容在前端和源代码中均看不到,第一种很容易解决,想必你指的时第二种,解决方法有三种:
模拟浏览器,动态获取,可以使用大杀器selenium工具
使用这种方法可以实现只要能看到就能抓取到,如鼠标滑过,异步加载等,因为他的行为可以与浏览器一模一样,但是这种方式的效率却是最低的,一般不到实在没有办法的时候不推荐使用。
执行js代码
在python中执行异步加载的js代码,获得一些诸如鼠标滑过,下拉加载更多等,但是现在的网站中都有非常多的js代码,要找到需要执行的目标js代码时非常困难和耗时的,此外python对js的兼容性也不是很好,也不推荐使用。
找到异步加载的json文件,最常用,最方便,最好用的方法,这是我平常抓取动态异步加载网站时最常用的方法,可以解决我99%的问题。具体的使用方法是打开浏览器的开发者工具,转到network选项,之后重新加载网页,在network中的列表中找到加载过程中加载的需要动态异步加载的json文件,以京东为例,如图,第一张找到的是异步加载的库存信息的json文件,第二招找到的是异步加载的评论信息的json文件:



具体更详细的方法可以google或百度