当前位置:首页 > 科技  > 软件

文本抓取利器,Python和Beautiful Soup爬虫助你事半功倍

来源: 责编: 时间:2023-12-09 15:21:57 354观看
导读一、简介网络爬虫是一项非常抢手的技能。收集、分析和清洗数据是数据科学项目中最重要的部分。今天介绍如何从链接中爬取高质量文本内容,我们使用迭代,从大约700个链接中进行网络爬取。如果想直接跳转到代码部分,可以在

一、简介

网络爬虫是一项非常抢手的技能。收集、分析和清洗数据是数据科学项目中最重要的部分。C5328资讯网——每日最新资讯28at.com

今天介绍如何从链接中爬取高质量文本内容,我们使用迭代,从大约700个链接中进行网络爬取。C5328资讯网——每日最新资讯28at.com

如果想直接跳转到代码部分,可以在下方链接GitHub仓库中找到,同时还会找到一个包含将爬取的700个链接的.csv数据集!C5328资讯网——每日最新资讯28at.com

【GitHub】:https://github.com/StefanSilver3/MediumArticlesCode-byStefanSilver/tree/main/WebScrapingC5328资讯网——每日最新资讯28at.com

二、从单个链接进行网页抓取

首先,导入所需的库。C5328资讯网——每日最新资讯28at.com

from bs4 import BeautifulSoupimport requestsfrom bs4.element import Commentimport urllib.request

如果还没有安装BeautifulSoup库,可以直接在Python代码中这样做。C5328资讯网——每日最新资讯28at.com

pip install beautifulsoup4

然后,开始编码。这里定义两个函数,一个用于检查要排除的内容,另一个用于从网站上爬取内容。C5328资讯网——每日最新资讯28at.com

第一个函数用于查找要排除的元素,代码如下。C5328资讯网——每日最新资讯28at.com

# 要从提取的文本中过滤的标签def tag_visible(element):    if element.parent.name in ['style', 'script', 'head', 'title', 'meta', '[document]']:        return False    if isinstance(element, Comment):        return False    return True

第二个函数将使用这个函数,以确保所有的无用内容都从最终结果中排除,代码如下。C5328资讯网——每日最新资讯28at.com

# 从网页文本中过滤前一个函数中提到的所有标签的函数def text_from_html(body):    soup = BeautifulSoup(body, 'html.parser')    texts = soup.findAll(string=True)    visible_texts = filter(tag_visible, texts)      return u" ".join(t.strip() for t in visible_texts)

接着,可以在一个新链接上测试这两个函数。你可以放置任意链接,不需要使用下面的链接。C5328资讯网——每日最新资讯28at.com

html = urllib.request.urlopen('https://www.artificialintelligence-news.com/2023/11/20/microsoft-recruits-former-openai-ceo-sam-altman-co-founder-greg-brockman/').read()print(text_from_html(html))

网络爬取的内容将会像下面的文本一样。C5328资讯网——每日最新资讯28at.com

图片图片C5328资讯网——每日最新资讯28at.com

截图1:爬取的网站——随机链接C5328资讯网——每日最新资讯28at.com

注意,一些网站会检测到网络爬取活动,并阻止网络爬取尝试。如果发生这种情况,将收到一个403错误,这是“禁止”的代码。C5328资讯网——每日最新资讯28at.com

三、同时爬取多个链接

测试了简单的提取函数,接下来对提供的链接数据集的所有链接进行迭代提取。C5328资讯网——每日最新资讯28at.com

首先,确保获取了在GitHub仓库中找到的数据集。然后,读取数据集并将列名更改为Link,原本的列名是max(page)。C5328资讯网——每日最新资讯28at.com

df = pd.read_csv("furniture_stores_pages.csv")df.rename(columns={"max(page)":"Link"}, inplace=1)

现在,创建一个以0为起始值的变量x,它将在列表中的每个链接上进行迭代。当然元素变量也可以使用。C5328资讯网——每日最新资讯28at.com

x=0df_cnotallow=[]for element in df.iterrows():    try:        url = df["Link"][x]        scraped_text = urllib.request.urlopen(url).read()        df_contents.append(text_from_html(scraped_text))        x=x+1    except:        print("(",x,")","This website could not be scraped-> ",df["Link"][x])        x=x+1

然后,定义一个名为df_contents的列表,它将包含从每个网页中提取的所有可以爬取的文本。C5328资讯网——每日最新资讯28at.com

接下来,遍历每个元素,如果可以访问且包含相关数据,就从中提取信息。这只是对随机链接进行上述测试,但测试的对象是提供的数据集中的所有链接。C5328资讯网——每日最新资讯28at.com

代码中还使用了try-except对无法提取的链接进行跳过。C5328资讯网——每日最新资讯28at.com

现在,检查新列表(df_contents)的长度,查看提取了多少链接。C5328资讯网——每日最新资讯28at.com

len(df_contents)

这个函数返回268,这意味着在700多个网站中只有268个爬取成功。然后,可以使用下面的代码访问并打印第一个被爬取的网站。C5328资讯网——每日最新资讯28at.com

df_contents[0]

这将打印第一个文本,示例如下所示(简短版本):C5328资讯网——每日最新资讯28at.com

图片图片C5328资讯网——每日最新资讯28at.com

截图2:从数据集中爬取的网站C5328资讯网——每日最新资讯28at.com

如果需要的话,也可以使用下面的代码反复打印。每打印完一个元素后,都需要输入任意字符以继续,这样就可以逐一检查每个提取的网站。C5328资讯网——每日最新资讯28at.com

count = 0for element in df_contents:    print(df_contents[count])    print("/n /n---------------------------------------------------------------------------------------- /n /n")        print("Press any key to continue to print df_contents [",count+1,"]")    input()    count= count+1

本文链接:http://www.28at.com/showinfo-26-40655-0.html文本抓取利器,Python和Beautiful Soup爬虫助你事半功倍

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: 微软:VS Code已成为Java巨头!

下一篇: Java高并发详解,死锁的成因与解决方法

标签:
  • 热门焦点
  • SpringBoot中使用Cache提升接口性能详解

    环境:springboot2.3.12.RELEASE + JSR107 + Ehcache + JPASpring 框架从 3.1 开始,对 Spring 应用程序提供了透明式添加缓存的支持。和事务支持一样,抽象缓存允许一致地使用各
  • 如何使用JavaScript创建一只图像放大镜?

    译者 | 布加迪审校 | 重楼如果您曾经浏览过购物网站,可能遇到过图像放大功能。它可以让您放大图像的特定区域,以便浏览。结合这个小小的重要功能可以大大改善您网站的用户体验
  • 一篇文章带你了解 CSS 属性选择器

    属性选择器对带有指定属性的 HTML 元素设置样式。可以为拥有指定属性的 HTML 元素设置样式,而不仅限于 class 和 id 属性。一、了解属性选择器CSS属性选择器提供了一种简单而
  • JVM优化:实战OutOfMemoryError异常

    一、Java堆溢出堆内存中主要存放对象、数组等,只要不断地创建这些对象,并且保证 GC Roots 到对象之间有可达路径来避免垃 圾收集回收机制清除这些对象,当这些对象所占空间超过
  • 梁柱接棒两年,腾讯音乐闯出新路子

    文丨田静 出品丨牛刀财经(niudaocaijing)7月5日,企鹅FM发布官方公告称由于业务调整,将于9月6日正式停止运营,这意味着腾讯音乐长音频业务走向消亡。腾讯在长音频领域还在摸索。为
  • 拼多多APP上线本地生活入口,群雄逐鹿万亿市场

    Tech星球(微信ID:tech618)文 | 陈桥辉 Tech星球独家获悉,拼多多在其APP内上线了“本地生活”入口,位置较深,位于首页的“充值中心”内,目前主要售卖美食相关的
  • iQOO 11S新品发布会

    iQOO将在7月4日19:00举行新品发布会,推出杭州亚运会电竞赛事官方用机iQOO 11S。
  • SN570 NVMe SSD固态硬盘 价格与性能兼具

    SN570 NVMe SSD固态硬盘是西部数据发布的最新一代WD Blue系列的固态硬盘,不仅闪存技术更为精进,性能也得到了进一步的跃升。WD Blue SN570 NVMe SSD的包装外
  • Meta盲目扩张致超万人被裁,重金押注元宇宙而前景未明

    图片来源:图虫创意日前,Meta创始人兼CEO 马克·扎克伯发布公开信,宣布Meta计划裁员超11000人,占其员工总数13%。他公开承认了自己的预判失误:“不仅
Top