200字范文,内容丰富有趣,生活中的好帮手!
200字范文 > 【Java代码】京东商品全部分类数据获取(建表语句+Jar包依赖+树结构封装+爬虫源代码)

【Java代码】京东商品全部分类数据获取(建表语句+Jar包依赖+树结构封装+爬虫源代码)

时间:2019-04-01 14:06:27

相关推荐

【Java代码】京东商品全部分类数据获取(建表语句+Jar包依赖+树结构封装+爬虫源代码)

【资源链接】

链接:/s/15fuerPIQgmwV1MZEts8jEQ

提取码:6psl

【包含文件】

1.说明

当前项目需要用到商品分类数据,在网上查了淘宝和京东的首页,京东 /allSort.aspx 的数据更容易获取。

2.实现

2.1 建表语句

项目用的是GreenPlum数据库,其他类型的数据库建表小伙伴儿们自己动手啊 😄

-- 建表CREATE TABLE "data_commodity_classification" ( "id" VARCHAR ( 32 ), "parent_id" VARCHAR ( 32 ), "level" int2, "name" VARCHAR ( 64 ), "merger_name" VARCHAR ( 255 ) );-- 注释COMMENT ON TABLE "data_commodity_classification" IS '3级商品分类数据表';COMMENT ON COLUMN "data_commodity_classification"."level" IS '类别等级';COMMENT ON COLUMN "data_commodity_classification"."name" IS '商品分类';COMMENT ON COLUMN "data_commodity_classification"."merger_name" IS '商品类别组合名';

2.2 Jar包依赖

jsoup是必须的,项目使用了mybatis-plus在保存对象时可以调用.saveBatch()方法,不是必须的。

<!--不用纠结于版本--><dependency><groupId>org.jsoup</groupId><artifactId>jsoup</artifactId><version>1.10.2</version></dependency><!--不是必须的--><dependency><groupId>com.baomidou</groupId><artifactId>mybatis-plus-boot-starter</artifactId><version>3.3.0</version></dependency>

2.3 对象封装

用了lombok为的是在构建对象时用builder来简化代码:

@Data@EqualsAndHashCode(callSuper = false)@Accessors(chain = true)@ApiModel(value="DataCommodityClassification对象", description="")@Builderpublic class DataCommodityClassification implements Serializable {private static final long serialVersionUID=1L;private String id;private String parentId;@ApiModelProperty(value = "类别等级")private Integer level;@ApiModelProperty(value = "商品分类")private String name;@ApiModelProperty(value = "商品类别组合名")private String mergerName;}

2.4 爬虫源代码

html 页面标签:

数据获取逻辑:清除历史数据>爬取最新数据并封装>保存最新数据。

public boolean getCommodityClassificationData() throws IOException {// 首先清除历史数据LambdaQueryWrapper<DataCommodityClassification> lambdaQuery = Wrappers.lambdaQuery(DataCommodityClassification.class);dataCommodityClassificationService.remove(lambdaQuery);// 处理树结构ID【随手就写了 不知道有没有更好的方法】AtomicInteger atomicIntegerOne = new AtomicInteger();AtomicInteger atomicIntegerTwo = new AtomicInteger();AtomicInteger atomicIntegerThree = new AtomicInteger();// 结果数据List<DataCommodityClassification> dataCommodityClassificationList = new ArrayList<>();// ************* 以下是爬虫代码 *************// 地址信息String url = "/allSort.aspx";Document document = Jsoup.parse(new URL(url), 300000);// 获取包含所有分类数据的根元素Element root = document.getElementsByClass("category-items clearfix").get(0);// 获取一级分类标签数据Elements levelOne = root.getElementsByClass("category-item m");levelOne.forEach(one -> {String levelOneData = one.getElementsByClass("item-title").get(0).child(2).text();String oneId = "" + atomicIntegerOne.getAndIncrement();dataCommodityClassificationList.add(DataCommodityClassification.builder().id(oneId).parentId(null).level(0).name(levelOneData).build());// 获取二级分类标签数据Elements levelTwo = one.getElementsByClass("items").get(0).getElementsByTag("dl");levelTwo.forEach(two -> {String levelTwoData = two.getElementsByTag("dt").text();String twoId = oneId + atomicIntegerTwo.getAndIncrement();String mergerNameTwo = levelOneData + "," + levelTwoData;dataCommodityClassificationList.add(DataCommodityClassification.builder().id(twoId).parentId(oneId).level(1).name(levelTwoData).mergerName(mergerNameTwo).build());// 获取三级级分类标签数据Elements levelThree = two.getElementsByTag("dd").get(0).children();levelThree.forEach(three -> {// 获取三级分类信息String levelThreeData = three.text();String threeId = twoId + atomicIntegerThree.getAndIncrement();String mergerNameThree = mergerNameTwo + "," + levelThreeData;dataCommodityClassificationList.add(DataCommodityClassification.builder().id(threeId).parentId(twoId).level(2).name(levelThreeData).mergerName(mergerNameThree).build());});});});// 保存最新数据boolean isSaveSuccess = dataCommodityClassificationService.saveBatch(dataCommodityClassificationList);return isSaveSuccess;}

3.结果

一级分类的parent_idmerger_name没有进行处理,不知道在业务使用的过程中有没有问题。

提供了csv和sql格式的数据,爬取日期是0310,需要最新数据的话就需要小伙伴儿们运行爬虫代码获取了。

【Java代码】京东商品全部分类数据获取(建表语句+Jar包依赖+树结构封装+爬虫源代码)包含csv和sql格式数据下载可用

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。