本文介绍: 在此实验中,我们使用Glue 的爬网程序自动解析存储s3桶中的原始数据自动创建了表。通过Glue数据库中的表,我们可以使用Athena对表进行查询(Athena每次检索对应的s3桶数据,按检索收费)。接下来我们会对原始数据进行转换清洗以及分区操作,以及使用API Gateway+Lambda实现一个服务架构通过API查询数据。

1 通过Athena查询s3中的数据

实验使用s3作为数据源

ETL:

E    extract         输入
T    transform     转换
L    load             输出

1.1 架构图

在这里插入图片描述

1.2 创建Glue数据库

首先我们需要创建一个数据库我们将会使用爬网程序填充我们的数据目录

步骤 图例
1、入口 在这里插入图片描述
2、创建数据库 只需输入一个数据库名称即可 在这里插入图片描述
3、结果 在这里插入图片描述

1.3 创建爬网程序

任务中,我们经常会使用Glue爬网程序填充我们的数据目录
爬虫可以一次运行爬取个数存储。在爬取完成后,我们会在数据目录看到爬虫创建一个多个表。
创建表后,我们可以接下来的Athena查询或ETL作业中使用表来作为源或目标了。

步骤 图例
1、入口 在这里插入图片描述
2、输入爬虫名称 在这里插入图片描述
3、选择数据源类型(Data Stores:创建,Existing catalog tables:更新选择爬取类型(Crawl all folders:爬取全部文件夹,Crawl new folders only:只爬取新文件夹,Crawl changed folders indentified by Amazon S3 Event Notifications:只爬取S3事件通知的有变更文件夹 在这里插入图片描述
4、选择s3 (可对s3中的需要爬取的数据进行筛选 在这里插入图片描述
5、创建或选择爬网程序IAM角色(需要有对应S3与Glue权限 在这里插入图片描述
6、对于不确定实时数据或许要定时更新的数据,可按需选择频率;若只需创建表结构,可选择按需运行 在这里插入图片描述
7、确认 在这里插入图片描述

此时,数据库与爬网程序已准备完毕。
我们将会运行爬网程序自动分析数据结构并创建表。

1.4 创建表

如果对待爬取数据结构未知,或者结构复杂字段繁杂,则使用“爬网程序创建表”;对于对待爬取数据结构清晰明了的,可以使用“手动创建表”模式

1.4.1 爬网程序创建表

步骤 图例
1、运行                          在这里插入图片描述
2、运行 在这里插入图片描述
3、运行完毕 在这里插入图片描述
4、运行结果 在这里插入图片描述
5、表结构 在这里插入图片描述

1.4.2 手动创建表

步骤 图例
1、入口 在这里插入图片描述
2、表名 在这里插入图片描述
3、数据源 在这里插入图片描述
4、选择文件类型 在这里插入图片描述
5、手动创建表需要自定义列;请根据提示创建 在这里插入图片描述
6、一直下一步即可

1.5 Athena查询

Athena是一种交互式查询服务(不是数据库)。并且Athena可以使用标准SQL直接查询S3中的数据,前提是需要使用Glue连接S3源。Athena还支持查询如DynamoDB、Redshift、MySQL等数据库

步骤 图例
1、入口 在这里插入图片描述
2、设置查询结果存储位置:s3 在这里插入图片描述在这里插入图片描述
3、查看表,可查看数据库以及其中的表 在这里插入图片描述
4、查询结果:使用sql查询 在这里插入图片描述

1.6 总结

在此实验中,我们使用Glue 的爬网程序自动解析存储在s3桶中的原始数据,自动创建了表。通过Glue数据库中的表,我们可以使用Athena对表进行查询(Athena每次检索对应的s3桶数据,按检索量收费)。接下来我们会对原始数据进行转换清洗以及分区操作,以及使用API Gateway+Lambda实现一个服务架构通过API查询数据。

原文地址:https://blog.csdn.net/wujiesunlirong/article/details/134791778

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_42304.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注