您的位置:首页 > 编程语言 > Java开发

基于Hadoop技术实现的离线电商分析平台(Flume、Hadoop、Hbase、SpringMVC、highcharts)

2016-04-11 22:31 555 查看
离线数据分析平台是一种利用hadoop集群开发工具的一种方式,主要作用是帮助公司对网站的应用有一个比较好的了解。尤其是在电商、旅游、银行、证券、游戏等领域有非常广泛,因为这些领域对数据和用户的特性把握要求比较高,所以对于离线数据的分析就有比较高的要求了。

讲师本人之前在游戏、旅游等公司专门从事离线数据分析平台的搭建和开发等,积累了一些这方面比较实用的技能点,特意整理录制成视频,本项目全程手敲,适合各层次学员学习本视频的知识点。当然对于对hadoop有一定了解的学员而言,大家一看就知道是对hadoop生态圈的基本应用,但是同时在视频中也涉及到一些hadoop源码相关的知识点。预祝每位学员能够成为hadoop开发的行家里手。

1.课程研发环境

开发源代码以JDK7作为基准,数据库采用mysql,使用hadoop生态圈相关软件应用于该项目。

开发工具: Eclipse;

数据库工具: Mysql

其他工具: Hadoop、Hbase、Hive、Sqoop、Flume、Oozie、Nginx、Highcharts、SpringMVC等

2.内容简介

本教程从hadoop基本环境的搭建开始、介绍项目相关信息以及展示highcharts展示技术等。此外,为了帮助学员更好的理解知识点,介绍了hadoop、hbase、hive等hadoop生态圈的安装配置和使用等。项目主要涉及到用户行为数据的收集、用户数据的etl操作、用户数据的分析以及分析数据展示等项目模块,最终展示了一个基本的离线数据分析平台的全部实现。

一、大数据基本技能储备:

第一讲:项目介绍以及Hadoop环境搭建

第二讲:Hadoop Shell命令介绍--上

第三讲:Hadoop Shell命令介绍--下

第四讲:HDFS介绍以及Java API介绍

第五讲:MapReduce结构以及编程模型介绍

第六讲:MapReduce进阶上

第七讲:MapReduce进阶下

第八讲:Hbase介绍以及Hbase环境搭建

第九讲:Hbase客户端介绍

第十讲:Hbase和Mapreduce整合

第十一讲:Hive介绍和Hive环境搭建

第十二讲:Hive Shell命令介绍上

第十三讲:Hive Shell命令介绍下

第十四讲:Hive函数以及自定义函数讲解

第十五讲:Flume介绍

第十六讲:Sqoop介绍

第十七讲:Oozie介绍以及环境搭建

第十八讲:Oozie工作流使用介绍

第十九讲:Highcharts介绍

第二十讲:Spring+MyBatis+Mysql框架整合

二、项目需求介绍

第二十一讲:需求分析一

第二十二讲:需求分析二

第二十三讲:需求分析三

三、用户行为数据收集模块实现讲解

第二十四讲:JavaSDK数据收集引擎编写

第二十五讲:JSSDK数据收集引擎编写

四、数据分析模块实现讲解

第二十六讲:用户数据etl操作一

第二十七讲:用户数据etl操作二

第二十八讲:新增用户和总用户分析

第二十九讲:活跃用户分析

第三十讲:活跃会员分析

第三十一讲:新增会员和总会员分析

第三十二讲:会话分析

第三十三讲:Hourly分析

第三十四讲:浏览器PV分析

第三十五讲:公用代码提取

第三十六讲:地域信息分析

第三十七讲:外链信息分析

第三十八讲:MapReducer代码优化

第三十九讲:DimensionConverter相关服务设计

第四十讲:用户浏览深度分析

第四十一讲:事件分析

第四十二讲:订单分析

第四十三讲:MR和Hive任务Oozie部署

五、数据展示模块讲解:

第四十四讲:DataApi后台框架搭建

第四十五讲:用户基本信息数据展示

第四十六讲:浏览器基本信息数据展示

第四十七讲:地域信息数据展示

第四十八讲:用户浏览深度数据展示

第四十九讲:外链数据展示

第五十讲:事件数据展示

第五十一讲:订单数据展示以及项目总结

目标一. 了解hadoop的环境配置以及hadoop的基本运用管理

目标二. 了解hbase的环境配置以及hbase的基本运用管理

目标三. 了解hive的环境配置以及hive的基本运用管理

目标四. 了解flume、sqoop、oozie等hbase生态环境的配置以及基本应用管理

目标五. 了解SpringMVC、MyBatis以及Highcharts的整合使用

目标六. 了解Flume+Nginx+JS的用户行为数据收集

目标七. 通过前后台的分离,让学生掌握highcharts动态展示数据的基本使用

目标八. 通过数据分析任务的编写,让学生掌握mr和hive的编写

目标九. 通过完整项目实战,全面演示hadoop生态圈的搭建、开发、注意事项以及技巧

目标十. 通过本次课程的学习,为学员以后再工作中如何使用hadoop有一个初步的了解,对应hadoop和传统项目的整合有一个整体的了解,奠定基础

亮点一、理论与实战相结合,由浅入深。即照顾到基础学员,也照顾到一定经验的学员,在讲解过程中也为学员留下了大量的考虑时间。

亮点二、课程所有代码基本上是一行一行手工敲入,特别是对应使用hadoop和hive开发的部分代码,手把手一步步带学员从入门到精通。

亮点三、整个项目涉及到一个工作流程的全部,包括用户行为数据的收集、数据分析以及分析结果展示等各个方面。而且讲师框架全部按照大的项目框架去搭建,学员拿到该项目后,稍加修改就可以应用到自己的项目中去,实用性超强。

亮点四、对应hadoop生态圈讲解的比较细,对应如何应用hadoop生态圈有一个初步的讲解。学员通过学习该视频后,基本对如何在工作中使用hadoop有一个初步的了解。

1.课程针对人群

 本课程针对具有一定的java、linux、maven基础以及对hadoop生态环境有一个初步了解的学员,想通过本项目的学习,加深对hadoop生态圈的了解、hadoop和传统开发整合开发商业项目的学员。也适合想深入了解hadoop项目应用的学员。

2.我该怎么学,如何才能学好这门课程,给些建议。

2.1、时间上的安排建议

本课程共113课时,分为51讲。如果您时间上充分,建议以每天1-2讲的进度往前学习。

2.2、学习要求

如果您没有基础,建议还是中规中矩的按照课程进度一点一点仔细观看学习,并一定要把看完的视频中的代码自己手敲一遍,以加深理解和记忆

如果您有基础,可不必按步就搬进行,可以拿你感兴趣的部分去学习,但一定要注意实践,并学会举一反三

如果您只是想了解hadoop的应用,可以直接看后面的几部分的视频

2.3、讲师建议

1.最好看完视频之后,抛开视频,独立自己去把上课中的示例写一遍,看自己是否理解,如果不正确,可以回过头看再看下视频,如果反复,达到真正理解和熟练掌握的目的。

2.对于项目实战部分,一定要自己亲自动手做一遍,不要满足听完就OK了

3. 建议一般听视频,一般拿个纸和笔,做一些记录和笔记,这是一种非常好的学习习惯。

4. 一定不要过于依赖视频,要学会看API和使用官网实例以及使用搜索引擎,学会思考,学会举一反三

5. 最后祝您学有所成

课程是属于某个特定的专业技术,掌握该技术后,你可以从事以下职位的相关工作

1. Hadoop开发工程师

2. Hive开发工程师

3. Java开发工程师(代码展示部分涉及到数据展示的java代码开发)











内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: