您的位置:首页 > 运维架构

基于命令行的mahout软件0.8版本Canopy算法分析的数据处理流程

2013-12-10 18:36 176 查看
mahout软件0.8版本Canopy算法分析的数据处理分为以下三个步骤:

从数据库提炼你需要处理的数据的字段
依据提炼的数据处理为vectors
将处理后的vectors数据读取

一、从数据库提炼数据

这是一个sqoop-->>hive-->>hdfs转储为vectors的过程

原理:首先通过sqoop将数据库数据保证表结构不变全部导入到hive中,然后使用下面的语句创建准备用于mahout数据的hive表使用如下语句

create table 表名 (字段声明) row format delimited fields terminated by ' '


需要注意,必须使用空格作为hive表中字段的分隔符才能够被以命令行方式调用的mahout数据处理工具识别。

二、将hive表的数据处理为vectors

mahout自带的org.apache.mahout.clustering.conversion.InputDriver类可以将全部数值的文件转换为vector的,如果是字符的文本转换则要使用seqdirectory
和seq2sparse

这两个工具,详细参数可以使用如下的方式从命令行获得

bin/mahout 类名 --help
需要注意,如果是以命令行方式处理数据,字符数据和数值数据不要混合在一个文件里,无论在数据库中字段是否在同一个表中,一个要分离为不同文件,或者将字符替代为数字。否则处理过程中会出现java虚拟机内存溢出或者内存不足的错误。

而被处理的数据也最好分为多个小的文件。

三、读取处理后的数据

Canopy算法处理后的数据是需要使用ClusterDump工具处理为非二进制格式,而不是VectorDump工具,同时,0.8版本的VectorDump工具参数已经发生重大变化和0.7以及0.6有了很大的不同

ClusterDump工具的输出路径需要是本地路径而不能hdfs的路径,否则会报出无法创建导出数据文件的错误。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: