s******e 发帖数: 128 | 1 经典hadoop例子也就是wordcount之类的一个数据。很好理解mapper和reduce 该写些什
么。 但实际上经常要从log文件中析取所有的各种数据:举个例子:要从一套log文件
中析取average height break down into gender, top 10 sites break down into
phone types, top word break down into adults/kids...。
我想不出这些情况mapper和reduce 该怎么写? | c***C 发帖数: 139 | 2 把log文件分割成chunks, feed给mapper得出sum跟count,reducer处理各个mapper来的
sum和count
【在 s******e 的大作中提到】 : 经典hadoop例子也就是wordcount之类的一个数据。很好理解mapper和reduce 该写些什 : 么。 但实际上经常要从log文件中析取所有的各种数据:举个例子:要从一套log文件 : 中析取average height break down into gender, top 10 sites break down into : phone types, top word break down into adults/kids...。 : 我想不出这些情况mapper和reduce 该怎么写?
| s*****V 发帖数: 21731 | 3 这个IDEA清汤寡水的,为啥搞出这么大声势?
【在 c***C 的大作中提到】 : 把log文件分割成chunks, feed给mapper得出sum跟count,reducer处理各个mapper来的 : sum和count
| C***y 发帖数: 2546 | 4 扩展性好,写起来也不难
【在 s*****V 的大作中提到】 : 这个IDEA清汤寡水的,为啥搞出这么大声势?
|
|