由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - spark RDD不能当K/V store是吧?
相关主题
关于spark的cache问题一直没想清楚请教一下,各位牛人觉得Rust语言怎么样?
spark 到底牛在什么地方?Spark请教。
Spark PK Akka 完胜呀谁来推荐个好用的distributed memory cache
spark看了一边 没什么难点啊。7天掌握redis cache size
Spark 和 Dynamodb 之间 如何 连接redis set Time complexity: O(1) 怎么可能?
Spark已经out了,能跳船的赶快祝贺peking2升级成Staff & Tech Lead (转载)
怎样schedule spark applicationdocker的newbie 问题
Spark RDD准备搞点时髦的
相关话题的讨论汇总
话题: rdd话题: store话题: spark话题: spike话题: 不能
进入Programming版参与讨论
1 (共1页)
p*****2
发帖数: 21240
1
感觉如果能做k/v store会很有用。
z******g
发帖数: 271
2
不太适合fine grained操作吧
p*****2
发帖数: 21240
3

是呀。想了想也是不会有key的index。

【在 z******g 的大作中提到】
: 不太适合fine grained操作吧
l*****t
发帖数: 2019
4
不能么?我司好像准备这么干。

【在 p*****2 的大作中提到】
: 感觉如果能做k/v store会很有用。
p*****2
发帖数: 21240
5
大牛提供点细节? 要能这么干会很有用
rdd本身不是map 是list 如果做filter的话复杂度比较高

【在 l*****t 的大作中提到】
: 不能么?我司好像准备这么干。
l*****t
发帖数: 2019
6
没细节提供呀,他们才开始spike。你有什么不可以的原因提供给我,我去提醒他们去。

【在 p*****2 的大作中提到】
: 大牛提供点细节? 要能这么干会很有用
: rdd本身不是map 是list 如果做filter的话复杂度比较高

p*****2
发帖数: 21240
7

去。
就是我说的,RDD是一个list,你要是用key找value的话,是个O(n)的复杂度,map的话
应该是O(1)复杂度才对。你们公司要是能搞过来给我说一声呀。我挺需要这个feature.
如果有这个,redis都不需要了。

【在 l*****t 的大作中提到】
: 没细节提供呀,他们才开始spike。你有什么不可以的原因提供给我,我去提醒他们去。
l*****t
发帖数: 2019
8
then their spike will probably end really soon. thanks.

feature.

【在 p*****2 的大作中提到】
:
: 去。
: 就是我说的,RDD是一个list,你要是用key找value的话,是个O(n)的复杂度,map的话
: 应该是O(1)复杂度才对。你们公司要是能搞过来给我说一声呀。我挺需要这个feature.
: 如果有这个,redis都不需要了。

k*******n
发帖数: 190
9
collectAsMap
p*****2
发帖数: 21240
10

这个是不是变local cache了?不是RDD了?

【在 k*******n 的大作中提到】
: collectAsMap
k*******n
发帖数: 190
11
map1=sc.broadCast(rdd1.collectAsMap)
1 (共1页)
进入Programming版参与讨论
相关主题
准备搞点时髦的Spark 和 Dynamodb 之间 如何 连接
Hazelcast: 有 Cluster 模式的 MemoryDB on JVMSpark已经out了,能跳船的赶快
streaming怎么保证data integrity?怎样schedule spark application
把不同 AKKA actor 里的数据 merge 到 spark RDD 的最佳方式?Spark RDD
关于spark的cache问题一直没想清楚请教一下,各位牛人觉得Rust语言怎么样?
spark 到底牛在什么地方?Spark请教。
Spark PK Akka 完胜呀谁来推荐个好用的distributed memory cache
spark看了一边 没什么难点啊。7天掌握redis cache size
相关话题的讨论汇总
话题: rdd话题: store话题: spark话题: spike话题: 不能