e****e 发帖数: 3450 | 1 可以用那个把某个URL上hyperlink的file一下抓下来,省得一个个点了再save的那种?
记不得名字了 |
t****p 发帖数: 1703 | 2 网络蚂蚁还是网络快车来着
【在 e****e 的大作中提到】 : 可以用那个把某个URL上hyperlink的file一下抓下来,省得一个个点了再save的那种? : 记不得名字了
|
Q**Q 发帖数: 1450 | |
e****e 发帖数: 3450 | 4 装了
【在 Q**Q 的大作中提到】 : wget
|
y***u 发帖数: 5243 | |
Q**Q 发帖数: 1450 | 6 这个看起来太fancy了,你用过吗, 好不好用?
【在 y***u 的大作中提到】 : downThemAll : https://addons.mozilla.org/en-US/firefox/addon/201
|
y***u 发帖数: 5243 | 7 太好用了
【在 Q**Q 的大作中提到】 : 这个看起来太fancy了,你用过吗, 好不好用?
|
e****e 发帖数: 3450 | 8 just tried, it only download index page ah?
【在 Q**Q 的大作中提到】 : wget
|
Q**Q 发帖数: 1450 | 9 可以把一个website全download下来给我做offline来看吗?
【在 y***u 的大作中提到】 : 太好用了
|
y***u 发帖数: 5243 | 10 不是干这个的。干这个的有其他addon啦
【在 Q**Q 的大作中提到】 : 可以把一个website全download下来给我做offline来看吗?
|
|
|
Q**Q 发帖数: 1450 | 11 那是什么addon? 要是有的话也太牛了。
【在 y***u 的大作中提到】 : 不是干这个的。干这个的有其他addon啦
|
e****e 发帖数: 3450 | 12 wget work le,还是这个比较酷,几秒钟全搞定了
【在 Q**Q 的大作中提到】 : 可以把一个website全download下来给我做offline来看吗?
|
n***b 发帖数: 5914 | 13 firefox 直接 save as 就可以了
【在 e****e 的大作中提到】 : 可以用那个把某个URL上hyperlink的file一下抓下来,省得一个个点了再save的那种? : 记不得名字了
|
y***u 发帖数: 5243 | 14 ....你不用firefox啊。。。
https://addons.mozilla.org/en-US/firefox/addon/427
scrap简直有点太好用了,还能自己做文集。。。
【在 Q**Q 的大作中提到】 : 那是什么addon? 要是有的话也太牛了。
|
e****e 发帖数: 3450 | 15 你根本没理解问题阿,这个wget几秒钟就把某个URL上下面好几层的几百个file几秒钟
就直接抓下来了,省得一个个click and save
【在 n***b 的大作中提到】 : firefox 直接 save as 就可以了
|
e****e 发帖数: 3450 | 16 我确实不用ff,太慢了
【在 y***u 的大作中提到】 : ....你不用firefox啊。。。 : https://addons.mozilla.org/en-US/firefox/addon/427 : scrap简直有点太好用了,还能自己做文集。。。
|
y***u 发帖数: 5243 | 17 恨同情你的mac。。。。
【在 e****e 的大作中提到】 : 我确实不用ff,太慢了
|
e****e 发帖数: 3450 | 18 问你,那种需要SSL login 的,进去以后才找到某个site下载的,该怎么加参数阿?试
了试没work
【在 Q**Q 的大作中提到】 : 那是什么addon? 要是有的话也太牛了。
|
Q**Q 发帖数: 1450 | 19 不知道。不过这个scrap addon太牛了,我用了半个小时差点把整个mitbbs给download
下来。
【在 e****e 的大作中提到】 : 问你,那种需要SSL login 的,进去以后才找到某个site下载的,该怎么加参数阿?试 : 了试没work
|
y***u 发帖数: 5243 | 20 我恨欣慰啊哈
不过要小心硬盘空间不够,这也是为什么我现在不用scrap的原因了-_-||
download
【在 Q**Q 的大作中提到】 : 不知道。不过这个scrap addon太牛了,我用了半个小时差点把整个mitbbs给download : 下来。
|