可以用wget试试,这个用dos命令可以提取网页的..包含源码+图片。
个人以前经常玩的。
量多的话,可以用批量采集工具。
如果觉得有必要,就自己写一个。
那个保持如果到本地的话,需要离线查看才能看到有图的。如果断网的话,你有缓冲,不离线查看也没用的吧。或者是,另存为的时候把图片也给保存下来的。
但是现在的服务器很多你另存为的时候,图片是不保存下来的。
因为图片跟网站地址不在同一个域名下的,或是图片在上一级的非域地址下的。
典型的例子就是:
看看新浪微博或博客,你能把新浪微博的模板都下载下来不?
如果你能分析出图片的过滤的话,样式css+背景图,是可以批量下载的。
至少我下载了大半。
文件,保存网页,保存类型里选网页全部