槐序二三煊

[Mac软件]SiteSucker 扒站神器
SiteSucker概观官方介绍SiteSucker是一款Mac OS X上的整站下载的利器,可以自动从Inter...
扫描右侧二维码阅读全文
11
2019/05

[Mac软件]SiteSucker 扒站神器

SiteSucker

概观

官方介绍

SiteSucker是一款Mac OS X上的整站下载的利器,可以自动从Internet下载网站。它通过将网站的网页,样式表,图像,背景和其他文件复制到本地硬盘驱动器,复制网站的目录结构来实现此目的。默认情况下,SiteSucker“本地化”它下载的文件,允许您离线浏览网站。

SiteSucker窗口显示正在下载的URL(统一资源定位器),下载的当前状态以及工具栏。

个人感受

简单来说“扒”站神器

部署

安装

Rick-apps:[官网](https://ricks-apps.com/

汉化

汉化文件地址:https://github.com/hlcc/Mac-App-translate/tree/master/SiteSucker
解压zh-CN.lproj.zip文件
将其拷贝到应用软件的 Resources 目录下(在应用程序文件夹 > 右击SiteSucker图标 > 显示包内容 > Contents > Resources)
重启软件注意:语言包跟随系统语言自动切换,若你的系统语言非中文此时汉化包将不起作用。

使用

一般网站

普通如下载站,图片站,博客等,可以下载所有的文件,图片等。
那么输入网址,按回车开始。
当当当当~~~~

带有robots.txt的网站

什么是 robots.txt 文件?

robots.txt 文件规定了抓取工具可以/无法请求抓取您网站上的哪些网页或文件。作为网址屏蔽方法的一种方式,robots.txt排除通常放在适当的地方,且有一个很好的理由,应该遵守。

  • Robots协议是国际互联网界通行的道德规范,基于以下原则建立:

1、搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;
2、网站有义务保护其使用者的个人信息和隐私不被侵犯。

排除robots.txt限制

建议不要忽略机器人排除。机器人排除通常是有充分理由的,应该遵守

为了遵守了The Robots Exclusion Protocol,不建议强行“扒”站,所以请自己摸索。

时晚待更

Last modification:May 11th, 2019 at 10:49 pm
如果你觉得有用,可以赞赏

Leave a Comment Cancel reply

3 comments

  1. Allenyou1126     Linux /    Google Chrome

    马了,回头试试(虽然买不起Mac)话说有Linux版的吗?

  2. newcoderlife     MacOS /    Safari

    马住,先拿贵站试试(

  3. 摸了     Windows 10 /    Google Chrome

    我的站点光荣出现(雾