第一步: 我们先复制一份原来的规则 做模板 比如说我今天演示的采集站点是 我爱读书网 52dsw.net 这个小说站点 那么我就把我复制的那份做模板的规则 命名为 52dsw.xml 这个主要是便于记忆
第二步: 我们运行 采集器里的规则管理工具 打开后加载刚刚我们命名为 52dsw.xml的这个XML文件
第三步: 开始正式编写规则了 1. RULEID(规则编号) 这个任意 2. GetSiteName(站点名称) 这里我们写 我爱读书网 3. GetSiteCharset(站点编码) 这里我们打开 www.52dsw.net 查找 charset= 这个 =号后面的就是我们需要的站点编码 www.52dsw.net 我们查到的 编码是 gb2312 4. GetSiteUrl(站点地址) 这个就不用我说了吧 写入 http://www.52dsw.net/ 5. NovelSearchUrl(站点搜索地址) 这个地址的获得 得按照每个网站程序的不同而言 不过呢有个通用的方法就是 通过抓包来获得自己想要的内容 虽然说是通过抓包来获得但是 怎么就知道获得的就是我们想要的呢 看我操作 首先我们运行封包工具 选择 IEXPLORE.EXE 这个进程 最好是你只开一个网站也就是你只 打开了 你要想编写规则的那个网站 确保进程里只有一个IEXPLORE.EXE这个进程 这里我们 我们可以 看到提交的地址是 /book/search.aspx 我们来组合一下 得到的地址 是 http://www.52dsw.net/book/search.aspx 而提交 内容的代码是SearchKey=%C1%AB%BB%A8&SearchClass=1&SeaButton.x=26&SeaButton.y=10 但是对于我们有用的是 SearchKey=%C1%AB%BB%A8&SearchClass=1 这一段 这里获得的这段 将在NovelSearchData(搜索提交内容) 这里用到 把这段改成我们想要的代码就是 把这一段%C1%AB%BB%A8 替换成 {SearchKey} 这个 表示搜索提交的内容 完整的代码是 SearchKey={SearchKey}&SearchClass=1 然后我们测试下是否正确 经过测试 我们获得的内容是正确的 6. NovelListUrl(站点最新列表地址) 这个我就不说了 因为这些 每个站点的不同 这个就需要自己去找了 我爱读书网 的是 http://www.52dsw.net/top/lastupdate_1.html 7. NovelList_GetNovelKey(从最新列表中获得小说编号此规则中可以同时获得书名 获得书名是在手动模式的时候用到 如果你要用手动模式 那么必须获得书名 否则 手动模式将会无法使用) 我们 打开 http://www.52dsw.net/top/lastupdate_1.html 这个地址 查看源文件 我们编写这个规则的时候 找到想要获得的内容所在的地方 比如 我们打开地址 看到 想要获得的内容的 第一本小说的 名字是 立地成魔 我们在源文件里面找到 莫伦特传
- 奇幻
- [目录] 莫伦特传
- 第一卷 第八章 黑暗崛起
- 11月27日
- 巨龙之瞳
- 连载
- 从这里我们可以看到他的共同点 是
- 这一段 大家如果有注意看到的话 会发现 里面有 我们在这一步里面要获得的分卷名 我们 改下代码
- 强悍的驯服方法 对于这种里面有 时间 日期 更新字数什么的 我们直接忽略 因为这些不是我们要获得的内容 这个我们可以用 .+? 来表示 有些人就问了 为什么我这里没用() 括起来呢 这里我跟大家说下 我们获得的内容是()里面的内容 如果不是你想要的内容但是写规则的时候又必须用到的 我们 可以吧表达式稍微改下就可以了 好了 我们吧 上面的那一段 改下 改成表达式
- (.+?) 正常获得内容 这个大家是不是看着这个规则有些别扭 这个是因为 中间有换行符导致的 我没改下代码 我们用\s* 来表示N个换行符 我们改后的代码是
- (.+?) 现在是不是好些了 经过测试 也一样正常获得内容 说明规则无问题 16. PubChapter_GetChapterKey(获得章节地址(章节编号)) 这里说明下 这个里面的章节编号是在下面的 PubContentUrl(章节内容页地址)用到 一般式知道目标站的动态地址 静态地址一般用不到 在不知道目标站的动态地址 那么 这里 我们需要获得的 是 章节地址 分析得到
- (.+?) 这里既然是获得章节地址 那为什么我们还有用到 章节名的呢 这个说下 主要就是为了避免获得的章节名跟 获得的章节地址不匹配 这里在说下章节编号 的写法 其实并不麻烦只需要稍微改下就行了
- (.+?) 改成这样就可以了 我们测试下看看 看到了吧 这样改下就是获得编号了 这个获得的编号 只能在 知道目标站动态地址的情况下采有用到 17. PubContentUrl(章节内容页地址) 上面的获得章节地址里面有说明 这个是在知道目标站的动态地址的情况下 用到 因为一般静态地址用不到 这里我拿 http://www.52dsw.net/html/book/149539/3790336.ASPX 这个来说明下 该怎么用 其中的 149539 这个是 小说编号 这里我们用 {NovelKey} 替代 3790336 这个 就是在 PubChapter_GetChapterKey 里面获得的 章节编号 我们用 {ChapterKey} 替代 组合一下 就是 http://www.52dsw.net/html/book/{NovelKey}/{ChapterKey}.ASPX 这个就是我们的动态章节地址了 !!!记住 前提是 知道对方的动态地址 !!! 如果不知道对方的动态地址 那么我们在 PubContentUrl(章节内容页地址) 这里写的内容就是 {ChapterKey} 18. PubContentText(获得章节内容) 这个获得方法同于 获得章节名的那些 这个就不说明了 二.. 好了现在我们说明下 过滤的用法 这个很容易 何谓过滤 过滤就是说剔除你不想要到的内容 一般用到过滤的几个地方是 简介 章节名 分卷名 和获得的小说章节内容 不过章节内容这个 有 一个替换功能 简介 章节名 分卷名 这几个暂时没有替换规则 比如说 我们获得的分卷名为 正文(www.52dsw.net) 但是呢我们在获得分卷的时候只想获得 正文 这两个字 那么我们这里就用到了过滤 过滤的格式是 过滤的内容|过滤的内容 每个过滤内容中间用|来分开 简介 章节名 的过滤 跟 分卷名一样 比如说 我们获得作者名的时候 获得的内容里面有段多余的内容
- 书籍作者
- 聚散随风 因为他的这个 有些的有 有些的没有 所以我们暂时不管 直接用 书籍作者\s*
- (.+?) 先获得想要的内容 从规则看来我们获得的内容是 聚散随风 这一段 我们在这一段里面想保留的内容是 聚散随风 我们来吧 跟 加入过滤规则里 这个因为是固定的 所以直接加上就行了 这个是变动的 我们吧他也改下 改成正则格式 这样就行了 我们加上过滤 | 内容就是这样 现在说下 章节内容的 替换 章节内容替换规则 每行一个替换,格式如下 需要替换的内容♂替换结果
- 我们测试下 正常获得分卷 但是有 这些 我们一般在 过滤规则里面过滤掉就行了 15. PubChapterName(获得章节名) 这个我们拿一段来说明
这个表示替换 比如说 feiku 这个站 里面有个地字他是用的图片 我们该怎么办呢 这里我们用替换来处理 ♂地 其他的替换类似 ♂替换的内容 替换 只在章节内容 里才有用 这个是章节内容专用的
有些人又问了 为什么我采集某个站 为什么老出现空章节呢 这个出现可能空章节的原因 这个 有可能是 目标站正好重启网站 你的采集IP被封 等等... 这里我要说明的 出现空章节的是 因为图片章节引起的缘故 采集器的采集内容的操作程序 是 先检查你采集的章节是否是图片章节 如果你的PubContentImages(章节内容中提取图片) 的正则不正确 没有获得 图片章节内容的话 就会 检查你的采集文字内容 PubContentText(获得章节内容)这个里面的正则的匹配 如果 PubContentImages(章节内容中提取图片) 跟 PubContentText(获得章节内容) 都没有匹配的内容 那么就出现了上面我们说的空章节的原因 好了 规则写好了 我们来测试下 规则是否能够正常获得想要获得的内容 测试显示 我们写的规则能够正常的获得想要的内容
附上我爱读书网采集规则供大家参考: