Xrumer - xrumer.cn

General Information:

Latest News:

New Server & New IP Address 3 Jan 2013 | 12:00 am

I’ve transitioned the server that I use for friends and family web sites to a new VM provider. I believe that one of the IP addresses assigned to it was previously used for selling some search engine ...

Youtube营销工具 Mass Video Blaster 中文教程 25 Jun 2012 | 01:31 pm

转眼有一年多时间没来博客浇花了,真是不好意思。。。 最近google接连放出熊猫大军和企鹅大军来洗牌,搞的很多 [...]

新一代核武器 SEnuke X 抢先体验 6 Apr 2011 | 05:54 pm

今天有拿到SEnuke X 简单做个试用介绍给大家 SEnuke X相信很多人已经期待了很久,到底跟SEnuke有什么区别呢。。。 先看下官方给出的介绍:挑了几个主要的 Much faster, better looking, more organized — 在软件界面,布局,试用速度上都有所改进和提升 Newbie friendly step-by-step wizard — 创建工程的时候会...

SEnuke新手教程 (七) Ping! 21 Mar 2011 | 01:05 am

这节的内容就很简单了 找到Windows –> Pinger 即可打开Pingger 接下来就是把我们之前所有的URL(web 2.0 blog文章,书签地址,rss地址) 都拿出来送到Pinger里ping一下,促进他们的收录 到现在SEnuke里只要几个模块就介绍完了,写的比较简单,大家自己去边使用边深入研究。 最后提一下SEnuke的Profile模块,感觉效率有点低,但是它里面的profi...

SEnuke新手教程 (六) RSS提交 19 Mar 2011 | 12:40 am

在介绍RSS提交模块之前,先回头来想一下我们之前都做了哪些操作了 我们有给web2.0站点发过文章了,有把文章提交到书签站了 提交成功的文章和书签就会生成一个rss地址,并且保存在URL Manager里 那我们今天的任务就是把这些RSS地址提取出来,提交到各大Rss目录,主要目的就是让之前的文章和书签被收录。 思路理清楚就可以开工了 看下图 首先我把所有rss地址都合并成一条了,拿这条去提交即可...

SEnuke新手教程 (五) 提交书签站 11 Mar 2011 | 03:12 am

上篇把文章发布完之后,因为Catop最近太忙了,所以好久都没更新,Sorryyyy 今天主要介绍SEnuke的书签提交模块,书签算是一个不错的外链来源,同时也可用来给一些页面做收录用 我上回有把做好锚文本的文章发布到各大web2.0网站去,但是在默认情况下,这些web2.0的博客站点很难自动被google爬到并且收录,如果不收录里面的锚文本链接也就没有作用,所以整理下思路,今天是要用SEnuke的...

SEnuke新手教程 (四) 文章发布与简单链轮构建 1 Mar 2011 | 03:45 am

账号注册好之后,就可以去准备一些主题相关的文章了,然后利用SEnuke发布到web2.0站点和文章目录 准备文章 在SEnuke里你可以直接输入关键词,他会自动从ezinearticle下载文章,挺方便的。 我这里输入senuke下载了一篇名为 “SEnuke Review – Is This Software Good Enough?” 的文章 把这篇文章放到TBS里spin一下,生成带同义词格...

XRumer Unleashed 中文教程二:Profile Creation From A-Z 26 Feb 2011 | 04:12 am

*本系列内容节选自XRumer Unleashed,我把教程里主要的地方翻译了一下并且加入自己的理解 XRumer工程设置是一个比较重要的地方。设置的不好会降低成功率,并且留下过多SEO痕迹 上一节中说的XR内置语法这回要用到了,还是拿我的XRumer.cn来示范,以下是我的工程设置图,主要是做Profile链接 下面是详细介绍。 Nick: 要尽量随机 {pletcher#random[a..z...

Scrapebox疯狂群发策略五 26 Feb 2011 | 02:08 am

这篇的目的是把你超级List的数量 X 10 上篇说到的两种类型的List,要分开操作别混了。。(一种是自动通过审核的,一种是高PR的 3、4以上) 来看我的操作方法: 1、导出List到根域名url 加载你先前积累好的List到ScrapeBox中 — > 首先去掉重复的域名 Remove Duplicate Domains —> 接着Trim to Root 接着把结果导出来,接下来我要把这些...

Scrapebox疯狂群发策略四 23 Feb 2011 | 05:44 am

最近好忙,更新慢了些,今天赶紧补一篇。 这个系列的第四篇讲一下如何积累List并且合理利用。 第一步:保存发送成功的List 一般把搜集来的List发送2-4次后,就可以保存出一份成功List PS:第一次发送后,接下来都用失败的List来发,然后再拿最后一次失败的List和原始List进行Select the URL lists to compare操作,结果就是所有发送成功的。 第二步:把成功...

Recently parsed news:

Recent searches: