怎样做SEO规划和Robots.txt操作
一、为什么要做SEO的规划
二、怎样做SEO的规划。
1、实践操作的规划。
理论是来自于实践的总结!理论又需要每个人去实践。(变成自己的东西)
1、你必须又拥有自己独立的网站。
公司也可以是个人的。
1、必须有FTP
(1)必须有FTP权限。
(2)必须对你的空间(或服务器)有一定的控制权。
(3)后台(后台的登录权限)
2、没讲我一节课,我们课中的内容都需要去进行实践。
讲的东西和操作的结果是有差异的。
2、SEO学习成长步骤的规划
1、1个半小时到2个小时写出一篇seo技术软文。(要有文字驾驭能力)
1、反复的训练(简单的事情重复做,做到极致就是绝招)
把我讲的每一节课程的疑点都消除。

第一,你要至少规划一个完整的新站。
草图的制作
关键词的挖掘
页面的布局
目录的设计
robobots.txt
网站地图的设计
IIS日志查看
网站的内容设计、
3、品牌的推广(受众的建立)
(1)站内,标题设置。(2)LOGO设置(3)建立资源圈子。
4、方案的制作
(1)用户需求分析方案
(2)网站优化方案
(3)网站的诊断方案
Robots的制作
【案例】http://www.baidu.com/robots.txt 查看百度robots
User-agent: Baiduspider //定义搜索引擎的, Baiduspider 百度蜘蛛名称
Disallow: /baidu // 禁止baidu 文件夹及包含baidu 这个词的文件 注意:/baidu 和/baidu/ 区别,“/baidu/”这个就是禁止 baidu这个目录,“/” 这个代表根目录
User-agent: *
Disallow: /shifen/
Disallow: /homepage/
Disallow: /cpro
Diasllow: / 和Diasllow:/ ,前者写法是正确的,Diasllow: 和“/”中有个空格,千万要注意这一点。
* 代表若干个任意字符。
$代表结束符