杰克
1、www:互联网,一个巨大的、复杂的体系; 2、搜集器:俗称蜘蛛,爬虫,工作任务就是访问页面,抓取页面,并下载页面; 3、控制器:蜘蛛下载下来的传给控制器,功能是调度,主要来控制蜘蛛的抓取间隔,以及派最近的蜘蛛去抓取; 4、原始数据库:存取网页的数据库,就是原始数据库。存进去就是为了下一步的工作,以及提供百度快照。 原始数据库主要功能是存入和读取的速度,以及存取的空间,会通过压缩,以及为后面提供服务。网页数据库调度程序将蜘蛛抓取回来的网页,进行简单的分析过后,也就是提取了URL,简单的过滤镜像后存入数据当中。 5、网页分析模板:垃圾网页、镜像网页的过滤,网页的权重计算全部都集中在这一块。 6、索引器:把有价值的网页存入到索引数据库,目的是查询的速度更加的快。把有价值的网页转换另外一个表现形式,把网页转换为关键词。建立索引的原因:为了便利,提高效率。一个词在多少个网页中出现,把词变成网页这么一个对列过程叫做倒排索引。搜索结果就是在倒排数据库简直的获取数据,把很多的排名因素作为一个项,存储在这个里面); 7、索引数据库:将来用于排名的数据。关键词数量,关键词位置,网页大小,关键词特征标签,指向这个网页(内链,外链,锚文本),用户体验这些数据全部都存取在这个里面,提供给检索器。 8、检索器:将用户查询的词,进行分词,再进行排序,通过用业内接口把结果返回给用户。负责切词,分词,查询,根据排名因素进行数据排序; 9、用户接口:将查询记录,IP,时间,点击的URL,以及URL位置,上一次跟下一次点击的间隔时间存入到用户行为日志数据库当中。 10、用户行为日志数据库:搜索引擎的重点,用户使用搜索引擎的过程,和动作; 11、日志分析器:通过用户行为日志数据库进行不断的分析,把这些行为记录存储到索引器当中, 12、词库:网页分析模块中日志分析器会发现最新的词汇存入到词库当中,通过词库进行分词,网页分析模块基于词库的。
*****
首先要有网站,然后确定好需要优化的关键词,优化可能很多人都懂可是优化度和量要控制好才能达到效果,如果自己做不到找有实力的SEO优化公司做,一般都是按年收费