全部需求分类
当前位置:首页 > 知识百科 > 网站建设 >  整站建设  > 如何让网站设计更合理?
如何让网站设计更合理?
2018-5-8 17:08:16   作者:懂の紾惜。   人气:1594

  网站设计越来越强势的占领了我们的生活,对于设计行业更是。那么对于网站设计的要求也越来越高,不仅是追求图像上的色彩和图案的设计精彩,还有要考虑设计出的网站便于操作,客户用的时候更方便,更快速,更便捷。那么设计出合理的网站就是很有必要的,那如何做到呢?

  

  1.网站定位

  

  网站的定位很重要,网站的定位就是说在做站前要有目标,你的网站主要针对哪些客户群体,针对哪个年龄层次的人群,这个直接决定了下面网站应该使用什么样的结构。

  

  2.结构的合理

  

  结构的合理与否直接决定了客户对该站的体验状况,详细点可分为:导航栏目的设计,图片布局,栏目编排,文本凸显位置。

  

  可以在您的站点做一个栏目调查,征求下网友的意见,针对不同类型的站点,布局也不太一样,各个行业站都有自己的规则,针对具体行业的访问者也都不同的访问习惯,所以做下行业调查是很有必要的。

  网站设计

  3.程序选择

  

  这个主要针对的是搜索引擎,一般用户不会去注意到你的网站使用的是什么程序,针对搜索引擎的习惯选择尽量友好于搜索引擎的程序结构。

  

  关于这点,目前比较火的设计程序就是XHTML+CSS或者我们称之为DIV+CSS,自从WEB2.0在网络升温以后,很多公司和个人对网站设计程序都做出了新的选择,顺应潮流。当然WEB2.0也有其诞生的背景:倡导以人为本,全面的人性化理念。

  

  注意这也不是绝对的,html既然有table标签,它就有存在的价值,只是div的设计能比table程序结构稍微简单点,再加上CSS打包,加快了网页的下载速度,增强了用户体验。

  

  4.图片,flash,框架的使用

  

  这是一个老话题了,很多人建议尽量不使用这些就不要用了,但是枫林认为图片,flash和框架这些元素都有存在的必要性。

  

  少使用或者不使用这些原件的只是考虑到了搜索引擎而没有考虑到访问者,从访客的角度来说,他们不喜欢哪些纯粹性的文本页面,他们进某个页面更多的是想体验该站的“乐趣”,这个娱乐站更是深有体会

  

  这样的页面对访客的粘滞性很低,但是可以确切的说对搜索引擎100%有好处,我想这也是一些SEOER不愿意在自己的博客的首页或者内页使用图片的原因吧,他们更多考虑的是搜索引擎,这些博客机会没有什么美工的痕迹,记得在点石论坛看到过一位读者的文章中提到:百度喜欢漂亮的页面。

  

  枫林做了下猜想:百度是不是认为纯文本和多链接的页面是故意的认为因素制造的呢?这些页面是专门针对百度而来的呢?

  

  如果这种猜想是正确的,哪些被百度封博客的事情就不难解释了,你们可以去看看,你们的页面有记个图片,这个到不重要,重要的是整个站点里面这些元件所占的比率是多少呢?你认为这还算是一个正常的网页么?

  

  枫林认为这些网页元素不应该特意回避,否则还不饿死美工了。我们能做的是对这些元素做适当的优化处理,比如图片的压缩,ALT等很多人都熟悉的手法。

  

  5.关键字的部署

  

  关键字的部署也是从搜索引擎的角度来考虑的,但是话说回来,合理的部署关键字也对于访问者是有利的,他们可以通过某些位置的关键字很快了解这个网页所要交代什么意思。

  

  这样文章顶部的关键字就显得尤为重要了,就像一些报刊一样,枫林认为:在一些文章的头部加上一些摘要或者引言,在这些摘要或者引言里面融入适当密度的关键字(对于google,每100个字中出现1.5-2个关键字是比较合理的)对访问者或者搜索引擎都是很重要的。

  

  不要以为关键字部署实在网站完工以后要做的,那时你要花费比现在更多的代价。

  

  6.导航条的设计

  

  导航条也没有固定的部署位置,感觉客户查找方便就可以了,左侧,顶部右侧均可,要注意的是,结构要清晰,层次不要太多,这要考虑到,内容页面的点击距离因素,枫林认为访客进入该页面在点击距离不要超过3就找到自己需要的内容是比较合理的,千万不要特意的安排点击距离。

  

  有些SEOER认为点击距离越短越好,于是就千方百计的修改设计利用,比如:使用2级域名,rewrite等尽量使得路径变短,枫林认为这个对该站没有太多的好处。就拿很多SEOER使用的Z-blog来说,默认的网页文件都在post目录下面放着,其一,分类比较混乱,其二,这种结构很可能被搜索引擎视为作弊,而做降权或者封站的处理,尤其是内容很多的站,大量的出现这样的短路径页面并且都是通一目录下,对其站点没有什么好处。

  

  7.网站底部的处理

  

  我们在写文章的时候也要讲究个虎头豹尾,小编认为这个理念对于网页设计也是可以应用的,枫林很忌讳把底部文件做成JS 进行调用的做法。这样你的关键字便失去了更多的在搜索引擎中展示的机会,一些SEOER认为搜索引擎spider最多爬行页面中的前100位内的链接,小编认为这种说法有点片面,可能更多人认为Robots的爬行习惯是自上而下的,枫林要说的是底部网站的版权,备案信息等很重要,底部具有一定的优先权。

大家还在看
热门标签

免费查询能否注册
× 免费查询

专业顾问查询分析,有效降低注册风险

名称:

联系电话:
安全保障,杜绝泄露客户信息

大家还在看
发布您的需求,快速获取满意方案