2、选择菜单栏的格式中的段落,在弹出的段落窗口的缩进和间距下面的特殊格式中选择首行缩进,然后在度量值里设置成2字符确定即可
修改完成后,就能看出文章每个段落前面都自动空出两个字符,就无需每次使用空格进行空出两个字符,有需要的朋友赶紧通过以上方法让word文档首行缩进2字符。
第1步,打开Word2007文档窗口,在开始功能区的段落分组中单击编号下拉三角按钮。并在打开的编号下拉列表中选择一种编号格式,如图1所示。
第2步,在第一级编号后面输入具体内容,然后按下回车键。不要输入编号后面的具体内容,而是直接按下Tab键将开始下一级编号列表。如果下一级编号列表格式不合适,可以在编号下拉列表中进行设置。第二级编号列表的内容输入完成以后,连续按下两次回车键可以返回上一级编号列表,如图2所示。
Word文档标记索引项
要编制索引,就要先tulaoShi.com确定索引关键词,本文中以正文、样式、图表、页眉、页脚、索引、脚注、尾注、目录等作为索引关键词。现在我以标记索引项正文为例,解释索引项的标记及索引的生成。
先选中正文二字,然后同时按下Alt+Shift+X,打开打开标记索引项对话框;
点击对话框内的标记全部,这样文中所有的正文都会被标记为索引项。这时候Word会自动勾选工具-选项-格式标记-全部,此时很多默认隐藏的格式标记会显示出来,不用担心,在我们编辑完索引之后再去掉格式标记-全部的勾就好。
Word文档索引的生成
在索引项标记文成以后就可以正式的生成索引目录了。
依次点击菜单栏的插入-引用-索引和目录打开索引和目录对话框,在对话框内选择索引选项卡,在对话框中根据自己的喜好或tulaoshi.com者论文的格式要求设置好索引的格式,最后点击确定即可。本文中使用的索引格式为现代,缩进式,分为两栏,以索引项的汉语拼音首字母作为排序规则。需要说明的是若要修改索引的格式,就只能选择来自模板,选择其他的格式则不可修改。
对于语文老师来说,在使用计算机编辑试题时,经常需要输入着重号。但在使用Word时,对着重号的输入很不方便,一般要在字体对话框中才能完成,操作起来非常麻烦。经过笔者的研究,换一种方法输入着重号是非常方便的,这就是在格式工具栏上添加一个〔着重号〕按钮。
单击工具/自定义,打开自定义对话框,选择自定义对话框中的命令选项卡,在左侧的类别列表框中选择所有命令选项,然后在右侧的命令列表框中选择DotAccent命令(如图所示)。用鼠标左键将DotAccent命令拖入格式工具栏,松开鼠标左键,此时格式工具栏显示带有ABC三个字母的一个按钮。这样,需要输入着重号时,单击〔着重号〕按钮即可,非常方便吧!
第1步,打开Word文档窗口,依次单击Office按钮→Word选项命令,如图1所示
第2步,开的Word选项对话框中切换到自定义选项卡,然后在从下列位置选择命令列表中单击需要添加的命令,并单击添加按钮即可,如图2所示
第3步,重复步骤2即可向Word快速访问工具栏添加多个命令,依次单击重置→仅重置快速访问工具栏按钮将快速访问工具栏恢复到原始状态,如图3所示
在wowww.Tulaoshi.comrd文档编辑时,有时同时打开多个word文档,但编辑之后一个一个的保存,特别费时费力,如何同时保存所有打开文档?下面图老师小编就为大家详细介绍一下,来看看吧!
方法/步骤
单击office按钮,点击Word选项
弹出Word选项对话框,选择自定义标签。
在右侧的从下列位置选择命令框中选择不在功能区中的命令。
然后在列表框中找到全部保存项,单击’添加按钮。
将它添加到自定义快速访问工具栏中,最后单击确定按钮。
以上就是打开多个word文档后 word2007如何同时保存方法介绍,操作很简单的,大家学会了吗?希望能对大家有所帮助!
很多新手建站朋友对robots协议文件的重要性不是很清楚,本篇文章由昆明SEO博主普及一下 WordPress站点robots协议文件编写知识。robots协议(也称为爬虫协议、机器人协议 等)的全称是网络爬虫排除标准(Robots Exclusion Protocol),网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。robots协议主要注意以下几大方面:
一、使用robots协议需要注意的几点地方:
1、指令区分大小写,忽略未知指令。
2、每一行代表一个指令,空白和隔行会被忽略。
3、#号后的字符参数会被忽略。
4、有独立User-agent的规则,会排除在通配*User agent的规则之外。
5、可以写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。
6、尽量少用Allow指令,因为不同的搜索引擎对不同位置的Allow指令会有不同看待。
7、robots.txt 文件必须放在网站的根目录,不可以放在子目录。
二、robots协议文件写法:
1、User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
2、Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
3、Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录
4、Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录
5、Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)
6、Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址
7、Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
8、Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件
9、Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
10、Allow: /tmp 这里定义是允许爬寻tmp的整个目录
11、Allow: .htm$ 仅允许访问以".htm"为后缀的URL
12、Allow: .gif$ 允许抓取网页和gif格式图片
13、Sitemap: 网站地图 告诉爬虫这个页面是网站地图
三、robots协议文件实际说明:
1、User-agent: * //设置robots规则适用的浏览者身份为全部UA身份
2、Disallow: /*?* //屏蔽掉页面中的动态路径
3、Disallow: /?p=* //屏蔽掉非固定链接的文章页面路径,因为每个页面中都会有一个shortlink使用的是?p= 的路径。
4、Disallow: /index.php //屏蔽掉首页默认页面的index.php 页面地址
5、Disallow: /wp-admin //屏蔽掉后台登陆页面地址,主要是考虑到服务器安全
6、Disallow: /wp-content/plugins //屏蔽掉wordpress的插件目录
7、Disallow: /wp-content/themes //屏蔽掉wordpress的模板目录
8、Disallow: /wp-includes //屏蔽掉wordpress的底层程序目录
9、Disallow: /trackback //屏蔽wordpress的页面回评路径
10、Disallow: /*/*/trackback //屏蔽wordpress分类目录、文章页面的回评路径
11、Disallow: /feed //屏蔽wordpress的内容订阅路径
(本文来源于图老师网站,更多请访问http://m.tulaoshi.com/wjc/)12、Disallow: /*/*/feed //屏蔽wordpress分类目录、文章页面的订阅路径
13、Disallow: /comments/feed //屏幕wordpress评论的订阅路径
14、Disallow: /page/ //屏蔽默认的翻页路径
15、Disallow: /*/*/page/ //屏蔽分类目录的翻页路径
16、Disallow: /page/1$ //屏蔽翻页路径中的数字路径
17、Disallow: /tag/ //屏蔽标签页面
18、Disallow: /?s=* //屏蔽搜索结果路径,主要是避免搜索结果的缓存被搜索引擎收录
19、Disallow: /date/ //屏蔽按日期分类显示的列表页面
20、Disallow: /author/ //屏蔽作者文章列表页面
21、Disallow: /category/ //屏蔽以category为起始路径的分类路径,如果您没有使用插件生成不带category前缀的路径时,请不要使用此项规则。
22、Disallow: /wp-login.php //屏蔽后台登陆页面
四、robots协议设置方法
1、写好之后把文件重命名为:robots.txt 然后用FTP上传到网站的根目录下面,切记不是主题的根目录下而是网站的根目录。
2、利用站长工具自动生成,网址:http://tool.chinaz.com/robots/
3、利用SEO插件设置,比如Yoast SEO、all in one seo
五、robots协议的作用
1、引导搜索引擎蜘蛛抓取指定栏目或内容;
2、网站改版或者URL重写优化时候屏蔽对搜索引擎不友好的链接;
3、屏蔽死链接、404错误页面;
4、屏蔽无内容、无价值页面;
5、屏蔽重复页面,如评论页、搜索结果页;
6、屏蔽任何不想被收录的页面;
7、引导蜘蛛抓取网站地图;
六、如何查看robots协议:
1、WordPress站点默认在浏览器中输入:http://你的域名/robots.txt
比如星辰seo博客:http://xxjz001.com/robots.txt
2、打开FTP,找到网站根目录查看robots.txt文件
总结:robots协议需要的注意地方,以及写法,设置方法,作用,如何查看就介绍到这里,相信大家对robot协议已经有了比较详细的了解。使用 好robots协议对于我们网站的SEO有着重要作用,做的好可以有效的屏蔽那些我们不想让搜索引擎抓取的页面,也就是对用户体验不高的页面,从而将有利 于关键词排名的内页充分展示个客户,获得搜索引擎对站内页面的权重,从而有利于我们将网站关键词排名做的更好,从而获取更多流量。
(本文来源于图老师网站,更多请访问http://m.tulaoshi.com/wjc/)作者:星辰seo博客