A1 Keyword Research是一款可以帮助你分析网站以及分析关键词的软件,你可以在软件上搜索关键词密度,分析网站数据,分析连接到主站的速度,结合多种测试方案,让您在管理网站的以及监控网站的时候可以得到很好的操作平台,该软件提供的八种扫描网站的功能,支持扫描进度、爬网选项、爬网引擎、爬网标识、网管过滤、分析过滤、列表过滤、资料收集,每一个功能都有详细的参数配置,可以让用户通过A1 Keyword Research优化您的网站!
软件功能
位置检查:搜索引擎中搜索关键词的位置和位置检查排名。
竞争分析:有机搜索与付费搜索竞争。反向链接,关键词,PageRank等。
关键字建议:查询在线搜索引擎和关键字建议工具获取新关键字。
关键字列表:创建和扩展关键字列表。将列表轻松组合成新的关键字短语集。
关键词密度:分析页面关键词密度。调整标题、标题、文本等关键词的重要性。
在线关键词工具:关键字研究与在线关键字工具的集成。
导出关键字数据:网站关键字研究数据可以导出为XML或CSV等完美的Excel。
分析整个网站:获取并查看网站中所有单独页面的顶部关键字。
实现更好的有机列表和按点击结果付费。
为你的关键词营销活动找到新关键词。
软件特色
搜寻所有连结标签类型
将< iframe>标签当作连结
尝试搜寻连结in" Flashvars"( extended)
Try search inside CSS(both embedded and in separate files)
尝试搜寻 Javascript中的连结(扩展模式)
Try search inside JSON
尝试寻找 Flashi中的连结(见一般选项"-工具路径")
Try search inside PDF(see" General options""Tool paths")
尝试在连结中寻找视讯内容
爬网错误页(如回应代码404)
总是扫描含有已连结网址的目录
允许重定向
针对重定向考虑0秒meta更新
允许 cookies
内部档路径区分大小写
修复带有明确定义的预设埠号的"内部网址
根据网站根路径,修复带有"www."的错误内部网址
(SIE"internal"URLS with protocol incorrect compared to website root
( SE"internal " URLS if website root URL redirects to different address
Fix URL"mime "types when server is returning obvious wrong data
如果网址重定向到自身,请修复网址重定向响应代码
确保网址在进一步处理之前获得解码百分比
确保网址"path"部分采用百分比编码
确保网址 query"部分采用百分比编码
在网站扫描停止过后应用网管"和列表过滤
使用特殊" response" codes for when page URLS使用 canonical or similar
安装方法
1、下载keyword-setup.exe安装,这里点击I accept the agreement同意协议
2、显示软件的安装地址C:Program FilesMicrosysKeyword Research 9
3、软件的快捷方式保存名称是Keyword Research 9
4、这里可以查看一下软件的安装项目,点击install就可以开始安装
5、提示安装的进度,等待软件安装完毕就可以使用
6、这里提示其他官方软件下载,如果你需要安装其他软件,可以勾选,建议不安装
7、到这里A1 Keyword Research就安装完毕了,点击finish
使用方法
1、打开软件,这里可以选择将软件设置为中文
2、点击扫描项目,可以选择网站目录根路径网站扫描的唯一必选项,添加您需要扫描的网站
3、扫描进度,提示已找到列表网址:已减少列表网址:已分析内容:已分析引用:
4、打开工具界面,这里显示删除HTML注释、格式化和删除空白符(U)、高亮显示文档句法、拼音检查文件、新增文字到xx- custon-user.dic( global)
5、程序选择:网站扫描后、资料输入输出、网址重要性演算法、字型像素计算
6、这里是帮助功能,可以分享论坛,可以在线找到帮助
7、页面[关键字]、分析网址清单、位置分析、位置检测、位置[历史]、关键字激增、关键字[建议]
使用说明
已下载内容
储存
需要分析
分析已开始
分析完成
内容分析完毕
引用分析完毕
资讯请求完成("head")
完全请求完成(get")
检测到" meta robots noindex
检测到" meta robots nofollow
检测为meta/ header" robots noarchive
检测为meta/ header" robots nosnippet
检测到" Hlink robots canonical
Detected URL with AJAX "l#
Detected page as AJAX fragment source
Detected page as AJAX fragment destination
检测到 robots.txt"过滤
检测到" do not list过滤
检测到" do not analyze"过滤
过滤设置
将内部网址列表限制为列表中含有"档副档名"的网址
Always accept URLS with no file extensions(例如 directories)
Limit output of URLS to those with"MIME content type"in list
将内部网址列表限制为清单中"相对路径中的网址
Limit outout of internal URLS to those below depth level
Website directory path depth level
排除与相对路径字串/ regex"清单中专案相匹配的内部网址
针对在" output filters"选项中的一般设定
区分大小写的比较
内部网址的限制输出到回应代码
爬虫引擎
HTTP(网际网路和本地主机)
HTTP使用 Wininet引擎与设定( Internet Explorer)
HTTP using"Wininet/E" -uses Internet Explorer for settings and AAX content(experimental)
HTTP using Mac OS Apl experimental
本地磁片/UNC/区网
自动侦测
Number of 1/1000 seconds"crawl-delay " between active connections
连接超时前等待秒数(千分之一秒)
读取"超时前等待秒数(千分之一秒)
失败与新连接试之间的毫秒数(千分之一秒)
放弃前尝试连接至某个资源的次数
页面请求预设为GET而非HEAD之后为GET
预设为持续连接
在资料传送中允许GZip/压缩
待发送的 Accept- Language请求页头(若不填,则不发送)
en-us,en,*
Additional HTTP reauest headers to send (if left empty. none is sentl)
网站"爬网陷阱"检测
忽略"动态回圈 (dynamic circular)生成的内部连结
384内部连结的最大字元数
主要优势
为网站扫描创建日志档(会降低网站搜寻速度
储存重定向、来自和指向所有页面的连结、统计等资料
验证外部连结是否存在
储存找到的外部连结
Inspect URLS to detect language if necessary to iden
执行所有页面的关键字密度分析
储存所有页面的标题
储存所有页面的"meta"描述
针对所有网页储存关键字描述
使用" fallback" tags for标题and描述 if necessary
针对所有网页储存H1与H2
∨ 展开