答:vue的seo问题
做不做seo,取决于客户的需求,想要被搜索引擎收录链接,nuxtjs可以试一下。如果只需要部分页面被收录,可以去看看预渲染:prerender-spa-plugin。vue-ssr文档都有介绍,可以去看看
答:mysql中数据表千万数据的条件查询优化
千万级并没有什么好的优化方案。唯一方案就是给SQL中被查询的条件增加索引。就是看慢查询,给所有where条件加组合索引。除此之外,只有上搜索引擎一条路。
2022-07-03
答:chrome 如何添加自定义搜索 到 “搜索引擎”
将自订搜索页面的显示风格改为「Google 代管」,然后就可以得到如下的搜索页面地址:https://www.google.com/cse/publicurl?cx=a:b#gsc.tab=0&gsc.q=keywords&gsc.sort=Relevance
答:前后端分离开发下优化问题
实际上,SSR 的改进不仅在于 SEO。我们都知道移动设备的性能有限,对打开速度更敏感,所以再服务器端渲染目标页,直接在移动设备上打开,用户体验远比“加载服务框架 -> 加载数据 -> 渲染”要好。
2018-03-26
答:官网适合用vue-cli吗?
面试官说的也不地道,脚手架、框架对 SEO 根本没有影响,有影响的是浏览器端渲染,因为大部分搜索引擎不会通过运行 JS 来获取渲染后的数据。而三大框架都是采用浏览器端渲染的,所以影响 SEO。在实际开发的时候,只需要确保用户和搜索引擎请求拿到的是一个内容完整的 HTML 文件就可以了,不必真的写一个完整的 index.htm...
2019-12-21
问:Echarts动态设置提示语样式
使用echarts制作环表时,样式上遇到这么一个需求,目前做到的效果如下图: 需求要求红框标记里的绿色区域背景色和环表区域保持同步demo代码如下: {代码...}
2019-06-20✓ 已解决
问:Nuxt.js SPA模式解决SEO问题
公司准备开发一个电商类网站,后台由java开发,前端项目一直都是使用vue.js开发的,但是单页模式对搜索引擎不友好,因此准备使用Nuxt.js来做,有一些问题想问下各路大佬
2018-12-24
问:关于终止for循环的问题?
以上是我的代码,问:1.当 cityname='北京' 时,打印结果是2、1,请问为什么还会走到1;2.为何无论 cityname='北京' 或 cityname='北京1' 都无法出发 console.log(3);
2019-03-07✓ 已解决
问:echarts的堆叠区域图如果添加图片?
如果把箭头所指的5个区域换成背景图片,图片不重叠? {代码...}
2021-09-06
问:Echarts折线图问题,鼠标悬停的地方不能正确展示数据怎么回事呢?
前端代码 {代码...} js {代码...}
2019-12-11
答:请问如何更快速有效的爬网站?
你说的是爬取网站代码,还是让搜索引擎快速爬取你的网站,如果是前置一般都是用python写爬虫,这个我不是太了解,但是后者就是seo,这个我还是比较了解的 一般的方法,是登陆Google搜索引擎和百度,向搜索引擎提交自己的网站URL,这样做是不够。此外Google Sitemaps 有助于加速网页的查找,这也是抓取网页和编制索引重要...
问:echart 地图,怎么通过单独配置标注出钓鱼岛
echart 地图,怎么通过单独配置标注出钓鱼岛 {代码...}
2021-04-09
答:求中国四色地图配置数据
F1 9,12,14,19,26,27,28,31,33F2 4, 5, 7,13,17,23,29,32F3 8,10,11,15,16,21,22,24,34F4 1, 2, 3, 6,18,20,25,30
2016-08-03
答:我用webpack+vue写了一个网站,后端说查看源代码看不到文字,百度抓不到信息,怎么解决
百度的搜索引擎默认不执行站内js。所以前后端分离,先加载模板再去请求数据这种不适合做需要SEO的项目。题主可以考虑使用Vue2的服务器端渲染,直接拿渲染好的页面。
2016-12-16
答:Mongodb全文索引的设置是否合理?
全文索引目前建议还是使用专门的搜索引擎去做,MongoDB虽然支持全文索引,但是功能并不是很丰富,使用场景有局限性,很多情况下还存在问题,所以并不推荐使用。
2017-05-27
答:木马网页为什么能快速被google收录?
这个不是漏洞啊,这个是Feature 收录速度快,才能时效性高。。。搜索引擎不就是拼收录速度和时效性么 P.S. 你可以去Google站长平台删除收录的页面,否则有可能被Google的反垃圾打压
答:关于搜索引擎robots.txt的问题
你说的不可通过浏览器输入URL可访问资源是不是类似于.htaccess,你可以通过类似于www.xxx.com/robots.txt能不能访问到你网站的robots.txt。 如果访问不到,搜索引擎的爬虫也爬不到。
2014-07-25