非常耗时的破除GoogleSheet的ImportXML次数的解决方法

A very time-consuming hack to bypass GoogleSheet’s limit on ImportXML


众所周知,谷歌试算表的ImportXML功能很强大很方便
但是呢,限制也很明显,单个文件超过50次使用
页面就会卡在Loading data…



咦。。。被啪啪啪打脸
继续



好吧,看来现在限制变成100了
感谢谷歌。。。
在网上搜了一圈
貌似这就是免费功能的代驾
测试了新建几个表分摊这个限制
貌似不行
测试了新建几个文件分摊
貌似限制是跟着账户走的
于是继续测试新建几个账户。。。



成功!
这样一来,如果你有10个账户
那单小时使用ImportXML的上限就变成了100*10=1000!


下面是具体实现的方法。。。
毕竟想把十个不同账户的GoogleSheet合并到一个总表里也是略微有挑战的


一,注册十个google账户 (或者,你有9个同事,那就可以跳过这一步)
二,每个账户(人)新建一个空白的GoogleSheet并把编辑权限都给你(10 Child Sheet)
三,用自己的账户建立一个总表(Master Sheet)
四,逐个打开子表,配置,按图give access





五,总表关联10个子表
六,具体细节自己领悟



十个可能效果不明显
但是设想你有10000条新闻
想短时间抓取他们的标题,作者等信息
碰巧你又有100个google账户(或同事)
点一下,再点一下
那可是节省了99%的时间
最最最重要的
这是一个一次性配置,每小时限制清零的可复用hack


生命在于运动
技术改变生活
芝士就是力量

发表在 有用的 | 留下评论

外挂聊天室

这是一段代码,在打开的网页中使用,可以加载一个外挂形式的聊天室功能,
就可以和同样访问此网站进行相同操作的网友进行聊(fa)天(che)了。
使用方法:
1、Chrome浏览器:
首先访问任意网站,打开浏览器开发者工具 (win 下一般是按 F12),在 Console 里输入 下方代码
var s=document.createElement('script');
s.src='https://topurl.cn/chat.js';
document.body.append(s);

发表在 有用的 | 留下评论

绝杀慕尼黑 Движение вверх (2017) 豆瓣8.3

发表在 影视资源推荐 | 留下评论

行骗天下:运势篇 コンフィデンスマンJP 運勢編 (2019)


豆瓣8.4

发表在 影视资源推荐 | 留下评论

我的一级兄弟 나의 특별한 형제 (2019) 豆瓣 8.2

发表在 影视资源推荐 | 留下评论

劣迹斑斑 The Dirt (2019) 豆瓣7.7

发表在 影视资源推荐 | 留下评论

夏目友人帐 劇場版 夏目友人帳 ~うつせみに結ぶ~ (2018)

豆瓣8.0


发表在 影视资源推荐 | 留下评论

切尔诺贝利 Chernobyl (2019) 豆瓣9.7

发表在 影视资源推荐 | 留下评论

#微博 #Instagram #声量抓取 #520

依稀记得
很久以前
某人找我抓取微博的转评赞
无用教程之写一个Chrome插件玩
于是写了上面的文章
结果被说太技术了。。。


现在又有了新的需求
除了微博post的转评赞
还需要该博主的声量
于是现在需求变成了
输入:50条微博
输出:50条微博+对应博主的粉丝数


于是一步一步来
今日食材



第一步,洗菜



即把这50个微博的链接放到一个google sheet里


第二步,切菜



也就是把这个公式输入到第二列


=CHAR(34) & regexextract(A2,"(http://weibo.com/\d+)") & CHAR(34) & ","


下拉应用整列
这一步主要是获取那50个微博对应的博主


第三步,下锅



打开Chrome浏览器
打开Web Scraper插件
Create new sitemap
Import sitemap
把B列的作者链接黏贴到下面代码对应位置并删掉最后一个逗号


{"_id":"weibosl",
"startUrl":[把B列的作者链接黏贴到这里并删掉最后一个逗号],
"selectors":
[{"id":"follower",
"type":"SelectorText",
"parentSelectors":
["_root"],
"selector":"td:nth-of-type(2) strong",
"multiple":false,
"regex":"",
"delay":0}]}


随便起一个名字比如weiboshengliang



切换到sitemap标签,点击scrape



第四步,闷一会
默认抓取间隔是2000毫秒(可以修改)
50个微博页面爬完要100秒
完成之后就可以点一下这个refresh



点击Export data as CSV



Download now
第五步 出锅



这个null的数据是原微博被删了
第六步,摆盘



把下载的数据复制到google sheet的DF列
C列输入以下公式


=ArrayFormula(IFERROR(LOOKUP("座",IF(FIND($D$2:$D$50,A2),$E$2:$E$50)),""))


当然那个50是可以改的
如果还是没有结果的话
需要把E列改成纯文本格式
然后就。。。



新鲜出炉的晚餐
Bon Appétit

发表在 有用的 | 留下评论

阿波罗11号 Apollo 11 (2019)


圣丹斯电影节 豆瓣8.7

发表在 影视资源推荐 | 留下评论