这就是geohash的Z型空间跳跃,有时候想查会很大,极大增加检索时间
高效的多维空间点索引算法 — Geohash 和 Google S2引子 每天我们晚上加班回家,可能都会用到滴滴或者共享单车。打开 app 会看到如下的界面: app 界面上会显示出自己附近一个范围内可用的出租车或者共享单车。假设地图上会显示...
这就是geohash的Z型空间跳跃,有时候想查会很大,极大增加检索时间
高效的多维空间点索引算法 — Geohash 和 Google S2引子 每天我们晚上加班回家,可能都会用到滴滴或者共享单车。打开 app 会看到如下的界面: app 界面上会显示出自己附近一个范围内可用的出租车或者共享单车。假设地图上会显示...
引子 每天我们晚上加班回家,可能都会用到滴滴或者共享单车。打开 app 会看到如下的界面: app 界面上会显示出自己附近一个范围内可用的出租车或者共享单车。假设地图上会显示...
生产环境中碰到一个问题是spark的history server日志满了 org.apache.hadoop.ipc.RemoteException(org.apache.h...
概念介绍NVM——Node Version Manager(Node版本管理器),用它可以方便的在机器上安装并维护多个Node的版本。那么为什么需要多个版本呢?场景有很多,比...
1. 需要的jar包依赖 2. 写数据到HBase (1) 使用saveAsNewAPIHadoopDataset() (2) 使用saveAsHadoopDataset()...
一样的报错,但是这样不行
Chome安装显示"安装程序无法创建临时目录xxx"的解决办法如图所示: 原因:C:\Program Files (x86)目录下存在名为Google的文件,导致无法安装程序无法创建Google文件夹 解决办法:删掉这个文件即可
Linux 上服务执行脚本时运行正常,切换到Mac上之后如下脚本一直报错 Linux 上服务执行脚本时运行正常 本地Mac 错误如下 Mac OS X 的默认Bash 是3....
如果你做过类似的资料搜索工作, 你会容易找到相关的配置方法. 然而, 但是, 大部分都是你抄我, 我抄你的, 并没有仔细检测, 就写的教程.其中重要的就是删除过期日志文件的...
精彩,比较明了👍
Apache Druid0.17版本冷热数据分离设置Druid0.17版本冷热数据分离设置 有一个安装好的Druid集群,安装Druid集群请参考 Druid0.17.0版本集群实施文档 这里我已经按照上面的步骤向集群中写入了...
Druid0.17版本冷热数据分离设置 有一个安装好的Druid集群,安装Druid集群请参考 Druid0.17.0版本集群实施文档 这里我已经按照上面的步骤向集群中写入了...
找到答案没
奇怪的GC (Allocation Failure)日志今天在玩JVM的GC日志时,遇到了一个奇怪的现象。目前的知识还没找到原因,先记录下。找到原因有再补充~。 环境是:JDK8 1. 先上构造场景的代码。 代码比较简单,创建4个...
gitHub地址:https://github.com/MustangYM/WeChatExtension-ForMac[https://github.com/Mustang...
绝 搞不定
求联求下联: 上联:烟炕炕烟烟从烟囱出 下联:
一、概述 手动实现一款轻量,高效的RPC框架,基于TCP的二进制协议实现 github源码:https://github.com/wosn00/srpc[https://gi...
在如何给老婆解释什么是RPC中,我们讨论了RPC的实现思路。那么这一次,就让我们通过代码来实现一个简单的RPC吧! RPC的实现原理 正如上一讲所说,RPC主要是为了解决的两...
会不会有人不把钱存在同一家银行?😀
当maven需要到的依赖jar包不在本地仓库时, 就需要到远程仓库下载 . 这个时候如果mavensetting.xml中配置了镜像 , 而且镜像配置的规则中匹配到目标仓库时...
我们知道数仓不满足第一范式,也就是说数仓中的字段是可再分的,不满足原子性,即DDL可以定义一个字段类型为数组。因此才有了explode()函数,用于给这个字段展开降维。 ex...
1.to----的感觉是"朝着某个目标而去"(目标明确,一定会到) 例: Give the book to me.(将那本书交给我) 把书交到我手中."我"是动作的目标. "...
请问下,最后举例中的pv 是类似于用户ID的吗? 我认为你最后求一天的uv其实是求uv,所以这个pv是大数据中常识的pv吗
使用 Apache Doris HyperLogLog 实现近似去重在实际的业务场景中,随着业务数据量越来越大,对数据去重的压力也越来越大,当数据达到一定规模之后,使用精准去重的成本也越来越高,在业务可以接受的情况下,通过近似算法来实现快速去...