JavaScript 中的批处理和缓存

本文最后更新于:2021年2月22日 下午

场景

最近在生产环境遇到了下面这样一个场景:
后台在字典表中存储了一些之前需要前后端共同维护的枚举值,并提供根据 type/id 获取字典的 API。所以在渲染列表的时候,有很多列表的字段直接就是字典的 id,而没有经过后台的数据拼装。

也是吾辈之前写的文章 react 通用列表组件封装 中的那个通用列表在实际使用时遇到的问题之一。

起初,吾辈解决问题的流程如下

  1. 确定字典字段,添加转换后的对象类型接口
  2. 将对象列表进行转换得到其中字典字段的所有值
  3. 对字典 id 列表进行去重
  4. 根据 id 列表从后台获取到所有的字典数据
  5. 将获得的字典数据转换为 id => 字典 的 Map
  6. 遍历最初的列表,对里面指定的字典字段进行转换

可以看到,上面的步骤虽然不麻烦,但却十分繁琐,需要定义额外的类型不说,还很容易发生错误。

思路

  1. 使用 异步批处理 + LRU 缓存 优化性能
  2. 支持异步 formatter 获得更好的使用体验

实现异步批处理

参考实现: batch

实现批处理的基本思路如下

  1. 使用 Map paramCache 缓存传入的 参数 => 剩余调用次数(该参数还需要查询几次结果)
  2. 使用 Map resultCache 缓存 参数 => 结果
  3. 使用 lock 标识当前是否有函数正在执行
  4. 满足以下条件需要等待
    1. Map 中不包含结果
    2. 目前有其它调用在执行
    3. 还未满最小等待时长(收集调用的最小时间片段)
  5. 使用 lock 标识正在执行
  6. 判断是否已经存在结果
    1. 如果不存在则执行批处理处理当前所有的参数
  7. 从缓存 Map 中获取结果
  8. paramCache 中对应参数的 剩余调用次数 -1
  9. 判断是否还需要保留该缓存(该参数对应的剩余调用次数为 0)
    1. 不需要则删除
  10. 判断缓存的结果是否是 Error
    1. 是的话则 throw 抛出错误

LRU 缓存

参考: Wiki 缓存算法, 实现 MemoryCache

  • 问:这里为什么使用缓存?
  • 答:这里的字典接口在大概率上是幂等的,所以可以使用缓存提高性能
  • 问:那么缓存策略为什么要选择 LRU 呢?
  • 答:毫无疑问 FIFO 是不合理的
  • 问:那为什么不选择 LFU 算法呢?它似乎能保留访问最频繁的资源
  • 答:因为字典表并非完全幂等,吾辈希望避免一种可能–访问最多的字典一直没有删除,而它在数据库已经被更新了

大致实现思路如下

  1. 使用一个 Map 记录 缓存 key => 最后访问时间
  2. 每次获取缓存时更新最后访问时间
  3. 添加新的缓存时检查缓存数量
    1. 如果超过最大数量,则删除最后访问时间距离现在最长的一个缓存
  4. 添加新的缓存

Pass: 不要吐槽性能很差啦,这个场景下不会缓存特别多的元素啦,最多也就不到 1000 个吧

结合高阶函数

现在,我们可以结合这两种方式了,同时使用 onceOfSameParam/batch 两个高阶函数来优化 根据 id 获取字典信息 的 API 了。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
const getById = onceOfSameParam(
batch<[number], Dict>(async (idList) => {
if (idList.length === 0) {
return new Map()
}
// 一次批量处理多个 id
const list = await this.getByIdList(uniqueBy(idList.flat()))
return arrayToMap(
list,
(dict) => [dict.id],
(dict) => dict,
)
}, 100),
)

支持异步 formatter

原本想要支持 ListTable 的异步 formatter 函数,但后来想想,如果 slot 里也包含字典 id 呢?那是否 slot 也要支持异步呢?这可是个比较棘手的问题,所以还是不支持好了。

最终,吾辈在组件与 API 之间添加了 *Service 中间层负责处理数据转换。


JavaScript 中的批处理和缓存
https://blog.rxliuli.com/p/6073fb1fbe584c46a49cfbad6e44901f/
作者
rxliuli
发布于
2020年7月3日
许可协议