1 回答
TA贡献1887条经验 获得超5个赞
FaunaDB 提供了很多构造,这使其功能强大,但您有很多选择。强大的力量带来了一个小的学习曲线:)。
如何阅读代码示例
为了清楚起见,我在这里使用了 FQL 的 JavaScript 风格,并且通常从 JavaScript驱动程序公开 FQL 函数,如下所示:
const faunadb = require('faunadb')
const q = faunadb.query
const {
Not,
Abort,
...
} = q
像这样导出 Map 时必须小心,因为它会与 JavaScript 映射冲突。在这种情况下,您可以只使用 q.Map。
选项 1:使用 ContainsStr() 和过滤器
根据文档的基本用法
ContainsStr('Fauna', 'a')
当然,这适用于特定值,因此为了使其工作,您需要Filter 并且 Filter 仅适用于分页集。这意味着我们首先需要获得一个分页集。获取一组分页文档的一种方法是:
q.Map(
Paginate(Documents(Collection('tasks'))),
Lambda(['ref'], Get(Var('ref')))
)
但是我们可以更有效地做到这一点,因为一次阅读 === 一次阅读并且我们不需要文档,我们将过滤掉很多文档。有趣的是,一个索引页也是一次读取,因此我们可以如下定义索引:
{
name: "tasks_name_and_ref",
unique: false,
serialized: true,
source: "tasks",
terms: [],
values: [
{
field: ["data", "name"]
},
{
field: ["ref"]
}
]
}
由于我们将 name 和 ref 添加到值中,索引将返回 name 和 ref 的页面,然后我们可以使用它们进行过滤。例如,我们可以对索引做类似的事情,对它们进行映射,这将返回一个布尔数组。
Map(
Paginate(Match(Index('tasks_name_and_ref'))),
Lambda(['name', 'ref'], ContainsStr(Var('name'), 'first'))
)
由于 Filter 也适用于数组,我们实际上可以简单地将Map替换为 filter。我们还将添加一个小写字母以忽略大小写,我们有我们需要的:
Filter(
Paginate(Match(Index('tasks_name_and_ref'))),
Lambda(['name', 'ref'], ContainsStr(LowerCase(Var('name')), 'first'))
)
就我而言,结果是:
{
"data": [
[
"Firstly, we'll have to go and refactor this!",
Ref(Collection("tasks"), "267120709035098631")
],
[
"go to a big rock-concert abroad, but let's not dive in headfirst",
Ref(Collection("tasks"), "267120846106001926")
],
[
"The first thing to do is dance!",
Ref(Collection("tasks"), "267120677201379847")
]
]
}
过滤和缩小页面大小
正如您所提到的,这并不是您想要的,因为这也意味着如果您请求 500 个大小的页面,它们可能会被过滤掉,您最终可能会得到一个大小为 3 的页面,然后是 7 个页面中的一个。您可能会认为,为什么我不能只在页面中获取过滤后的元素?好吧,出于性能原因,这是一个好主意,因为它基本上检查每个值。想象一下,你有一个庞大的集合并过滤掉了 99.99%。您可能必须遍历许多元素才能达到 500,所有这些都需要读取。我们希望定价是可预测的:)。
选项 2:索引!
每次你想做更高效的事情时,答案就在于索引。FaunaDB 为您提供了实现不同搜索策略的原始能力,但您必须有点创意,我在这里为您提供帮助:)。
绑定
在索引绑定中,您可以转换文档的属性,在我们的第一次尝试中,我们会将字符串拆分为单词(我将实现多个,因为我不完全确定您想要哪种匹配)
我们没有字符串拆分功能,但由于 FQL 很容易扩展,我们可以自己编写它,绑定到我们宿主语言中的变量(在本例中为 javascript),或者使用这个社区驱动的库中的一个:https://github .com/shiftx/faunadb-fql-lib
function StringSplit(string: ExprArg, delimiter = " "){
return If(
Not(IsString(string)),
Abort("SplitString only accept strings"),
q.Map(
FindStrRegex(string, Concat(["[^\\", delimiter, "]+"])),
Lambda("res", LowerCase(Select(["data"], Var("res"))))
)
)
)
并在我们的绑定中使用它。
CreateIndex({
name: 'tasks_by_words',
source: [
{
collection: Collection('tasks'),
fields: {
words: Query(Lambda('task', StringSplit(Select(['data', 'name']))))
}
}
],
terms: [
{
binding: 'words'
}
]
})
提示,如果你不确定你是否做对了,你总是可以用值而不是术语来绑定,然后你会在动物仪表板中看到你的索引是否真的包含值:
我们做了什么?我们刚刚编写了一个绑定,它将在写入文档时将值转换为值数组。当您在 FaunaDB 中索引文档数组时,这些值是单独的索引,但都指向同一个文档,这对于我们的搜索实现非常有用。
我们现在可以使用以下查询找到包含字符串“first”作为其单词之一的任务:
q.Map(
Paginate(Match(Index('tasks_by_words'), 'first')),
Lambda('ref', Get(Var('ref')))
)
这会给我一个文件名:“首先要做的是跳舞!”
其他两个文档没有包含确切的单词,那么我们该怎么做呢?
选项 3:索引和 Ngram(精确包含匹配)
为了获得精确的包含匹配效率,您需要使用一个名为“NGram”的(仍然没有记录的函数,因为我们将来会使其更容易)函数。在 ngram 中划分字符串是一种搜索技术,通常在其他搜索引擎的底层使用。在 FaunaDB 中,由于索引和绑定的强大功能,我们可以轻松地应用它。Fwitter 示例的源代码中有一个自动完成的示例。此示例不适用于您的用例,但我确实为其他用户引用了它,因为它用于自动完成短字符串,而不是像任务一样在较长字符串中搜索短字符串。
我们会根据您的用例对其进行调整。在搜索方面,这完全是性能和存储的权衡,在 FaunaDB 中,用户可以选择他们的权衡。请注意,在前面的方法中,我们分别存储每个单词,使用 Ngrams 我们将进一步拆分单词以提供某种形式的模糊匹配。不利的一面是,如果您做出错误的选择,索引大小可能会变得非常大(搜索引擎同样如此,因此它们让您定义不同的算法)。
NGram 本质上所做的是获取一定长度的字符串的子字符串。例如:
NGram('lalala', 3, 3)
将返回:
如果我们知道我们不会搜索超过某个长度的字符串,假设长度为 10(这是一个折衷,增加大小会增加存储需求,但允许您查询更长的字符串),您可以编写跟随 Ngram 生成器。
function GenerateNgrams(Phrase) {
return Distinct(
Union(
Let(
{
// Reduce this array if you want less ngrams per word.
indexes: [0, 1, 2, 3, 4, 5, 6, 7, 8, 9],
indexesFiltered: Filter(
Var('indexes'),
// filter out the ones below 0
Lambda('l', GT(Var('l'), 0))
),
ngramsArray: q.Map(Var('indexesFiltered'), Lambda('l', NGram(LowerCase(Var('Phrase')), Var('l'), Var('l'))))
},
Var('ngramsArray')
)
)
)
}
然后,您可以按如下方式编写索引:
CreateIndex({
name: 'tasks_by_ngrams_exact',
// we actually want to sort to get the shortest word that matches first
source: [
{
// If your collections have the same property tht you want to access you can pass a list to the collection
collection: [Collection('tasks')],
fields: {
wordparts: Query(Lambda('task', GenerateNgrams(Select(['data', 'name'], Var('task')))))
}
}
],
terms: [
{
binding: 'wordparts'
}
]
})
你有一个索引支持的搜索,你的页面是你请求的大小。
q.Map(
Paginate(Match(Index('tasks_by_ngrams_exact'), 'first')),
Lambda('ref', Get(Var('ref')))
)
选项 4:索引和大小为 3 的 Ngram 或三元组(模糊匹配)
如果你想要模糊搜索,通常使用三元组,在这种情况下我们的索引会很容易,所以我们不会使用外部函数。
CreateIndex({
name: 'tasks_by_ngrams',
source: {
collection: Collection('tasks'),
fields: {
ngrams: Query(Lambda('task', Distinct(NGram(LowerCase(Select(['data', 'name'], Var('task'))), 3, 3))))
}
},
terms: [
{
binding: 'ngrams'
}
]
})
如果我们再次将绑定放在值中以查看结果,我们将看到如下内容:
在这种方法中,我们在索引端和查询端一样使用两个三元组。在查询方面,这意味着我们搜索的“第一个”单词也将被划分为三元组,如下所示:
例如,我们现在可以进行如下模糊搜索:
q.Map(
Paginate(Union(q.Map(NGram('first', 3, 3), Lambda('ngram', Match(Index('tasks_by_ngrams'), Var('ngram')))))),
Lambda('ref', Get(Var('ref')))
)
在这种情况下,我们实际上进行了 3 次搜索,我们正在搜索所有三元组并将结果合并。这将返回我们所有包含 first 的句子。
但是,如果我们拼错了它并写了frst,我们仍然会匹配所有三个,因为有一个匹配的 trigram (rst)。
- 1 回答
- 0 关注
- 114 浏览
添加回答
举报