本文搭配同主题分享视频阅读更佳, 《多数据源的数据治理实践》
如果你装好某款数据库产品,比如:分布式图数据库 NebulaGrpah,跃跃欲试的第一步是不是就让它干活搞数据呢?好的,现在问题来了,如何把相对原始的数据处理、建模并导入 NebulaGraph 呢?本文是一个端到端的示例演示,从多数据源聚合数据,清理、利用 dbt 转换成 NebulaGraph 建模的属性图点边记录,最后导入成图谱的全流程。
## 构建知识图谱
现在假设你是一个类似于 Netflix、爱奇艺之类的视频服务提供商,我们需要利用图数据库搭建一个 用户-电影
的知识图谱,来 辅助、支撑视频推荐、问答和推荐理由等常见由图谱支撑的场景 。由于时间的关系,这里先用我们熟悉的老朋友——图数据库 NebulaGraph 来搞定知识图谱。
一般来说,知识图谱需要的数据会有不同的数据来源,比如一些公开的 API、数仓中的不同数据库、静态文件。这时候,我们如果要构建知识图谱,需要以下 3 个步骤:
## 数据源
这里我们会用到两个数据源 OMDB 和 MovieLens 。
OMDB 是一个开放的电影数据库,将用来模拟公司内部的业务数据。我们可以获得的信息有:
MovieLens 是一个开放的数据集,用来模拟公司内部的用户数据。我们可以获得的信息有:
## 图建模
在之前的文章 《基于图数据库的推荐系统》 里我们介绍了推荐系统的图数据库基本用法。在那篇文章中,内容过滤侧重关注 用户-->电影
、 电影-->分类
、 电影-->演员
、 电影-->导演
等关系,协同过滤则关注 用户-->电影
的关系,以及推荐理由服务关注以上所有的关系。
总结起来,我们需要的边有:
结合已有信息,相对应地将顶点中可能需要被关注的信息作为属性,给出点 tag 的初始规划:
## 表数据到知识图谱的映射
有了目标的图谱结构定义,我们来看看手上的数据如何映射到它。
### OMDB 数据
首先是 OMDB 数据,它由很多表组成,比如 all_movies
这张表,存储了所有的电影、以及它们在不同语言下的名字:
| movie_id | name | language_iso_639_1 | official_translation |
| 1 | Cowboy Bebop | de | 1 |
| 1 | Cowboy Bebop | en | 1 |
| 2 | Ariel - Abgebrannt in Helsinki | de | 0 |
| 3 | Shadows in Paradise | en | 0 |
| 3 | Im Schatten des Paradieses | de | 0 |
| 3 | Schatten im Paradies | de | 1 |
而 all_casts
表格中保有所有电影相关的工作人员:
| movie_id | person_id | job_id | role | position |
| 11 | 1 | 21 | | 1 |
| 11 | 1 | 13 | | 1 |
| 11 | 2 | 15 | Luke Skywalker | 1 |
| 11 | 3 | 15 | Han Solo | 3 |
| 11 | 4 | 15 | Leia Organa | 2 |
但是这里的每一个人的姓名等信息、以及他/她在电影中任职的职位,则分别在表 job_names
和 all_people
中:
这里讲解下 job_names
表,1 代表编剧、2 代表制作人。有意思的是,和上表的电影 id 与 name 字段一样,job_id 到 name 也是一对多的关系,因为 OMDB 中的数据都是多语言的。
| job_id | name | language_iso_639_1 |
| 1 | Autoren | de |
| 1 | Writing Department | en |
| 1 | Departamento de redacción | es |
| 1 | Département écriture | fr |
| 1 | Scenariusz | pl |
| 2 | Produzenten | de |
| 2 | Production Department | en |
下面这张表是 all_people
:
| id | name | birthday | deathday | gender |
| 1 | George Lucas | 1944-05-14 | \N | 0 |
| 2 | Mark Hamill | 1951-09-25 | \N | 0 |
| 3 | Harrison Ford | 1942-07-13 | \N | 0 |
| 4 | Carrie Fisher | 1956-10-21 | 2016-12-27 | 1 |
| 5 | Peter Cushing | 1913-05-26 | 1994-08-11 | 0 |
| 6 | Anthony Daniels | 1946-02-21 | \N | 0 |
这是在数据来源是表结构、RDBMS 中,是一个很典型的情况,所以对于 movie <-[directed_by]-(person)
这个关系,就涉及了 all_movies
, all_casts
, all_people
, job_names
四个表格:
all_casts
之中all_casts
之中job_names
之中的 “director”all_casts
之中all_movies
中按 id 查找,language 为 “en”all_casts
之中all_people
之中所有 OMDB 中我们关心的表的关联如图:
### MovieLens 数据集
上面我们讲述了单数据源的场景,只有单一数据源、数据表或者数仓的数据。但在真实场景中,我们还需要从其他源头收取数据,并聚合起来。在本例中,我们还需要从 MovieLens 的数据集中抽取需要的知识。
这里,涉及到 MovieLens 数据集,我们利用的只有: 用户-->电影
,这一条关系。
movies.csv
数据:
| movieId | title | genres |
| 1 | Toy Story (1995) | Adventure |
| 2 | Jumanji (1995) | Adventure |
| 3 | Grumpier Old Men (1995) | Comedy |
| 4 | Waiting to Exhale (1995) | Comedy |
ratings.csv
数据:
| userId | movieId | rating | timestamp |
| 1 | 1 | 4 | 964982703 |
| 1 | 3 | 4 | 964981247 |
| 1 | 6 | 4 | 964982224 |
从两个表的数据预览似乎可以得出:
ratings.csv
中的 userIdratings.csv
中的 movieIdratings.csv
中的 ratingratings.csv
中的 userId然而,细心的你们一定发现 MovieLens 数据集中的 movieId 和来自于 OMDB 中的电影 id 完全是不同的两套体系。如果我们需要让它们关联起来,需要将 MovieLens 里的 movieId 转换成为 OMDB 中的电影 id,而它们之间的关联条件则是电影的标题。
但是,通观察我们知道:
(1995)
这样的年份信息所以我们最终的结论为
ratings.csv
中的 userIdratings.csv
中的 movieId, 终点要从 movies.csv
中的 title ,在 OMDB 之中查找,得到 OMDB 的 movie_id 。查找条件为去掉年份,从 OMDB 的英文标题中进行匹配ratings.csv
中的 ratingratings.csv
中的 userId现在,这个表格之间的关系如下
### 映射数据到图谱(属性图)
到这里小结下,我们需要对多个数据源中的不同表格(或者表格形式的 CSV 文件)进行聚合,这样的对应关系如图所示:蓝色虚线表示图中顶点的数据信息来源,粉色虚线表示边信息的来源。
此外,我们还要对不同表中个体的 id 进行格式化,比如 user_id,是自增的数字,我们要转换成全局唯一的 vertex_id。比较方便的方法是在现有 id 的基础上增加字符串前缀,比如 u_
。
最终,以 user -[watched]-> movie
关系为例,我们可以处理得到这样的表结构数据:
| user_id | rating | title | omdb_movie_id |
| u_1 | 5 | Seven (a.k.a. Se7en) | 807 |
| u_1 | 5 | Star Wars: Episode IV - A New Hope | 11 |
| u_1 | 5 | Star Wars: Episode IV - A New Hope | 10 |
| u_1 | 4 | Mask, The | 832 |
| u_1 | 3 | Mrs. Doubtfire | 832 |
其中每一行记录中存在三个图上的结构信息:
## 数据工具
好的,我们现在已经完成了数据的分析与建模设计,在进入”抽取关联关系,导入图数据库“环节之前,先介绍一下我们要用到的工具。
”抽取关联关系“可以简单认为是 ETL 中的 Extract 和 Transform。本质上就是工程上执行数据映射与转换的工作,市面上有很多不同风格的工具、开源项目可以做 ETL 这件事。这里我们用到我个人比较喜欢的工具: dbt 。
### 数据转换利器 dbt
dbt 是一个开源的数据转换工具,它有非常成熟的社区和生态,可以在大多数主流数仓之中进行高效、可控、高质量的数据转换工作。无论是临时的转换工作(ad-hoc),还是在给定的定时 pipeline 中进行复杂编排,dbt 都可以很好胜任。它的一大特色就是使用 SQL LIKE 语言去描述数据转换的规则。此外,它还基于 GitOps 可以非常优雅地多人协作、维护超大规模数据团队里复杂的数据处理作业。而 dbt 内置的数据测试能力可以很好地控制数据质量,可复现、控制数据问题。
dbt 不仅有许多集成的子项目,还能和像是 Meltano、Airflow、Amundsen、Superset 之类的优秀开源项目有机地结合,形成一整套现代的数据基础设施体系。对具体实践感兴趣的同学可以阅读文末「参考资料中」的数据治理实践。
简单来说,dbt 是一个 Python 写的命令行工具。针对不同的项目,我们可以用 dbt 创建特定格式的项目文件夹,它会自带一个 .yaml
配置文件。我们要在配置文件里指定数据转换的来源信息在哪里,目标在哪里(处理之后的数据存储的地方,可能是 PostgreSQL、BigQuery、Spark 等)。在数据源中,我们用 yaml 文件和 .sql
文件一起描述了”从哪里取哪些数据,如何做变换,输出什么“的信息。
这个截图就是 dbt 官方文档中的示例项目中的文件和配置,可以看到 models/example
里的信息就是最核心的数据转换 transform 的规则,而所有的其他数据都是和这个数据转换相关的元数据,这些 dbt 项目文件非常适合用 git 来进行维护,进行现代、自动化的 DataOps。
### NebulaGraph 数据导入
经过 dbt 对数据进行处理之后,我们可以得到直接映射到不同类型的顶点、边、及其属性的表结构的中间数据,它们可以是 CSV 的文件形式,也可以是数仓中的表,甚至可能是 Spark 中的 DataFrame。而将它们导入 NebulaGraph 有不同的选择,可以选数据导入工具 NebulaGraph Exchange 、 NebulaGraph Importer 、 NebulaGraph Spark Connector 的任意一款。
在这里,用最简单的 NebulaGraph Importer 作为例子。
NebulaGraph Importer 是一个用 Golang 写的开源数据工具。它可以编译成一个单文件的二进制,通过预配置的 yaml 格式的文件,读取指定 CSV 文件映射到 NebulaGraph 中点、边关系数据。
## 实操
现在,我们来实操下如何利用 dbt + NebulaGraph Importer 进行多数据源聚合、转换,再导入 NebulaGraph 的过程。整个项目的代码已经开源,仓库在 https://github.com/wey-gu/movie-recommendation-dataset 上,欢迎大家参考、共建。
整个实操过程如下:
### 准备 dbt 环境
dbt 是一个 Python 项目,我们在一个虚拟的 Python 3 环境里安装好 dbt 和 dbt-postgres。
python3 -m venv .venv
source .venv/bin/activate
pip install dbt-postgres
创建一个 dbt 项目,并进入到空的项目里:
dbt init dbt_project
cd dbt_project
看看里边的文件吧:
$ tree .
.
|-- README.md # 项目说明 README
|-- analyses
|-- dbt_project.yml # 项目配置文件
|-- macros
|-- models # transform 来源
| \\- - example
| |-- my_first_dbt_model.sql # 一个描述了如何从元数据中 SELECT 并处理的规则
| |-- my_second_dbt_model.sql
| \\- - schema.yml # 规则文件的元数据配置,描述了 sql 规则的属性
|-- seeds # 源数据如果是 CSV 文件,可以放到 seeds 里
|-- snapshots
\\- - tests
7 directories, 5 files
最后,咱们拉一个容器里的 Postgres 当做我们这个项目的数仓。如果你已经有各种其他数仓,就不需要这一步了,不过要把项目中的配置文件作相应的修改,并安装相应的 dbt 插件。
docker run --rm --name postgres \\
-e POSTGRES_PASSWORD=nebula \\
-e POSTGRES_USER=nebula \\
-e POSTGRES_DB=warehouse -d \\
-p 5432:5432 postgres
### 数据下载与预处理
我们把数据放到项目的 raw_data
下吧。
mkdir -p raw_data
cd raw_data
注意,假设 raw_data
在 dbt_proeject
之下:
tree ..
..
|-- README.md
|-- analyses
|-- dbt_project.yml
|-- macros
|-- models
| \\- - example
| |-- my_first_dbt_model.sql
| |-- my_second_dbt_model.sql
| \\- - schema.yml
|-- raw_data # 新建的目录
|-- seeds
|-- snapshots
\\- - tests
8 directories, 5 files
我们把 OMDB 数据下载之后,再解压:
wget www.omdb.org/data/all_people.csv.bz2
wget www.omdb.org/data/all_people_aliases.csv.bz2
wget www.omdb.org/data/people_links.csv.bz2
wget www.omdb.org/data/all_casts.csv.bz2
wget www.omdb.org/data/job_names.csv.bz2
wget www.omdb.org/data/all_characters.csv.bz2
wget www.omdb.org/data/movie_categories.csv.bz2
wget www.omdb.org/data/movie_keywords.csv.bz2
wget www.omdb.org/data/category_names.csv.bz2
wget www.omdb.org/data/all_categories.csv.bz2
wget www.omdb.org/data/all_movie_aliases_iso.csv.bz2
bunzip2 *.bz2
然后是 MovieLens 数据集的下载、解压:
wget https://files.grouplens.org/datasets/movielens/ml-latest-small.zip
unzip ml-latest-small.zip
rm *.zip
在导入数仓进行转换 Transform 之前我们做一些数据的预处理,把它们放到 seeds
之下。
# 因为是实验项目,我们简单粗暴地去掉带有转义的引号的数据,因为它们会被认为是无效字符,处理之后的结果放到 seeds 下边。
grep -v '\\\\"' raw_data/all_movie_aliases_iso.csv > seeds/all_movie_aliases_iso.csv
grep -v '\\\\"' raw_data/all_casts.csv > seeds/all_casts.csv
grep -v '\\\\"' raw_data/all_characters.csv > seeds/all_characters.csv
grep -v '\\\\"' raw_data/all_people.csv > seeds/all_people.csv
grep -v '\\\\"' raw_data/category_names.csv > seeds/category_names.csv
grep -v '\\\\"' raw_data/job_names.csv > seeds/job_names.csv
# 下边的文件无需处理,直接放到 seeds 下边。
cp raw_data/movie_categories.csv seeds/movie_categories.csv
cp raw_data/movie_keywords.csv seeds/movie_keywords.csv
cp raw_data/all_categories.csv seeds/all_categories.csv
cp raw_data/ml-latest-small/ratings.csv seeds/movielens_ratings.csv
cp raw_data/ml-latest-small/movies.csv seeds/movielens_movies.csv
有了 seeds 下边的文件之后,可以用一个命令把他们导入到数仓里:
dbt seed
执行过程因数仓而异,用本地的 Postgres 可能要等一会儿才能完成,执行结果大概是这样的:
$ dbt seed
05:58:27 Running with dbt=1.3.0
05:58:27 Found 2 models, 4 tests, 0 snapshots, 0 analyses, 289 macros, 0 operations, 11 seed files, 0 sources, 0 exposures, 0 metrics
05:58:28
05:58:28 Concurrency: 8 threads (target= 'dev' )
05:58:28
05:58:28 1 of 11 START seed file public.all_casts ....................................... [RUN]
...
07:10:11 1 of 11 OK loaded seed file public.all_casts ................................... [INSERT 1082228 in 4303.78s]
07:10:11
07:10:11 Finished running 11 seeds in 1 hours 11 minutes and 43.93 seconds (4303.93s).
07:10:11
07:10:11 Completed successfully
07:10:11
07:10:11 Done. PASS=11 WARN=0 ERROR=0 SKIP=0 TOTAL=11
### 撰写 Transform model
我们创建 model 如下:
mkdir models/movie_recommedation
touch models/movie_recommedation/user_watched_movies.sql
touch models/movie_recommedation/schema.yml
这时候 models 中的文件结构大概是这样的:
$ tree models
models
\\- - movie_recommedation
|-- user_watched_movies.sql
\\- - schema.yml
这个 model 下边目前只有一个规则,就是负责处理用户观看电影这条边上数据的 SQL 语句。
我们希望输出三列,所以 schema.yml
中的内容是:
version : 2
models :
- name : user_watched_movies
description : "The edges between users and movies they have watched"
columns :
- name : user_id
description : "user id"
tests :
- not_null
- name : movie_id
description : "movie id"
tests :
- not_null
- name : rating
description : "rating given by user to movie"
tests :
- not_null
注意,这里的 tests
的表达是对数据验证、测试的约束。有了它,我可以用 dbt 轻松地对数据质量进行测试、验收,比如:我们要求这里的三个字段都是 not_null
。
然后,我们来写 SQL 吧, user_watched_movies.sql
:
{{ config(materialized= 'table' ) }}
/*
JOIN the movieielens_ratings table with the movieielens_movies table, and removing the movie title tailing the year of release
*/
WITH user_watched_movies AS (
SELECT moveielens_ratings. "userId" ,
moveielens_ratings. "movieId" ,
moveielens_ratings.rating,
REGEXP_REPLACE(moveielens_movies.title, ' \\(\\d{4}\\)$' , '' ) AS title,
moveielens_movies.genres AS movielens_genres
FROM moveielens_ratings
JOIN moveielens_movies ON moveielens_movies. "movieId" = moveielens_ratings. "movieId"
)
/*
JOIN user_watched_movies table with all_movie_aliase_iso table where language is English
the join condition is the movie title
*/
SELECT concat ( 'u_' ,user_watched_movies. "userId" ) AS user_id,
user_watched_movies.rating,
user_watched_movies.title,
all_movie_aliases_iso. "movie_id" AS OMDB_movie_id,
user_watched_movies.movielens_genres
FROM user_watched_movies
JOIN all_movie_aliases_iso ON user_watched_movies.title LIKE CONCAT (all_movie_aliases_iso.name, '%' )
AND all_movie_aliases_iso.language_iso_639_1 = 'en'
而这个 SQL 做的事情就是绿色圆圈标注的部分:
movielens_ratings
中选 user id、movie id、rating、movie title(去掉年份),存成 user_watched_movies
的中间表格movielens_movies
中 JOIN
,通过 movie_id
相同的匹配条件取得user_watched_movies
中选 user id(增加前缀 u_
)、rating、title、OMDB_movie_idall_movie_aliases_iso
中 JOIN
,通过相似的电影姓名匹配 OMDB 电影中英文标题取得当然,我们可以在 Postgres 的连接器中通过增加 LIMIT 快速调试自己的 SQL 语句。
现在我们来通过 dbt 执行、测试刚刚的规则:
dbt run -m user_watched_movies
之后,我们应该就可以在 Postgres(数仓)中看到我们转换之后的一个表了。
类似的,如法炮制所有其他部分的 Transform 规则,我们就获得了这么多 model 了:
$ tree models
models
\\- - movie_recommedation
|-- acted_by.sql
|-- directed_by.sql
|-- genres.sql
|-- movies.sql
|-- people.sql
|-- schema.yml
|-- user_watched_movies.sql
\\- - with_genre.sql
再对他们分别执行 transform:
dbt run -m acted_by
dbt run -m directed_by
dbt run -m with_genre
dbt run -m people
dbt run -m genres
dbt run -m movies
### 导出数据为 CSV
实际上,NebulaGraph Exchange 本身就支持把很多数据源(Postgres,ClickHouse,MySQL,Hive 等等)导入 NebulaGraph。只是在这个例子中,我们处理的数据量对于 NebulaGraph 来说非常非常小(只有百万级别的边而已),所以使用最轻量级的 NebulaGraph Importer 就足够了。而 NebulaGraph Importer 能消费的数据只有 CSV 文件,所以我们把刚才的表都输出为文件。
首先,我们进入 Postgres 的 Console,执行 COPY
命令
COPY acted_by TO '/tmp/acted_by.csv' WITH DELIMITER ',' CSV HEADER;
COPY directed_by TO '/tmp/directed_by.csv' WITH DELIMITER ',' CSV HEADER;
COPY with_genre TO '/tmp/with_genre.csv' WITH DELIMITER ',' CSV HEADER;
COPY people TO '/tmp/people.csv' WITH DELIMITER ',' CSV HEADER;
COPY movies TO '/tmp/movies.csv' WITH DELIMITER ',' CSV HEADER;
COPY genres TO '/tmp/genres.csv' WITH DELIMITER ',' CSV HEADER;
-- 对于 user_watched_movies 我们不输出表头,因为这个文件中记录了两种点、一种边,没法让 importer 通过约定好的表头自动导入,只能通过无表头的情况下指定第几列对应什么字段
COPY user_watched_movies TO '/tmp/user_watched_movies.csv' WITH DELIMITER ',' CSV;
再把 Postgres 容器里的文件导入到 to_nebulagraph
这个文件夹里:
mkdir -p to_nebulagraph
docker cp postgres:/tmp/. to_nebulagraph/
### 导入 NebulaGraph
#### 创建 NebulaGraph 集群
我们可以用 Nebula Up 一键拉起一个测试的 NebulaGraph 单机集群,导入所需数据:
curl -fsSL nebula-up.siwei.io/install.sh | bash
#### 创建 Schema
首先,我们创建一个叫做 moviegraph
的图空间。针对前面的建模,创建点边类型的结构 Schema:
先进入 NebulaGraph 的 Console:
~/.nebula-up/console.sh
再执行如下 DDL(Data Definiation Language):
CREATE SPACE moviegraph(partition_num= 10 ,replica_factor= 1 ,vid_type=fixed_string( 32 ));
:sleep 20
USE moviegraph;
CREATE TAG person( name string, birthdate string);
CREATE TAG movie( name string);
CREATE TAG genre( name string);
CREATE TAG user(user_id string);
CREATE EDGE acted_by();
CREATE EDGE directed_by();
CREATE EDGE with_genre();
CREATE EDGE watched(rate float );
exit
#### 创建 NebulaGraph Importer 配置文件
这个文件是一个描述 CSV 文件和集群中点边数据对应关系的 YAML 文件。详细的格式可以参考文档: https://docs.nebula-graph.com.cn/master/nebula-importer/use-importer/ ,或者视频教程: https://www.bilibili.com/video/BV1ny4y1u7i4 。
最终的配置文件我已经为大家写好了,在 https://github.com/wey-gu/movie-recommendation-dataset/blob/main/nebula-importer.yaml 可以下载得到。
这里,我们就直接下载我写好了的配置文件。注意,这个文件不应该是 dbt 项目文件的一部分,所以我们退出目录,向上一层,把它放到 dbt_proeject
外边:
cd ..
wget https://raw.githubusercontent.com/wey-gu/movie-recommendation-dataset/main/nebula-importer.yaml
#### 开始导入
这一步,我们用容器化的 NebulaGraph Importer,避免了安装的步骤:
docker run --rm -ti \\
--network=nebula-net \\
-v ${PWD} :/root/ \\
-v ${PWD} /dbt_project/to_nebulagraph/:/data \\
vesoft/nebula-importer:v3.2.0 \\
--config /root/nebula-importer.yaml
很快,所有的数据就导入到 NebulaGraph 之中了。现在,我们可以通过 NebulaGraph Console,执行一些查询看看结果:
进入 Console:
~/.nebula-up/console.sh
进入图空间、执行 SHOW STATS
:
USE moviegraph;
SHOW STATS;
结果:
( root @nebula) [moviegraph]> SHOW STATS;
+ ---------+---------------+---------+
| Type | Name | Count |
+ ---------+---------------+---------+
| "Tag" | "genre" | 14397 |
| "Tag" | "movie" | 20701 |
| "Tag" | "person" | 263907 |
| "Tag" | "user" | 610 |
| "Edge" | "acted_by" | 673763 |
| "Edge" | "directed_by" | 101949 |
| "Edge" | "watched" | 31781 |
| "Edge" | "with_genre" | 194009 |
| "Space" | "vertices" | 299615 |
| "Space" | "edges" | 1001502 |
+ ---------+---------------+---------+
Got 10 rows ( time spent 1693 / 15136 us)
通过 NebulaGraph Studio,我们也可以在可视化界面探索这个图谱。比如:在其中执行这个查询,看一下给用户 u_124
推荐电影 1891
的理由可能是什么?
FIND NOLOOP PATH FROM "u_124" TO "1891" over * BIDIRECT UPTO 4 STEPS yield path as `p` | LIMIT 20
它的结果是:曾经喜欢的星战电影的大部分演职人员都也参与了这部同样是“奥斯卡获奖”且“经典”的电影。
## 总结
当我们打算把海量数据利用图数据库的能力进行知识转化、洞察分析的时候,往往第一步就是要做多数据源到图数据的转换、处理、建模。对于无从下手的新手们来说,一个可行的思路是从所有的相关信息出发,去设想最关注的关联关系,把边写出来,然后再罗列可以取得的点、以及需要的点、边上的属性。确定了初始的建模之后,就可以利用 ETL 工具把原始的数据清洗、ETL 成点、边类型的表结构,最后,利用导入工具导入 NebulaGraph。
借助于 dbt,我们可以版本控制、测试、迭代建模与数据转换,一点点进化、丰富构建的知识图谱。
## 参考资料
谢谢你读完本文 (///▽///)
要来近距离快速体验一把图数据库吗?现在可以用用 NebulaGraph Cloud 来搭建自己的图数据系统哟,快来节省大量的部署安装时间来搞定业务吧~ NebulaGraph 阿里云计算巢现 30 天免费使用中, 点击链接 来用用图数据库吧~
想看源码的小伙伴可以前往 GitHub 阅读、使用、(^з^)-☆ star 它 -> GitHub ;和其他的 NebulaGraph 用户一起交流图数据库技术和应用技能,留下 「你的名片」 一起玩耍呢~
如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!
赞0
添加新评论0 条评论