DB2/ORACLE数据迁移至大数据平台数据库(如hadoop)有何经验或者步骤?

上面的问题可能是今后很有可能遇到的问题,以前OLAP型数据库可能跑在了DB2或者ORACLE上,但OLAP目前来说可能随着数据量越来越大,并发越来越高,可能DB2或者ORACLE某些方面并不能胜任,再加上现在分布式数据库、分布式应用如火如荼,那么如果真要进行数据库数据迁移,由DB2/ORACLE迁移至大数据平台数据库,有哪些方法或工具可供选择?迁移过程中需要注意的点有哪些?

参与27

4同行回答

冯帅冯帅  数据库管理员 , 贝壳金服
通过使用MapReduce的方式,使Hadoop可以直接访问Oracle,并将相关的数据写入到HDFS文件当中。 从而可以顺利地将Oracle中的数据迁移到Hadoop文件系统中。显示全部

通过使用MapReduce的方式,使Hadoop可以直接访问Oracle,并将相关的数据写入到HDFS文件当中。 从而可以顺利地将Oracle中的数据迁移到Hadoop文件系统中。

收起
融资租赁 · 2017-04-21
浏览7970
bendshabendsha  系统架构师 , 上海爱数信息技术股份有限公司
不求无缝迁移的话,这些工具也够用了,测试发现:DataX效率是最高的,Sqoop次之,Kettle再次之,但Kettle有个优点,有强大的图形操作界面,对于习惯图形化操作的管理员来说,操作起来是最方便的。...显示全部

不求无缝迁移的话,这些工具也够用了,测试发现:DataX效率是最高的,Sqoop次之,Kettle再次之,但Kettle有个优点,有强大的图形操作界面,对于习惯图形化操作的管理员来说,操作起来是最方便的。

收起
软件开发 · 2017-04-24
浏览7866
bigdata_userbigdata_user  软件开发工程师 , 博彦科技
之前使用的sqoop可以用下,直接将数据导入到hdfs和hive,在hive中创建数据库中对应的database和table,可以尝试下kettle,这个没用过,不够听说挺好的,比较好控制显示全部

之前使用的sqoop可以用下,直接将数据导入到hdfs和hive,在hive中创建数据库中对应的database和table,

可以尝试下kettle,这个没用过,不够听说挺好的,比较好控制

收起
互联网服务 · 2017-04-22
浏览7800
美国队长美国队长  研发工程师 , Alibaba
网上直接搜阿里开源同步框架Datax,同步的神器,呵呵显示全部

网上直接搜阿里开源同步框架Datax,同步的神器,呵呵

收起
互联网服务 · 2017-04-21
浏览7710

提问者

jxnxsdengyu
系统工程师江西农信
擅长领域: 存储灾备双活

问题来自

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2017-04-21
  • 关注会员:6 人
  • 问题浏览:14947
  • 最近回答:2017-04-24
  • X社区推广