上面的问题可能是今后很有可能遇到的问题,以前OLAP型数据库可能跑在了DB2或者ORACLE上,但OLAP目前来说可能随着数据量越来越大,并发越来越高,可能DB2或者ORACLE某些方面并不能胜任,再加上现在分布式数据库、分布式应用如火如荼,那么如果真要进行数据库数据迁移,由DB2/ORACLE迁移至大数据平台数据库,有哪些方法或工具可供选择?迁移过程中需要注意的点有哪些?
通过使用MapReduce的方式,使Hadoop可以直接访问Oracle,并将相关的数据写入到HDFS文件当中。 从而可以顺利地将Oracle中的数据迁移到Hadoop文件系统中。
不求无缝迁移的话,这些工具也够用了,测试发现:DataX效率是最高的,Sqoop次之,Kettle再次之,但Kettle有个优点,有强大的图形操作界面,对于习惯图形化操作的管理员来说,操作起来是最方便的。
之前使用的sqoop可以用下,直接将数据导入到hdfs和hive,在hive中创建数据库中对应的database和table,
可以尝试下kettle,这个没用过,不够听说挺好的,比较好控制
网上直接搜阿里开源同步框架Datax,同步的神器,呵呵
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2023talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30