大数据平台整合

您不须花费大量时间学习大数据平台之 ETL 程式开发,只需藉由 TrinityBDM 即可便利地连接大数据平台并在上头访问各式数据,大数据的导入门槛因此大幅降低。
桥接传统 ETL 与大数据平台,降低大数据导入门槛
TrinityBDM 是 TrinityETL 的扩充选项,是连接传统 ETL作业与 Hadoop 架构之间的数据交换桥梁。使用者对 Hadoop 不须具备高深的管理技术或程式开发技巧,即可在熟悉的 ETL 系统上轻松介接 Hadoop 相关的应用处理功能。不但既有系统的投资获得保障,同时又能拥有 Hadoop 所带来可靠、高效、可伸缩的巨量数据处理能力。

简化 HDFS 数据读取与载入
- 提供 HDFS 的读取元件及载入元件,可直接对 HDFS 上的文件进行读写,亦提供 HDFS 目录结构的浏览功能,方便开发人员快速完成作业设计。
用 MapReduce 解决运算扩充需求
- 简单易用的图形化介面使开发人员更容易设定与执行既有的 MapReduce 程式。省略繁杂的发布进程,并降低开发人员应用 MapReduce 的门槛。
整合 Hbase 中的结构化数据
- 对于已经存在于 HBase 上的结构化数据,可直接透过 Trinity 所提供的 HBase 读取元件进行取用;HBase 载入元件也支持将一般数据库或文档中的结构化数据载入至HBase 当中以进行开发所需的分析。
整合 Hive 与 Pig
- Hive 与 Pig 执行元件可供编写复杂的进程运用于数据分析。并可连结其他 Trinity 数据整合元件,传递分析结果进行更多的企业运用,使 Hadoop 作业进程与传统 ETL 数据交换更为紧密。
Mahout
- 于 Trinity GUI 介面设定 Mahout 参数,简化大数据分析作业之进程撰写。 Trinity Mahout 元件使开发人员更易于使用 Mahout 中所提供的各项演算法。内建范本可供直接呼叫使用,大幅减轻开发人员撰写程式的负担。
Cascading
- Trinity Cascading 元件提供开发人员利用简易的拖放式元件取代撰写 Java 程式。可连结更多 Trinity 元件与内建的数据处理进程,简化分析数据的开发工作。
分析工作获得更多支持
- 可结合 TrinityUDM ,以对文档、网页、部落格、论坛、社群网站与 No-SQL 数据库等非结构化数据源进行文本数据挖掘,支持 Big Data 分析工作,或供转换为结构化数据,以利与既有数据仓储及分析工具整合。 了解更多
客户案例
了解 Trinity 如何广泛运用
立即试用
申请免费试用,了解更多可能性!