Hadoop架构下的数据库审计难在哪里?

发布时间:2018-02-25 作者:昂楷科技

  ——大数据渗透到各个行业领域,逐渐成为一种生产要素发挥着重要作用,成为未来竞争的制高点。

  在大数据时代下,信息和数据的分析处理都会变得比以前更加繁杂,管理起来也更加麻烦。大数据发展仍旧面临着众多问题,最受大众关注的就是安全与隐私问题——大数据在收集、存储和使用的过程中,都面临着一定的安全风险,一旦大数据产生隐私泄露的情况,会对用户的安全性造成严重威胁。

  Hadoop是什么?

  Hadoop是一个开发和运行处理大规模数据的软件平台,是Apache的一个用java语言实现开源软件框架,实现在大量计算机组成的集群中对海量数据进行分布式计算,是目前市场上最受欢迎的一种大数据解决方案之一。

  (Hadoop架构业务及审计逻辑)

  Hadoop 由许多元素构成,其核心是分布式文件系统(HDFS)和MapReduce 引擎,并涵盖众多提供Hadoop应用的子项目,如:数据仓库工具(HIVE)、NOSQL数据库(HBASE)、大数据分析平台(PIG,为用户提供多种接口)等以及众多的编程接口。

  Hadoop架构下数据库的审计难在哪里?

  为了满足Hadoop架构下各种应用需求,引入了数据库仓库工具(HIVE)、非结构化数据库(HBase)等子项目解决数据的处理分析与数据实时交互需求,同时为了简化Hadoop管理工作,HUE、Phoenix等UI工具也被引入协同工作。

  各种多样化的工具带来最直接的问题便是多样化的程序设计语言,多样性的程序编程接口,增大了大数据安全审计覆盖面,增强了大数据的数据解析难度。因此,在Hadoop大数据架构环境下要实现有效审计,必须同时对各种UI管理界面、编程接口同时审计,具备Hadoop架构各种协议解析、编程语言解析能力。

  其审计难点可总结为:

  1、Hadoop大数据非结构化数据(NO SQL),传统方案无法实现此类数据的综合安全监控;

  2、Hadoop中数据库连接工具的多样化,传统方案只能对典型的C/S客户端访问方式进行安全监控,缺乏综合管理手段;

  3、Hadoop开放的接口和平台,加之信息网络共享导致数据风险点增加,窃密、泄密渠道增加;

  4、安全模型和配置的复杂性导致数据流量复杂化。

  每个人都是数据的贡献者,同时也是数据安全的关联方。昂楷科技突破Hadoop架构下数据库的审计难点,成功实现大数据安全审计系统的商用,完成对数据价值大、数据结构复杂、数据量大、数据种类繁多的大数据数据库的安全审计。


返回上一级

400-622-8990