我认为,提出这个问题的,很可能是外行人。不管他是IT公司元老,还是数据分析专业的硕士博士,或者是业务部门高管。只要他提了这个问题,就说明他是个外行。数据分析的基础,是业务数据。也就是说,你在准备分析时,数据已经生成,你如何在源头限制数据质量?而且在实际操作中,业务系统的研发...
显示全部我认为,提出这个问题的,很可能是外行人。不管他是IT公司元老,还是数据分析专业的硕士博士,或者是业务部门高管。
只要他提了这个问题,就说明他是个外行。
数据分析的基础,是业务数据。也就是说,你在准备分析时,数据已经生成,你如何在源头限制数据质量?
而且在实际操作中,业务系统的研发者,与数据分析系统的研发者,很可能不是同一公司,
即便在甲方内部,业务产生的部门,与数据利用的部门,很可能也不同。
你有什么资格,要求对方为你治理数据?
其次,数据治理(ETL中叫清洗,或其他概念)也只能是数据分析的前提,而不应该后期做。
因为,你的数据分析,应该是基于已经清洗过的数据来进行的。如果你对100万数据进行分析,只要有10条错误数据(比如极大数据),如果不加处理,就可能导致你的整个分析结果不再具有直观性、可读性。
收起