找回密码
 立即注册

QQ登录

只需一步,快速开始

广告载入中...
查看: 391|回复: 5

人人都在说大数据 那大数据的价值你了解多少?

[复制链接]
发表于 2017-3-5 22:16 | 显示全部楼层 |阅读模式

马上注册,享用更多功能,让你轻松玩转本论坛。

您需要 登录 才可以下载或查看,没有账号?立即注册

×
人人都在说大数据 那大数据的价值你了解多少?
今天移动互联网正狂飙突进、网上购物平台和网上社交平台也方兴未艾,包括结构化数据、半结构化数据、非结构化数据的大数据爆炸式增长。早在2012年,大数据已经登上美国《纽约时报》的专栏封面,专栏称:“大数据时代已经降临,在商业、经济及其他领域中,决策将日益基于数据和分析,而非基于经验和直觉。”因此不管怎样,大数据时代已经呼啸而来。

今天小编就和我们谈谈数据分析。数据分析本身并不是轻松的话题,尤其是当涉及到“大数据”的时候。

《big data》(大数据)这本书相信很多人都熟知。它提到的大数据的4V定义中有一个value(价值)。毕竟,无论样本获取和数据存储的成本如何低,数据成本终归是有的,价值不敌成本的数据、人们自然不会考虑去收集。

“大”数据的一个侧面,实际上是因为单个数据的价值太低,必须上了规模才能榨取价值。从某个角度说,大数据和页岩气可归为同一类,都是通过新技术从无价值处压榨出价值的非传统资源。那些倒贴成本也要尽可能收集数据的商家,可以类比于90年代末2000年初收购低产能气田的油企。随着技术的提高,本身价值低于收购成本低的资源就升值了。这本质上是一场豪赌,而这场赌局的大赢家Chesapeake如今的处境,说明他虽然明白了技术提高非传统资源价值的道理、却没有明白竞争降低售价的经济原理。

在“大数据”概念被提出之前,就有不少企业在默默的收集数据,以提高其产品粘性或员工效率。这里,典型自然是google。在google之前呢,使用所有能收集到的数据只是日常。 “大数据”概念的提出,并不会加速数据高端应用的步伐,因为高端人才不是响应口号量产出来的。但它的提出,的确加速了数据收集的兴趣、及兴盛了数据程序员速成班。这样的盛景,在2000年初的中国发生过(数据库、网页设计、动画制作火的一塌糊涂)。我不知其与如今程序员的低薪、科技企业不得不依赖广告和游戏盈利是否有直接关系。至少,从供需关系的基本经济原理说,是应当有很大关系的。由此看,大数据概念的宣传,对于google这类先行者不是好事。

作者说“我虽然认为网络平台(和家电平台)的“大数据”泡沫将会逐渐演变成价格战,但也不得不承认,这个泡沫还只是刚刚开始,目前只是少数大型企业收集用户数据,而多数企业甚至混淆概念,把抽样调查说成大数据。在应用方面,我看到的多为结构性数据或基于统计建模的文字分析。可见如今尚在播种,远未到秋收、看到成果的时候,但秋收的结果或许远不及想象中的亩产万斤。目前舆论的兴奋,在中国、看起来只是因为一个词而兴奋,在国外、则是因为一些几近于宣传不劳而获的概念(包括<big data>其书)而兴奋。”

毋庸置疑的是,大数据会变的越来越有用,参与的人和企业也会急速增长,以至于在没有口号宣传的市场也会自然形成周期性的价格泡沫。但这种泡沫,是否会体现于企业估值,或是否已经体现于企业估值,我则不确定。之所以不确定,是因为从企业的角度说,大数据只是一种产品和成本结构的优化,与生产线的机器化、生产流程的数据化类似,其为销售额和利润率带来的增长,是很难和用户基数年年翻倍的速度比拟的。例外是,你若能找到纯粹的数据公司,且规模尚小而技术(或平台)优势明显。

作为消费者,我们有权无知。作为投资者,“谁是新技术的受益者”则是较重要的问题了。我并未研究过这些,但由于也偶尔编程收集、处理数据(如使用卫星望远镜所拍摄的光学照片来推测宇宙年龄,如收集近2万家上市企业财报、错漏修复、自动估值),就免不了“有锤皆钉”的认为,理解数据收集和分析流程中的难点有益于此判断。

数据分析本是件愉悦的事,它给你提供或新鲜、或犀利的见解。但对数据的处理(修正、摒弃等)却是件烦心活。当数据量不大的时候,我们可以人为的甄选数据。即使如此,也不是标准教科书可教。你得知道每一种仪器的工作原理,知道其对同种现象的取值区别,知道什么数值代表损坏、必须摒弃,还要决定一组数据中损坏程度的容忍极限,等等。

简单说,你得了解所有可能带来系统性误差的因素。这只是小数据。当数据足够大,以至于你必须编程处理时,你不仅要把呈几何倍数增多的系统性误差的甄别方式和应对措施教给电脑,还要确保这些措施全局有效,不生成bug。以上过程,一旦自动化,就很少需要后续的人力投入。反过来说即是分析者每一次研究,都是一个新课题,没有标准答案和注意事项。如此,知道结论的对错就不容易,而知道错在哪则更难。所以,至今我们听到的大数据“奇迹”,不是针对性极强(无普适性)就是耗资耗时。

因为甄选数据的困难,能提供高质量(或数量)数据和正确甄选低质量数据就是竞争力。一般说来,能收集大量质量参差不齐的数据的企业,已然是大企业,那么数据对其未来业绩的提升,只是锦上添花。当然,倘若它的锦上添花几乎是垄断性的,那么这种额外利润的确定性也能带来基于永续现金的高估值。

此外,也有不少特例,如有的企业数据足迹很大但并没有形成现金流产品,或一些企业收集的数据有替代品形成竞争等,两者一好一坏。至于收集高质量数据,目前常见的仍是人工收集,我暂时想不到其与大数据的交集。短期内能够获益最大(按百分比算)的,应当属这最后一类,能正确且高效的甄选、分析数据者。这与目前数据分析供给的短缺、分析型企业或平台公司数据分析部门很小有关。随着时间的推移,收集数据的成本下降,数据的质量提升,辅以分析数据的软硬件条件成熟,和一些流程的标准化,数据分析不无供给过剩的可能,但那大约也是要数十年吧。不过,到那时,数据科学家大约也该给AI科学家让位了。
发表于 2017-3-5 23:02 | 显示全部楼层
谢谢您的分享
回复

使用道具 举报

发表于 2017-3-5 23:24 | 显示全部楼层
谢谢分享辛苦了。。
回复

使用道具 举报

发表于 2017-3-5 23:25 | 显示全部楼层
人人都在说大数据 那大数据的价值你了解多少?
今天移动互联网正狂飙突进、网上购物平台和网上社交平台也方兴未艾,包括结构化数据、半结构化数据、非结构化数据的大数据爆炸式增长。早在2012年,大数据已经登上美国《纽约时报》的专栏封面,专栏称:“大数据时代已经降临,在商业、经济及其他领域中,决策将日益基于数据和分析,而非基于经验和直觉。”因此不管怎样,大数据时代已经呼啸而来。

今天小编就和我们谈谈数据分析。数据分析本身并不是轻松的话题,尤其是当涉及到“大数据”的时候。

《big data》(大数据)这本书相信很多人都熟知。它提到的大数据的4V定义中有一个value(价值)。毕竟,无论样本获取和数据存储的成本如何低,数据成本终归是有的,价值不敌成本的数据、人们自然不会考虑去收集。

“大”数据的一个侧面,实际上是因为单个数据的价值太低,必须上了规模才能榨取价值。从某个角度说,大数据和页岩气可归为同一类,都是通过新技术从无价值处压榨出价值的非传统资源。那些倒贴成本也要尽可能收集数据的商家,可以类比于90年代末2000年初收购低产能气田的油企。随着技术的提高,本身价值低于收购成本低的资源就升值了。这本质上是一场豪赌,而这场赌局的大赢家Chesapeake如今的处境,说明他虽然明白了技术提高非传统资源价值的道理、却没有明白竞争降低售价的经济原理。

在“大数据”概念被提出之前,就有不少企业在默默的收集数据,以提高其产品粘性或员工效率。这里,典型自然是google。在google之前呢,使用所有能收集到的数据只是日常。 “大数据”概念的提出,并不会加速数据高端应用的步伐,因为高端人才不是响应口号量产出来的。但它的提出,的确加速了数据收集的兴趣、及兴盛了数据程序员速成班。这样的盛景,在2000年初的中国发生过(数据库、网页设计、动画制作火的一塌糊涂)。我不知其与如今程序员的低薪、科技企业不得不依赖广告和游戏盈利是否有直接关系。至少,从供需关系的基本经济原理说,是应当有很大关系的。由此看,大数据概念的宣传,对于google这类先行者不是好事。

作者说“我虽然认为网络平台(和家电平台)的“大数据”泡沫将会逐渐演变成价格战,但也不得不承认,这个泡沫还只是刚刚开始,目前只是少数大型企业收集用户数据,而多数企业甚至混淆概念,把抽样调查说成大数据。在应用方面,我看到的多为结构性数据或基于统计建模的文字分析。可见如今尚在播种,远未到秋收、看到成果的时候,但秋收的结果或许远不及想象中的亩产万斤。目前舆论的兴奋,在中国、看起来只是因为一个词而兴奋,在国外、则是因为一些几近于宣传不劳而获的概念(包括<big data>其书)而兴奋。”

毋庸置疑的是,大数据会变的越来越有用,参与的人和企业也会急速增长,以至于在没有口号宣传的市场也会自然形成周期性的价格泡沫。但这种泡沫,是否会体现于企业估值,或是否已经体现于企业估值,我则不确定。之所以不确定,是因为从企业的角度说,大数据只是一种产品和成本结构的优化,与生产线的机器化、生产流程的数据化类似,其为销售额和利润率带来的增长,是很难和用户基数年年翻倍的速度比拟的。例外是,你若能找到纯粹的数据公司,且规模尚小而技术(或平台)优势明显。

作为消费者,我们有权无知。作为投资者,“谁是新技术的受益者”则是较重要的问题了。我并未研究过这些,但由于也偶尔编程收集、处理数据(如使用卫星望远镜所拍摄的光学照片来推测宇宙年龄,如收集近2万家上市企业财报、错漏修复、自动估值),就免不了“有锤皆钉”的认为,理解数据收集和分析流程中的难点有益于此判断。

数据分析本是件愉悦的事,它给你提供或新鲜、或犀利的见解。但对数据的处理(修正、摒弃等)却是件烦心活。当数据量不大的时候,我们可以人为的甄选数据。即使如此,也不是标准教科书可教。你得知道每一种仪器的工作原理,知道其对同种现象的取值区别,知道什么数值代表损坏、必须摒弃,还要决定一组数据中损坏程度的容忍极限,等等。

简单说,你得了解所有可能带来系统性误差的因素。这只是小数据。当数据足够大,以至于你必须编程处理时,你不仅要把呈几何倍数增多的系统性误差的甄别方式和应对措施教给电脑,还要确保这些措施全局有效,不生成bug。以上过程,一旦自动化,就很少需要后续的人力投入。反过来说即是分析者每一次研究,都是一个新课题,没有标准答案和注意事项。如此,知道结论的对错就不容易,而知道错在哪则更难。所以,至今我们听到的大数据“奇迹”,不是针对性极强(无普适性)就是耗资耗时。

因为甄选数据的困难,能提供高质量(或数量)数据和正确甄选低质量数据就是竞争力。一般说来,能收集大量质量参差不齐的数据的企业,已然是大企业,那么数据对其未来业绩的提升,只是锦上添花。当然,倘若它的锦上添花几乎是垄断性的,那么这种额外利润的确定性也能带来基于永续现金的高估值。

此外,也有不少特例,如有的企业数据足迹很大但并没有形成现金流产品,或一些企业收集的数据有替代品形成竞争等,两者一好一坏。至于收集高质量数据,目前常见的仍是人工收集,我暂时想不到其与大数据的交集。短期内能够获益最大(按百分比算)的,应当属这最后一类,能正确且高效的甄选、分析数据者。这与目前数据分析供给的短缺、分析型企业或平台公司数据分析部门很小有关。随着时间的推移,收集数据的成本下降,数据的质量提升,辅以分析数据的软硬件条件成熟,和一些流程的标准化,数据分析不无供给过剩的可能,但那大约也是要数十年吧。不过,到那时,数据科学家大约也该给AI科学家让位了。
回复

使用道具 举报

发表于 2017-3-5 23:29 | 显示全部楼层
谢谢楼主分享
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|股海明灯官网 ( 京ICP备18020431号 )

GMT+8, 2024-11-18 06:28 , Processed in 0.097626 second(s), Total 14, Slave 12 queries , Gzip On, MemCached On.

Powered by Discuz! X3.5

Copyright © 2001-2024 Tencent Cloud.

快速回复 返回顶部 返回列表