对大数据的透彻理解

上传人:孙哥 文档编号:170032169 上传时间:2022-11-18 格式:DOCX 页数:13 大小:153.08KB
返回 下载 相关 举报
对大数据的透彻理解_第1页
第1页 / 共13页
对大数据的透彻理解_第2页
第2页 / 共13页
对大数据的透彻理解_第3页
第3页 / 共13页
点击查看更多>>
资源描述
对大数据的透彻理解一、大数据基本概念大数据Big Data是指大小超出了常用的软件工具在运行时间内可以承受的收集,管理和处理数据能力的数据集;大数据是目前存储模式与能力、计算模式与能力不能满足存储与处理现有数据 集规模产生的相对概念。大数据的预处理主要完成对已接收数据的辨析、抽取、清洗等操作。(1) 抽取:因获取的数据可能具有多种结构和类型,数据抽取过程可以帮助我们将这些复杂的 数据转化为单一的或者便于处理的构型,以达到快速分析处理的目的。(2) 清洗:对于大数据,并不全是有价值的,有些数据并不是我们所关心的内容,而另一些数 据则是完全错误的干扰项,因此要对数据通过过滤去噪从而提取出有效数据。大数据带来的数学问题在数学上来看,计算机中存在不断变大的数据集,不存在绝对的大数据,计算机中的所有数 据集都是有限集合。大数据采样一一把大数据变小、找到与算法相适应的极小样本集、采样对算法误差的影响大数据表示一一表示决定存储、表示影响算法效率大数据不一致问题一一导致算法失效和无解、如何消解不一致大数据中的超高维问题一一超高维导致数据稀疏、算法复杂度增加大数据中的不确定维问题一一多维度数据并存、按任务定维难大数据中的不适定性问题高维导致问题的解太多难以抉择大数据的特征稠密与稀疏共存:局部稠密与全局稀疏冗余与缺失并在:大量冗余与局部缺失显式与隐式均有:大量显式与丰富隐式静态与动态忽现:动态演进与静态关联多元与异质共处:多元多变与异质异性量大与可用矛盾:量大低值与可用稀少目前大数据的外延大数据规模大小是一个不断演化的指标:当前任务处理的单一的数据集,从数十TB到十几PB级的数据规模(TBPBEBZB)处理大数据的可等待的合理时间依赖任务的目标:地震数据预测要求在几分钟内才有效、气象数据应该在小时级别、失联飞机数据处理要在7天之内、数据挖掘一般要求在 12小时内二、大数据悖论大数据已被定义为科学探索的第四范式。继几千年前的实验科学、数百年前的理论科学和数 十年前的计算 科学之后,当今的数据爆炸孕育了数据密集型科学,将理论、实验和计算仿真等范 式统一起来。大数据已被誉为非竞争性生产要素。大数据具有取之不尽,用之不竭的特性,在不断的再利用、重组和扩展中持续释放其潜在价值,在广泛的公开、共享中不断创造着新 的财富。根源在于,大数据的价值在于预测未知领域、非特定因素的未来趋势,在于破解长期的、普遍的社会难题。而目前的大数据技术和应用,依然局限于历史和实时数据的关联分析,局限于 满足短线的、特定的市场 需求。解决悖论的过程,恰恰是理论和方法应运而生的过程。而人们试 图解决悖论的努力,正好是大数据落地生根的推动力。1条数据= 小数据真值为1 2条数据二小数据真值为U -兰) 3条数据二小数据真值为口-夕尸幷条数据二小数据真值为(1 -罗严“幷+1条数据二小数据真值为(1 -疔严有限条数搞是小数据K真值随条数增期辭。方法论缺位自2008年自然杂志推出大数据专刊以来,大数据概念就从学术大讨论,转向了企 业的数字化转型,进而上升到开放政府数据的战略布局。然而,单纯的数量上的规模庞大, 并不能轻易地将大数据与以往的海量数据、“超大规模数据等区别开,因为三者均没有设置数量级等门槛。方法论缺位是最大的障碍。大数据发展的核心动力源于人们测量、记录和分析世界的渴望, 满足这些渴望 需要数据、技术和思维三大要素。在计算技术、通信技术日益成熟的今天,在廉价 的、便捷的数字化存储普及的当下,数据无处不在,技术正以标准化、商品化的方式提供,事实上思维和方法论才是决定大数据成败的关键,但目前来看,跨越学术与产业、技术与应用之间鸿 沟的方法论依然不完善。在社会难题中淘金正如数学史上三次危机分别促成公理几何的诞生、集合论的创立和现代数据的发展一样,悖 论是理论、技 术和应用进步的巨大推动力。大数据悖论的解决,也将推动大数据应用的普及和社 会价值的释放。经过新闻媒体和学术会议的大肆宣传之后,大数据技术趋势一下子跌到谷底,许多数据创业公司变得岌岌可危根据这条著名的Gartner技术成熟度曲线,大数据已经走过了萌芽期和泡沫化的炒作期,并将在未来 35年 内步入低谷期。暂时无法查看市场中的鸿沟大数据营销模型将经历创新者、早期采用者、早期大众、后期大众和落后者等5个阶段。这5个阶段之间存在着4条裂缝,其中最大、最危险的裂缝存在于早期市场与主流市场之间,我们 称之为鸿沟。大数据的主流市场来源于实用主义的早期大众和保守主义的后期大众,两者各自占据大数据 市场1/3的份额。这两个群组的共同特征是均具备良好的信息技术基础和深厚的大数据积累,并 深谙大数据的社会价值和经济价值。有所不同的是,前者希望看到成熟的解决方案和成功的应用案例,它们大多是金融、能源、电信等公共服务部门。而后者需要有更安全可靠的大数据保障和 广泛的社会应用基础,它们大多是致力于解决环境、能源和健康等社会问题的公共管理部门。大数据技术和应用获得创新者的追捧是显而易见的,获得早期市场的拥护也是轻而易举的。 但是,不因时髦而加入,不因过时而退出,才能成为大数据主流市场的掘金者。遗憾的 是,不少企业或许会成为“鸿沟中的牺牲者,而无缘迎接大数据真正应用市场的到来。规划整体产品现代营销奠基人之一一西奥多莱维特给出了 整体产品的概念。根据这一概念,大数据产 品应该包括作为核心吸引物的一般产品、满足初级心理需求的期望产品和实现更高阶参与以 及自我实现的延伸产品和潜在产品 4个部分。三、大数据挑战性问题现有的数据中心技术很难满足大数据的需求,需要考虑对整个IT架构进行革命性的重构。而存储能力的增长远远赶不上数据的增长,因此设计最合理的分层存储架构已成为IT系统的关键。数据的移动已成为IT系统最大的开销,目前传送大数据最高效也是最实用的方式是通过飞机或地 面交通工具运送磁盘而不是网络通信。在大数据时代,IT系统需要从数据围着处理器转改变为处 理能力围着数据转,将计算推送给数据,而不是将数据推送给计算。应对处理大数据的各种技术 挑战中,以下几个问题值得重视:1、大数据对科学规范的挑战大数据带来了新的科研范式科研第四范式是思维方式的大变化,已故图灵奖得主吉姆格雷提出的数据密集型科研第四范式,将大 数据科研从第三范式中分离出来单独作为一种科研范式,是因为其研究方式不同于基于数据模型的传统研究方式。PB级数据使我们可以做到没有模型和假设就可以分析数据。将数据丟进巨大的计算机机群中,只要有相关关系的数据,统计分析算法可以发现过去的科学方法 发现不了的新模式、新知识甚至新规律。大数据如何应用于开放的研究大数据基于对海量数据的分析产生价值,那么如何获得海量数据来让大数据真正落地呢?这 其中最不可或缺的一个环节就是数据开放。现在推进数据开放更为重要的是通过数据的共享来产 生更多的价值。数据开放能够提高社会运行效率,积极整合各方公开的数据,建立基于大数据的城市规划来缓解交通和社会治安问题。数据开放能够激发巨大的商业价值,数据开放是面向社会大众的开放,任何人只要有能力都可以用它来创造新的商机。加强数据开放,为大数据发展打牢基础。在大数据应用日益重要的今天,数据资源的开放共 享已经成为在数据大战中保持优势的关键。促进商业数据和个人数据的开放与共享。商业数据和 个人数据的共享应用,不仅能促进相关产业的飞速发展,产生巨大的经济价值,也能给我们的生活带来巨大的便利。经常网购的人会有这样一种体验。很多电商网站能够在我们买书的时候,推 荐我们刚好喜欢的其他书籍,这正是网站根据成千上万甚至上亿人的个人数据的统计分析而得出的,但是我们也感受到了这样强大的数据分析能力对我们隐私权的冲击。因此,完善个人隐 私保护等相关立法,对哪些 个人数据可以进行商业化应用、应用范围如何界定、数据滥用应承担 哪些责任等具体问题做出规范,从而保证数据开放工作稳步推进,为大数据发展应用打好根基。重现大数据研究结果数据量的增大,会带来规律的丧失和严重失真。维克托迈尔-舍恩伯格在其著作大数据的时代中也 指出数据量的大幅增加会造成结果的不准确, 一些错误的数据会混进数据库,此外, 大数据的另外一层定义,多样性,即来源不同的各种信息混杂在一起会加大数据的混乱程度,统计学者和计算机科学家指出,巨量数据集和细颗粒度的测量会导致出现错误发现的风险增加。 大数据意味着更多的信息,但同时也意味着更多的虚假关系信息,海量数据带来显著性检验的问题,将使我们很难找到真正的关联。我们以一个实际的案例来看一下样本量不断增大之后,会出现的问题:暂时无法查看上表是关于某年网络游戏历程扩散的回归分析,当样本量是5241个的时候,你会发现用一个简单的线 性回归拟合这个数据,年龄、文化程度、收入这三个变量显著,当我们把样本量增加 到10482个的时候,发现独生子女和女性开始显著,增加到 20964个的 时候,体制外这个变量 也开始显著,当样本增加到33万的时候,所有变量都具有显著性,这意味着世间万物都是有联系 的。样本大到一定程度的时候,很多结果自然就会变得显著,会无法进行推论,或者得出虚假的统计学关系。此外,断裂数据、缺失数据(下文将会进行分析)的存在将会使这种虚假关系随着数据量的增长而增长,我们将很难再接触到真相。事实上,真实的规律是这样的:对一个社会现象进行客观深刻准确的分析,对事物的理解需要数据,但更需要分析思维,在 大数据时代,理论并非不重要,而是变得更加重要。我们所指的理论也并非僵化一成不变的固守 旧有理论,而是在处理问题的过程中意识到海量数据所带来的复杂性,坚持分析方法和理论的不 断创新。大数据研究结果可信与否大数据时代一书的作者维克托迈尔 -舍恩伯格说,大数据的核心就是预测。它通常被视为 人工智能 的一部分,或者更确切地说,被视为一种机器学习。他认为,大数据大大解放了人们的 分析能力。一是可以分析更多的数据,甚至是相关的所有数据,而不再依赖于随机抽样;二是研究数据如此之多,以至于我们不再热衷于追求精确度 ;三是不必拘泥于对因果关系的探究,而可以在 相关关系中发现大数据的潜在价值。因此,当人们可以放弃寻找因果关系的传统偏好,开始挖掘相关关系的好处时,一个用数据预测的时代才会到来。不可否认,大数据标志着人类在寻求量化和认识世界的道路上前进了一步。这是计算技术的 进步,是人类 决策工具的进步。改编自迈克尔刘易斯的魔球:逆境中制胜的智慧的影片点 球成金,讲述了一个真实的故事,介绍了奥克兰运动家棒球队总经理比利比恩的经营哲学,描述了他抛弃几百年延续的选择球员的惯常做法,采用了一种依靠电脑程序和数学模型分析比赛数 据来选择球员的方法。比利比恩的成功称得上是 对球探们经验决策的颠覆,是让数据说话的成功 范例。正如维克托迈尔-舍恩伯格将大数据视为人工智能的一部分, 视为机器学习的一种应用一样, 数据决策和数 据旁证的博弈其实是人和机器的博弈。即便是有一将难求的数据科学家的协助,大 数据决策依然是辅助系统。在这一阶段,云计算是基础设施,大数据是服务工具,两者将满足特定语境下的、短线的市 场需求,更重要的是它们还能发挥其在非特定语境下破解社会难题的价值。换言之,大数据将演 绎“信息转化为数据,数据集聚成知识,知识涌现出智慧的进程。2、大数据带来的社会问题在基于社交媒体和数字化记忆的大数据时代,人们不仅担心无处不在的第三只眼,而且 担心隐私被二 次利用。因为,亚马逊监视着我们的购物习惯,谷歌监视着我们的网页浏览习惯, 微博似乎什么都知道,包括我们的社交关系网可怕的不是这些隐私数据,而是大数据的全数据分析、模糊计算和重关联却不求因果的特性,让隐私数据与社交网络等关联起来。按照维克托迈 尔-舍恩伯格的说法,危险不再是隐私的泄漏,而是被预知的可能性一一这些能够预测我们可能生病、拖欠还款和犯罪的算法会让我们无法购买保险,无法贷款,甚至实施犯罪前就被预先逮捕。无论如何,大数据正在推动产权认知和结构的变革,以往IT产业链的主宰者或将在变革中遭遇冲击。大 数据的魅力在于它能够让企业在无边界的数据海洋里遨游,发现社会进步的内在韵律,捕捉社会发展的先行参数。比如从消费者兴趣图谱中萃取研发创新智慧,而不局限于产品关联性分析;比如对企业内外部利益相关者群体智慧的发掘,开展企业和产业的健康诊断,而不局限于短 效的精益管理;比如对地震等自然灾害的预警,构架社会应急机制3大数据带来的技术挑战抽样分析+全数据验证的分析思路增加样本容易,降低算法复杂度难。维克托迈尔舍恩伯格在介绍大数据时代的数据分析思维 转变时提 至I过三个观点,其中之一是:分析所有的数据,而不再仅仅依靠一小部分数据。全数据 一时甚嚣尘上,企业、研究者以为大数据就是全数据,以至于再谈抽样都似乎 带有保守主义色彩, 这种看法无疑是对大数据和抽样二者都存在偏见和不足,如果认为大数据就是收集所有样本的信 息,让数据自己说话,那么在方法论上就是狭隘的。这里也涉及了全数据的第二个问题全(暂且假定我们通过人们在谷歌上输入搜索条目就找到 了真正意义上 的全:谷歌利用搜索记录而预测到流感爆发的案例被广为弓I用以说明数据自会说话, 当人们开始在网上搜索关于感冒的词汇表明他感染了流感,建立流感与空间、病毒的关系,能够成功的预测一场流感)数据确实能看到变化,通过变化作出预测,但无法解释变化的影响因 素,维克托迈尔舍恩伯格对此的回答是:我们要相关性,不要因果关系。这并非是这位作者有选择的选择,而是放弃抽样而直接采用大数据的必然。文学文摘依靠纸媒时代巨大的发行量获得240万民众的数据,而盖洛普仅在严格抽样基础上研究了 5000人,是小数据的复杂算法超过大数据的简单算法的真实案例。没有抽样的拟合,直接面对大数据,将使我们失去对人的了解,对真实规律的追寻,毕竟不 是所有的社会 事实都一场流感一样易于预测,况且即便是谷歌被广为赞誉的流感预测案例也被认 为存在问题:在与传统的流感监测数据比较之后,根据互联网流感搜索实时更新的Google流感趋势被发现明显高估了流感峰值水平。科学家指出基于搜索有太多的噪音影响了它的精确度这表 明基于社交网络数据挖掘的流感跟踪将不是替代而只能补充传统的流行病监测网络。他们正在开发噪音较少的替代跟踪方法,例如基于Twitter的流感跟踪只包含真正病人的帖子,而不是转载的 流感新闻报道。分析理解大数据一一盲人摸象数据是企业最重要的资产,而且随着数据产业的发展,将会变得更有价值。但封闭的数据环 境会阻碍数据 价值的实现,对企业应用和研究发现来讲都是如此,因此我们需要合理的机制在保 护数据安全的情况下开放数据,使数据得到充分利用。有效的解决办法之一是公正的第三方数据分析公司、研究机构作为中间商收集数据、分析数据,在数据层面打破现实世界的界限,进行多 家公司的数据共享而不是一家公司盲人摸象,这才能实现真正意义上的大数据,赋予数据更广阔全面的分析空间,才会对产业结构和数据分析本身产生思维转变和有意义的变革。4、大数据管理的挑战每一种非结构化数据均可被视为大数据。这包括在社交网站上的数据、在线金融交易数据、 公司记录、气 象监测数据、卫星数据和其他监控、研究和开发数据。大数据存储与管理要用存储 器把采集到的数据存储起来,建立相应的数据库,并进行管理和调用。重点解决复杂结构化、半结构化和非结构化大数据管理与处理技术。主要解决大数据的可存储、可表示、可处理、可靠性 及有效传输等几个关键问题。开发可靠的分布式文件系统(DFS )、能效优化的存储、计算融入存储、大数据的去冗余及高效低成本的大数据存储技术;突破分布式非关系型大数据管理与处理 技术,异构数据的数据融 合技术,数据组织技术,研究大数据建模技术;突破大数据索引技术; 突破大数据移动、备份、复制等技术;开发大数据可视化技术。通过隔离管理大数据存储如果有多个存储箱,那么将数据库、线交易处理(OLTP)和微软Exchange应用到特定的存储系统是个不错的选择。其它存储系统则用于大数据应用如门户网站,在线流媒体应用等。如果没有存储系统,将特定的前端存储端口到数据库,OLTP等等;致力于大数据应用到其他端口。背 后的基本原理是使用专用端口,而大数据流量是以千字节或兆字节衡量,OLTP应用流量是以每秒的输入/输出操作(IOPS)衡量,因为数据块的大小是比大数据更大而比OLTP应用程序更小。OLTP应用程序是CPU密集型的,而大数据应用程序更多的使用前端端口。因此,更多 的端口可以专注于大数据应用。专业的大数据存储管理兼容数据管理的存储系统。如 EMCIsilon的集群存储系统对于大数据存储管理是一个更好的 选择,因为在一个单一的文件系统中大数据能增长到多字节的数据。大数据分析除了存储,大数据管理的另一项大的挑战是数据分析。一般的数据分析应用程序无法很好的 处理大数据,毕竟涉及到大量的数据。采用专门针对大数据的管理和分析的工具,这些应用程序 运行在集群存储系统上,缓解大数据的管理。管理大数据的另一个需要重点考虑的是未来的数据增长。你的大数据存储管理系统应该是可扩展的,足以满足未来的存储需求。大数据的存储管理和云计算目前正在寻找云计算服务来进行存储和管理海量数据。而选择云服务来大型数据存储管理, 可以确保数据的所有权。有权选择将数据移入或移出云服务,而不被供应商锁定。5、大数据挖掘挑战面临的挑战大数据集的挑战如下图为数据到知识的演化过程示意图:缺少大数据复杂度冗余度的度量方法缺少确保近似算法精度分析方法缺少根据分布知识对大数据进行抽样的方法(2) 数据复杂性挑战挖掘将会很大程度地提高数据分析的性能和灵活性。源于数据仓库的数据立方体计算技术和OLAP(在线分析处理)技术极大地提高了大型数据库多维分析的性能。除了传统的数据立方体技术, 近期的研究致力于构建回归立方体、预测立方体以及其他的面向统计的复杂数据立方体。这样的多维或高维分析工具对分层多维数据的有效分析提供了保证。数据动态增长的挑战研究内容(1) 研究分布式并行计算环境下的大数据大数据分析的基本策略I与数据分布相联系的分治策略II.与算法机理相结合的并行策略研究复杂度降精度可控的新的大数据分析算法I. 大数据分类、聚类、关联分析、异常发现等(3) 大数据分析平台研发四、大数据挖掘的算法分类和预测是两种分析数据的方法,它们可用于抽取能够描述重要数据集合或预测未来数据 趋势的模型。分类方法用于预测数据对象的离散类别;而预测则用于预测数据对象的连续取值。许 多分类和预测方法已被机器学习、专家系统、统计学和神经生物学等方丽的研究者提出,其中的大部分算法属于驻留内存算法,通常假定的数据量很小,最初的数据挖掘方法大多都是在这些方 法及基于内存基础上所构造的算法。目前数据挖掘方法都要求,目前的数据挖掘研究已经在这些工作基础之上得到了很大的改进,开发了具有基于外存以处理大规模数据集合能力的分类和预测 技术,这些技术结合了并行和分布处理的思想。1、数据变小一一分类算法分类是找出数据库中的一组数据对象的共同特点并按照分类模式将其划分为不同的类,其目 的是通过分类 模型,将数据库中的数据项映射到摸个给定的类别中。可以应用到涉及到应用分类、趋势预测中,如淘宝商铺将用户在一段时间内的购买情况划分成不同的类,根据情况向用户推荐关联类的商品,从而增加商铺的销售量。空间覆盖算法-基于球邻域的空间划分h维训练样本f卑化j”1维单位趙半球洞hiujrns.NET分交起T:ihi 桦木点禺网Z问卅 离則构成的空间覆盖算法-仿生模式识别空间覆盖算法-视觉分类方法VCA把数据看作一幅图像,核心是基于尺度空间理论,选择合适的尺度使得同类样本区域融 合在一起。分类超曲面算法HSC设训练样本所在空间为一封闭维方体区域,将此区域按照一定细分规则划分成若干小区域, 使每个小区域只包含同一类样本点,并用样本点的类别标定该区域,合并相邻同类区域边界,获 得若干超平面片封闭组成的分类超曲面。输入新样本点,根据分类判别定理判断样本点所在的类 别。特点:(1) 通过特征区域细化直接解决非线性分类问题,不需要考虑使用何种函数,不需要升维变换。(2) 通用可操作的分类超曲面构造法,基于分类超曲面的方法通过区域合并计算获得分类超曲 面对空间进行划分(3) 独特、简便、易行的分类判别方法,基于分类超曲面的方法是基于Jordan定理的分类判断 算法,使得基于非凸的超曲面的分类判别变得简便、易行。2、极小覆盖子集覆盖型分类算法的极小覆盖子集一一对特定的训练样本集,若其子样本集训练后得到的分类 模型与与原样本集训练后得到的分类模型相同,则称子样本集是原样本集的一个覆盖。在一个样 本集的所有覆盖中,包含样本个数最少的覆盖称为样本集的极小覆盖子 集。(1)计算极小覆盖子集的基本步骤:用一个方形区域覆盖所有样本点;将该区域划分成一系列小区域(单元格),直到每个小区域内包含的样本点都属于同一类别;将落在同一小区域内的样本点中选择且仅选择一个样本构成极小覆(2)采样受限于极小覆盖子集全样本空间必然包含极小覆盖子集,任意一个数据集未必包含完整的极小覆盖子集。大数据环 境下,极小覆盖子集中的样本更多地包含在大数据中,较多的数据可以战胜较好的算法、再多的 数据亦不会超过极小覆盖子集的代表性、再好的提升手段亦不会超过极小覆盖子集确定的精度。3回归分析回归分析反映了数据库中数据的属性值的特性,通过函数表达数据映射的关系来发现属性值之间的依赖关 系。它可以应用到对数据序列的预测及相关关系的研究中去。在市场营销中,回归 分析可以被应用到各个方面。如通过对本季度销售的回归分析,对下一季度的销售趋势作出预测并做出针对性的营销改变。4、聚类聚类类似于分类,但与分类的目的不同,是针对数据的相似性和差异性将一组数据分为几个 类别。属于同一类别的数据间的相似性很大,但不同类别之间数据的相似性很小,跨类的数据关 联性很低。5、关联规则关联规则是隐藏在数据项之间的关联或相互关系,即可以根据一个数据项的出现推导出其他 数据项的出 现。关联规则的挖掘过程主要包括两个阶段:第一阶段为从海量原始数据中找出所有 的高频项目组 涕二极端为从这些高频项目组产生关联规则。 关联规则挖掘技术 已经被广泛应用于 金融行业企业中用以预测客户的需求,各银行在自己的ATM机上通过捆绑客户可能感兴趣的信息供用户了解并获取相应信息来改善自身的营销。6、神经网络方法。神经网络作为一种先进的人工智能技术,因其自身自行处理、分布存储和高度容错等特性非 常适合处理非 线性的以及那些以模糊、不完整、不严密的知识或数据为特征的处理问题,它的这 一特点十分适合解决数据挖掘的问题。典型的神经网络模型主要分为三大类:第一类是以用于分类预测和模式识别的前馈式神经网络模型,其主要代表为函数型网络、感知机;第二类是用于联想记忆和优化算法的反馈式神经网络模型,以Hopfield的离散模型和连续模型为代表。第三类是用于聚类的自组织映射方法,以 ART模型为代表。虽然神经网络有多种模型及算法,但在特定领 域的数据挖掘中使用何种模型及算法并没有统一的规则,而且人们很难理解网络的学习及决策过 程。7、Web数据挖掘Web数据挖掘是一项综合性技术,指Web从文档结构和使用的集合C中发现隐含的模式P, 如果将C看做是输入,P看做是输出,那么 Web挖掘过程就可以看做是从输入到输出的一个映 射过程。五、大数据展望与应用大数据技术能够将隐藏于海量数据中的信息和知识挖掘出来,为人类的社会经济活动提供依据,从而提高 各个领域的运行效率,大大提高整个社会经济的集约化程度。根据ESM国际电子商情针大数据应用现状和趋势的调查显示:被调查者最关注的大数据技术中,排在前五位的分别是大数据分析(12.91% )、云数据库(11.82% )、Hadoop ( 11.73% )、内存数据库(11.64% ) 以及数据安全(9.21% )。Hadoop已不再是人们心目中仅有的大数据技术,而大数据分析成为 最被关注的技术。从中可以看出,人们对大数据的了解已经逐渐深入,关 注的技术点也越来越多。 既然大数据分析是最被关注的技术趋势,那么大数据分析中的哪项功能是最重要的呢?从下图可以看出,排在前三位的功能分别是实时分析(21.32%)、丰富的挖掘模型(17.97%)和可视化界面(15.91%)。从调查结果可以看出:在未来一两年中有迫切部署大数据的需求,并且已经从一开始的基础设施建设,逐渐发展为对大数据分析和整体大数据解决方案的需求。大数据将重点应用于以下几大大领域:商业智能、政府决策、公共服务等。行业拓展者,打造大数据行业基石IBM : IBM大数据提供的服务包括数据分析,文本分析,蓝色云杉;业务事件处 理;IBMMashup Center的计量,监测,和商业化服务(MMMS )。 IBM的大数据产品组合中的最新系 列产品的InfoSpherebiglnsights ,基于Apache Hadoop。该产品组合包括:打包的 Apache Hadoop的软件和服务,代 号是bigInsights核心,用于开始大数据分析。软件被称为bigsheet, 软件目的是帮助从大量数据中轻松、简单、直观的提取、批注相关信息为 金融,风险管理,媒体和娱乐等行业量身定做的行业解决方案微软:2011年1月与惠普(具体而言是HP数据库综合应用部门)合作目标是开发了一系列能够提升生产力和提高决策速度的设备。EMC : EMC斩获了纽交所和Nasdaq ;大数据解决方案已包括 40多个产品。Oracle : Oracle大数据机与Oracle Exalogic中间件云服务器、Oracle Exadata数据库云服 务器以及Oracle Exalytics商务智能云服务器一起组成了甲骨文最广泛、高度集成化系统产品组大数据促进了政府职能变革重视应用大数据技术,盘活各地云计算中心资产:把原来大规模投资产业园、物联网产业园 从政绩工程,改造成智慧工程;在安防领域,应用大数据技术,提高应急处置能力和安全防范能 力;在民生领域,应用大数据技术,提升服务能力和运作效率,以及个性化的服务,比如医疗、卫生、教育等部门;解决在金融,电信领域等中数据分析的问题:一直得到得极大的重视,但受 困于存储能力和计算能力的限制,只局限在交易数型数据的统计分析。一方面大数据的应用促进了政府职能变革,另一方面政府投入将形成示范效应,大大推动大数据的发展。打造智慧城市通过收集、处理庞大而复杂的数据信息,从中获得知识和洞见,提升能力,加快科学、工程 领域的创新步伐,强化安全意识,转变教育和学习模式。智慧城市是使用智能计算技术使得城市 的关键基础设施的组成和服务更智能、互联和有效,随着智慧城市的建设,社会将步入大数据 时代。未来,改变一切未来,企业会依靠洞悉数据中的信息更加了解自己,也更加了解客户。数据的再利用:由于在信息价值 链中的特殊位置,有些公司可能会收集到大量的数据,但他们并不急需使用也不擅长再次利用这些数据。但当它被一些发布个性化位置广告服务和促销活动的公司再次利用时,则变得更有价值。
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 图纸设计 > 毕设全套


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!