大数据(big data)的概念最早起源于20世纪90年代的美国。当时,随着互联网的普及和信息技术的发展,人们开始处理和分析大量的数据。这些数据包括网页浏览记录、在线交易信息、社交媒体活动等。为了从这些海量数据中提取有用的信息,研究人员开始关注数据的存储、处理和分析方法。
1993年,维克托·迈尔-舍恩伯格(viktor mayer-shansky)和肯尼斯·库克耶(kenneth cukier)在《大数据时代》一书中首次提出了“大数据”这一概念。他们指出,大数据是指在传统数据处理应用软件难以处理的大量、高增长率和多样性的信息资产。这些信息资产包括结构化数据、半结构化数据和非结构化数据。
1997年,美国学者德鲁克(paul drezner)在《大数据分析》(big data analysis)一书中详细探讨了大数据的理论框架和方法。他认为,大数据具有“3V”特征,即数据量(volume)、数据速度(velocity)和数据多样性(variety)。这些特征使得传统的数据处理方法不再适用,需要采用新的技术和方法来应对。
1998年,谷歌公司创始人拉里·佩奇(larry page)和谢尔盖·布林(sergey brin)在《科技评论》(technology review)上发表了一篇题为《搜索引擎:如何工作?》(how search engines work?)的文章,详细介绍了谷歌搜索引擎的工作原理。这篇文章中提到了谷歌使用分布式计算技术处理海量数据,这为大数据技术的发展奠定了基础。
1999年,美国国家标准与技术研究院(national institute of standards and technology,简称nist)发布了一份名为《大数据:规划用于未来信息资源管理的技术蓝图》(big data: a technical roadmap for managing future information assets)的报告。该报告提出了大数据的架构和技术路线图,为后续的数据管理和分析工作提供了指导。
2000年,美国国家科学基金会(national science foundation,简称nsf)启动了一个名为“大数据研究与发展”(big data research and development)的项目。该项目旨在推动大数据领域的科学研究和技术创新,促进大数据的应用和发展。
综上所述,大数据最初起源于美国,并逐渐发展成为一门新兴的技术领域。随着互联网的普及和信息技术的发展,大数据的概念和方法得到了广泛关注和应用。在未来,大数据将继续发挥重要作用,为我们揭示隐藏在海量数据背后的规律和趋势,推动社会的发展和进步。