Apache Spark项目发布了1.3版本.主要改进是增加了DataFrames API,更成熟的Spark SQL以及一些添加到机器学习库MLlib的新方法.此外,新版本可以更好地将Spark Streaming与Apache Kafka整合.
DataFrames API是新版本最主要的新增功能.采用R语言中的同名数据结构建模,目的是为列表数据提供更好的支持.DataFrame包含一张表,表中的列是有类型和命名的,可以提供过滤,分组或计算聚集等操作,类似SQL查询.
DataFrames与分布式SQL查询引擎Spark SQL紧密集成. DataFrames可以构建自SQL查询结果集,弹性分布式数据集,或者从Parquet格式的文件中加载.到目前为止,RDDS(弹性分布式数据集)是Spark中主要的分布式数据采集类型,但DataFrames旨在为结构化数据提供更好的支持.
作为Spark的一部分,机器学习库Spark MLlib已经实现了一些新的的学习算法,例如隐含狄利克雷分布,这是一种确定文件主题,聚集相关文件的概率方法;又如多项逻辑递归,用于多类预测任务.MLlib开始部分支持分布式线性代数,包括以分布式方式存储矩阵块.这样的功能是许多较复杂的数据分析任务所必需的,包括矩阵分解,这往往涉及矩阵过大难以载入主存储器的问题.
在这些算法之上,Spark还增加了更高级功能,为数据分析,增加导入和导出学习过的预测模型,还有在1.2版本引入的管道API,使用户以高级的方式指定数据转换管道.这种管道通常用于提取数据科学领域的原始数据相关的特征.
此外,Spark现在已经与Apache Kafka直接集成,可以摄取实时事件数据.
Apache Spark最初开始于2009年,源自加州大学伯克利分校的AMPLab.它可以独立运行,或者安装在现有的Hadoop上运行,它还提供了比Hadoop原生的MapReduce处理模型更大的操作集合.它尽可能使用内存持有数据,因此相对于主要基于磁盘的MapReduce,它的性能得到了进一步改进.另外,通过收集缓冲区中的数据,然后周期性地处理这些小型的批处理,Spark具备了处理接近实时的事件数据的能力.在类似的项目中,Apache Flink不但有类似的功能集合,还包括查询优化和连续数据流处理引擎,Cascading和Scalding项目,提供了一组类似的高级操作,但运行在MapReduce处理模型之上.
来源: