良许Linux教程网 干货合集 分享一下替代 pandas 的八个神库

分享一下替代 pandas 的八个神库

本篇介绍 8 个可以替代pandas的库,在加速技巧之上,再次打开速度瓶颈,大大提升数据处理的效率。

img

大家好,

之前介绍过不少关于pandas性能加速的技巧,但这些技巧再厉害,整体运行速度方面也会遇到瓶颈。

本篇介绍 8 个可以替代pandas的库,在加速技巧之上,再次打开速度瓶颈,大大提升数据处理的效率。

1. Dask

Dask在大于内存的数据集上提供多核和分布式并行执行。

img
img

在Dask中,一个DataFrame是一个大型且并行的DataFrame,由许多较小的 pandas DataFrames组成,沿索引拆分。

这些 pandas DataFrames 可以存在于单个机器上的磁盘中计算远超于内存的计算,或者存在集群中的很多不同机器上完成。一个 Dask DataFrame 操作会触发所有 Pandas DataFrames 的操作。

Dask-ML支持pandas、Numpy、Sklearn、XGBoost、XArray、RAPIDS等等,对于常用的数据处理、建模分析是完全够用的。

# 安装dask
pip install dask
# 导入dask dataframe
import dask.dataframe as dd1.2.3.4.

原理、使用可参考这篇:安利一个Python大数据分析神器Dask

2. Modin

Modin是一个多进程的Dataframe库,可以加速Pandas的工作流程。多进程意味着,如果在多核的计算机上查询速度就会成倍的提升。

Modin具有与pandas相同的API,使用上只需在import导入时修改一下,其余操作一模一样。

# 导入 modin pandas
import modin.pandas as pd1.2.

原理、安装、使用可参考这篇:pandas慢怎么办?来试试Modin

3. Data Table

Datatable是一个用于处理表格数据的 Python 库。

与pandas的使用上很类似,但更侧重于速度和大数据的支持。在单节点的机器上,无论是读取数据,还是数据转换等操作,速度均远胜于pandas。

如果不是分布式而是单节点处理数据,遇到内存不够或者速度慢,也不妨试试这个库。

  • 使用文档:https://datatable.readthedocs.io/en/latest/start/quick-start.html

4. Polars

Polars是使用 Apache Arrow Columnar Format 作为内存模型在 Rust 中实现的速度极快的 DataFrames 库。

# 安装 polars
pip install polars
# 导入 polars
import polars as pl1.2.3.4.
  • 使用文档:https://pola-rs.github.io/polars-book/user-guide/index.html

5. Vaex

Vaex 也是一个开源的 DataFrame,它采用内存映射、高效的核外算法和延迟计算等技术。

对于大数据集而言,只要磁盘空间可以装下数据集,使用Vaex就可以对其进行分析,解决内存不足的问题。

它的各种功能函数也都封装为类 Pandas 的 API,几乎没有学习成本。

可参考这篇文章:[0.052 秒打开 100GB 数据,这个Python开源库火爆了](https://developer.51cto.com/article/0.052 秒打开 100GB 数据,这个Python开源库火爆了)!

6. Pyspark

Pyspark 是 Apache Spark 的 Python API,通过分布式计算处理大型数据集。

# 安装
pip install pyspark
# 导入
from pyspark.sql import SparkSession, functions as f
spark = SparkSession.builder.appName("SimpleApp").getOrCreate()
df = spark.read.option('header', True).csv('../input/yellow-new-yo1.2.3.4.5.6.

由于spark在速度上较hadoop更有优势,现在很多企业的大数据架构都会选择使用spark。

7. Koalas

Koalas 是在 Apache Spark 之上实现 的pandas DataFrame API,让数据分析更高效。

由于 Koalas 是在 Apache Spark 之上运行的,因此还必须安装 Spark。

# 安装
pip install pyspark
pip install koalas
# 导入
import databricks.koalas as ks
from pyspark.sql import SparkSession1.2.3.4.5.6.
  • 使用文档:https://koalas.readthedocs.io/en/latest/index.html

8. cuDF

cuDF 是一个 Python GPU DataFrame 库,基于 Apache Arrow 列式内存格式构建,用于数据操作。

cuDF 提供类 pandas 的 API,因此数据分析师也是无需了解 CUDA 编程细节的。

import cudf, io, requests
from io import StringIO
url = "https://github.com/plotly/datasets/raw/master/tips.csv"
content = requests.get(url).content.decode('utf-8')
tips_df = cudf.read_csv(StringIO(content))
tips_df['tip_percentage'] = tips_df['tip'] / tips_df['total_bill'] * 100
print(tips_df.groupby('size').tip_percentage.mean())1.2.3.4.5.6.7.
  • 使用文档:https://github.com/rapidsai/cudf

本篇介绍的 8 个Python库原理不同,使用环境也有差异,大家可以根据自己的需求进行尝试。

但这些库基本上都提供了类pandas的API,因此在使用上没有什么学习成本,只要配置好环境就可以上手操作了。

以上就是良许教程网为各位朋友分享的Linu系统相关内容。想要了解更多Linux相关知识记得关注公众号“良许Linux”,或扫描下方二维码进行关注,更多干货等着你 !

137e00002230ad9f26e78-265x300
本文由 良许Linux教程网 发布,可自由转载、引用,但需署名作者且注明文章出处。如转载至微信公众号,请在文末添加作者公众号二维码。
良许

作者: 良许

良许,世界500强企业Linux开发工程师,公众号【良许Linux】的作者,全网拥有超30W粉丝。个人标签:创业者,CSDN学院讲师,副业达人,流量玩家,摄影爱好者。
上一篇
下一篇

发表评论

联系我们

联系我们

公众号:良许Linux

在线咨询: QQ交谈

邮箱: yychuyu@163.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部
x
x