[Python/数据分析] Pandas:数据分析库
序[*]千行百业,自然语言处理、大模型、人工智能技术变革、数智化转型热潮进行得如火如荼,熟悉 Python 及其核心库————成为进入AI领域的基本能力。
[*]数据处理与分析方面的 numpy 和 pandas 库首当其冲。
概述:Pandas
Pandas 是什么?
[*]Pandas 是 Python 语言的一个扩展程序库,用于数据分析。
[*]Pandas 名字衍生自术语 "panel data"(面板数据)和 "Python data analysis"(Python 数据分析)。
[*]Pandas 是一个开放源码、BSD 许可的库,提供高性能、易于使用的数据结构和数据分析工具。
[*]Pandas 一个强大的分析结构化数据的工具集,其基础是 Numpy(提供高性能的矩阵运算)。
起源
[*]Pandas诞生于2008年,它的开发者是Wes McKinney,一个量化金融分析工程师。
因为疲于应付繁杂的财务数据,Wes McKinney便自学Python,并开发了Pandas。大神就是这么任性,没有,就创造。
为什么叫作Pandas,其实这是“Python data analysis”的简写,同时也衍生自计量经济学术语“panel data”(面板数据)。
所以说,Pandas的诞生是为了分析金融财务数据,当然现在它已经应用在各个领域了。
Pandas 应用
[*]Pandas 可以从各种文件格式比如 CSV、JSON、SQL、Microsoft Excel 导入数据。
[*]Pandas 可以对各种数据进行运算操作,比如归并、再成形、选择,还有数据清洗和数据加工特征。
[*]Pandas 广泛应用在学术、金融、统计学等各个数据分析领域。
Pandas 功能
[*]Pandas 是数据分析的利器,它不仅提供了高效、灵活的数据结构,还能帮助你以极低的成本完成复杂的数据操作和分析任务。
Pandas 提供了丰富的功能,包括:
[*]数据清洗:处理缺失数据、重复数据等。
[*]数据转换:改变数据的形状、结构或格式。
[*]数据分析:进行统计分析、聚合、分组等。
[*]数据可视化:通过整合 Matplotlib 和 Seaborn 等库,可以进行数据可视化。
数据结构
[*]Pandas 的主要数据结构是 Series (一维数据)与 DataFrame(二维数据)。
[*]Series 是一种类似于一维数组的对象,它由一组数据(各种 Numpy 数据类型)以及一组与之相关的数据标签(即索引)组成。
[*]DataFrame 是一个二维表格型的数据结构,它含有一组有序的列,每列可以是不同的值类型(数值、字符串、布尔型值)。
DataFrame 既有行索引也有列索引,它可以被看做由 Series 组成的字典(共同用一个索引)。
[*]Pandas 是 Python 数据科学领域中不可或缺的工具之一,它的灵活性和强大的功能使得数据处理和分析变得更加简单和高效。
Series
[*]Series: 类似于一维数组或列表,是由一组数据以及与之相关的数据标签(索引)构成。
Series 可以看作是 DataFrame 中的一列,也可以是单独存在的一维数据结构。
DataFrame
[*]DataFrame: 类似于一个二维表格,它是 Pandas 中最重要的数据结构。
DataFrame 可以看作是由多个 Series 按列排列构成的表格,它既有行索引也有列索引。
因此可以方便地进行行列选择、过滤、合并等操作。
DataFrame 可视为由多个 Series 组成的数据结构:
下面这张图展示了两个 Series 对象相加得到一个 DataFrame 对象:
[*]DataFrame 由 Index、Key、Value 组成:
Demo
import pandas as pd
# 创建两个Series对象
series_apples = pd.Series()
series_bananas = pd.Series()
# 将两个Series对象相加,得到DataFrame,并指定列名
df = pd.DataFrame({ 'Apples': series_apples, 'Bananas': series_bananas })
# 显示DataFrame
print(df)out
ApplesBananas
0 1.0 2
1 3.0 6
2 7.0 3
3 4.0 5
4 NaN 6第1个 pandas 示例
import pandas as pd
# 创建一个简单的 DataFrame
data = {'Name': ['Google', 'Runoob', 'Taobao'], 'Age': }
df = pd.DataFrame(data)
# 查看 DataFrame
print(df)out
NameAge
0Google 25
1Runoob 30
2Taobao 35Pandas 特点
高效的数据结构:
[*]Series:一维数据结构,类似于列表(List),但拥有更强的功能,支持索引。
[*]DataFrame:二维数据结构,类似于表格或数据库中的数据表,行和列都具有标签(索引)。
数据清洗与预处理:
[*]Pandas 提供了丰富的函数来处理缺失值、重复数据、数据类型转换、字符串操作等,帮助用户轻松清理和转换数据。
数据操作与分析:
[*]支持高效的数据选择、筛选、切片,按条件提取数据、合并、连接多个数据集、数据分组、汇总统计等操作。
[*]可以进行复杂的数据变换,如数据透视表、交叉表、时间序列分析等。
数据读取与导出:
[*]支持从各种格式的数据源读取数据,如 CSV、Excel、JSON、SQL 数据库等。
[*]也可以将处理后的数据导出为不同格式,如 CSV、Excel 等。
数据可视化:
[*]通过与 Matplotlib 和其他可视化工具的集成,Pandas 可以快速生成折线图、柱状图、散点图等常见图表。
时间序列分析:
[*]支持强大的时间序列处理功能,包括日期的解析、重采样、时区转换等。
性能与优化:
[*]Pandas 优化了大规模数据处理,提供高效的向量化操作,避免了使用 Python 循环处理数据的低效。
[*]还支持一些内存优化技术,比如使用 category 类型处理重复的数据。
Pandas 应用
[*]Pandas 在数据科学和数据分析领域中具有广泛的应用,其主要优势在于能够处理和分析结构化数据。
以下是 Pandas 的一些主要应用领域:
[*]金融领域:金融机构使用 Pandas 来处理和分析股票市场数据、财务数据、交易数据等。Pandas 的灵活性和高效性使得金融分析师能够快速进行数据清洗、统计分析、建模等工作。
[*]科学研究:科学研究领域经常涉及大量的实验数据、观测数据等,Pandas 提供了强大的工具来处理和分析这些数据,例如天文学、生物学、地球科学等领域。
[*]企业数据分析:各种企业和组织都需要对业务数据进行分析,以支持决策和战略规划。Pandas 提供了处理和分析企业数据的功能,包括销售数据、客户数据、运营数据等。
[*]社交媒体分析:社交媒体平台产生的海量数据需要进行分析来了解用户行为、趋势和情感倾向。Pandas 可以帮助分析师处理和分析社交媒体数据,进行用户行为分析、情感分析等。
[*]医疗保健:医疗保健领域需要处理和分析大量的医疗数据,包括患者数据、临床试验数据、医疗图像数据等。Pandas 提供了处理和分析这些数据的工具,支持医疗研究和临床决策。
[*]教育研究:教育领域可以利用 Pandas 来处理学生表现数据、教学评估数据、课程数据等,从而进行教育研究和改进教学质量。
[*]市场营销:市场营销专业人员可以使用 Pandas 分析市场数据、客户数据、广告数据等,以制定营销策略和优化市场活动效果。
Pandas 在许多领域中都是一种强大而灵活的工具,为数据科学家、分析师和工程师提供了处理和分析数据的便捷方式。
Pandas 安装
[*]安装 pandas 需要基础环境是 Python,Pandas 是一个基于 Python 的库,因此你需要先安装 Python,然后再通过 Python 的包管理工具 pip 安装 Pandas。
使用 pip 安装 pandas:
pip install pandas安装成功后,我们就可以导入 pandas 包使用:
import pandas查看版本
>>> import pandas
>>> pandas.__version__# 查看版本
'1.1.5'导入 pandas 一般使用别名 pd 来代替:
import pandas as pd>>> import pandas as pd
>>> pd.__version__# 查看版本
'1.1.5'
[*]一个简单的 pandas 实例:
import pandas as pd
mydataset = {
'sites': ["Google", "Runoob", "Wiki"],
'number':
}
myvar = pd.DataFrame(mydataset)
print(myvar)out
sitesnumber
0Google 1
1Runoob 2
2 Wiki 3Pandas 数据结构 - Series
[*]Series 是 Pandas 中的一个核心数据结构,类似于一个一维的数组,具有数据和索引。
[*]Series 可以存储任何数据类型(整数、浮点数、字符串等),并通过标签(索引)来访问元素。
[*]Series 的数据结构是非常有用的,因为它可以处理各种数据类型,同时保持了高效的数据操作能力,比如可以通过标签来快速访问和操作数据。
Series 特点
[*]一维数组:Series 中的每个元素都有一个对应的索引值。
[*]索引: 每个数据元素都可以通过标签(索引)来访问,默认情况下索引是从 0 开始的整数,但你也可以自定义索引。
[*]数据类型: Series 可以容纳不同数据类型的元素,包括整数、浮点数、字符串、Python 对象等。
[*]大小不变性:Series 的大小在创建后是不变的,但可以通过某些操作(如 append 或 delete)来改变。
[*]操作:Series 支持各种操作,如数学运算、统计分析、字符串处理等。
[*]缺失数据:Series 可以包含缺失数据,Pandas 使用NaN(Not a Number)来表示缺失或无值。
[*]自动对齐:当对多个 Series 进行运算时,Pandas 会自动根据索引对齐数据,这使得数据处理更加高效。
CASE 创建Series 对象时,指定索引(Index)、名称(Name)以及值(Values)
[*]我们可以使用 Pandas 库来创建一个 Series 对象,并且可以为其指定索引(Index)、名称(Name)以及值(Values):
import pandas as pd
# 创建一个Series对象,指定名称为'A',值分别为1, 2, 3, 4
# 默认索引为0, 1, 2, 3
series = pd.Series(, name='A')
# 显示Series对象
print(series)
# 如果你想要显式地设置索引,可以这样做:
custom_index = # 自定义索引
series_with_index = pd.Series(, index=custom_index, name='A')
# 显示带有自定义索引的Series对象
print(series_with_index)out
0 1
1 2
2 3
3 4
Name: A, dtype: int64
1 1
2 2
3 3
4 4
Name: A, dtype: int64Series 是 Pandas 中的一种基本数据结构,类似于一维数组或列表,但具有标签(索引),使得数据在处理和分析时更具灵活性。
以下是关于 Pandas 中的 Series 的详细介绍。
创建 Series 对象
[*]可以使用 pd.Series() 构造函数创建一个 Series 对象,传递一个数据数组(可以是列表、NumPy 数组等)和一个可选的索引数组。
pandas.Series(data=None, index=None, dtype=None, name=None, copy=False, fastpath=False)
[*]参数说明:
[*]data:Series 的数据部分,可以是列表、数组、字典、标量值等。如果不提供此参数,则创建一个空的 Series。
[*]index:Series 的索引部分,用于对数据进行标记。可以是列表、数组、索引对象等。如果不提供此参数,则创建一个默认的整数索引。
[*]dtype:指定 Series 的数据类型。可以是 NumPy 的数据类型,例如 np.int64、np.float64 等。如果不提供此参数,则根据数据自动推断数据类型。
[*]name:Series 的名称,用于标识 Series 对象。如果提供了此参数,则创建的 Series 对象将具有指定的名称。
[*]copy:是否复制数据。默认为 False,表示不复制数据。如果设置为 True,则复制输入的数据。
[*]fastpath:是否启用快速路径。默认为 False。启用快速路径可能会在某些情况下提高性能。
demo
import pandas as pd
a =
myvar = pd.Series(a)
print(myvar)out
[*]从上图可知: 如果没有指定索引,索引值就从 0 开始,我们可以根据索引值读取数据:
CASE 通过索引获取指定数组元素的值
demo 指定默认的索引,获取目标元素的值
import pandas as pd
a =
myvar = pd.Series(a)
print(myvar) # out: 2demo 可以指定索引值,如下实例:
import pandas as pd
a = ["Google", "Runoob", "Wiki"]
myvar = pd.Series(a, index = ["x", "y", "z"])
print(myvar)
demo 根据索引值读取数据
import pandas as pd
a = ["Google", "Runoob", "Wiki"]
myvar = pd.Series(a, index = ["x", "y", "z"])
print(myvar["y"])out
RunoobCASE 使用 key/value 对象来创建 Series 对象
[*]我们也可以使用 key/value 对象,类似字典来创建 Series:
import pandas as pd
sites = {1: "Google", 2: "Runoob", 3: "Wiki"}
myvar = pd.Series(sites)
print(myvar)out
``log
1 Google
2 Runoob
3 Wiki
dtype: object
> 从上图可知,**字典的 key** 变成了**索引值**。> 如果我们只需要字典中的一部分数据,只需要指定需要数据的索引即可,如下实例:```pythonimport pandas as pd
sites = {1: "Google", 2: "Runoob", 3: "Wiki"}
myvar = pd.Series(sites)
print(myvar)myvar2 = pd.Series(sites, index = )print(myvar2)out
1 Google
2 Runoob
3 Wiki
dtype: object
1 Google
2 Runoob
dtype: objectCASE 设置 Series 的名称
import pandas as pd
sites = {1: "Google", 2: "Runoob", 3: "Wiki"}
myvar = pd.Series(sites, index = , name="RUNOOB-Series-TEST" )
print(myvar)out
1 Google
2 Runoob
Name: RUNOOB-Series-TEST, dtype: objectSeries 方法
方法名称功能描述index获取 Series 的索引values获取 Series 的数据部分(返回 NumPy 数组)head(n)返回 Series 的前 n 行(默认为 5)tail(n)返回 Series 的后 n 行(默认为 5)dtype返回 Series 中数据的类型shape返回 Series 的形状(行数)describe()返回 Series 的统计描述(如均值、标准差、最小值等)isnull()返回一个布尔 Series,表示每个元素是否为 NaNnotnull()返回一个布尔 Series,表示每个元素是否不是 NaNunique()返回 Series 中的唯一值(去重)value_counts()返回 Series 中每个唯一值的出现次数map(func)将指定函数应用于 Series 中的每个元素apply(func)将指定函数应用于 Series 中的每个元素,常用于自定义操作astype(dtype)将 Series 转换为指定的类型sort_values()
sort_values(ascending=True, inplace=Flase)对 Series 中的元素进行排序(按值排序)
ascending:默认为True升序排列,为Flase降序排序
inplace:是否修改原始的Seriessort_index()对 Series 的索引进行排序dropna()删除 Series 中的缺失值(NaN)fillna(value)填充 Series 中的缺失值(NaN)replace(to_replace, value)替换 Series 中指定的值cumsum()返回 Series 的累计求和cumprod()返回 Series 的累计乘积shift(periods)将 Series 中的元素按指定的步数进行位移rank()返回 Series 中元素的排名corr(other)计算 Series 与另一个 Series 的相关性(皮尔逊相关系数)cov(other)计算 Series 与另一个 Series 的协方差to_list()将 Series 转换为 Python 列表to_frame()将 Series 转换为 DataFrameiloc[]通过位置索引来选择数据loc[]通过标签索引来选择数据CASE 查看基本信息 / map 函数运算 / 累计求和 / 查找缺失值 / 排序
import pandas as pd
# 创建 Series
data =
index = ['a', 'b', 'c', 'd', 'e', 'f']
s = pd.Series(data, index=index)
# 查看基本信息
print("索引:", s.index)
print("数据:", s.values)
print("数据类型:", s.dtype)
print("前两行数据:\n", s.head(2))
# 使用 map 函数将每个元素加倍
s_doubled = s.map(lambda x: x * 2)
print("元素加倍后:\n", s_doubled)
# 计算累计和
cumsum_s = s.cumsum()
print("累计求和:\n", cumsum_s)
# 查找缺失值(这里没有缺失值,所以返回的全是 False)
print("缺失值判断:\n", s.isnull())
# 排序
sorted_s = s.sort_values()
# sorted_s = s.sort_values(ascending=True)
print("排序后的 Series:\n", sorted_s)out
索引: Index(['a', 'b', 'c', 'd', 'e', 'f'], dtype='object')
数据:
数据类型: int64
前两行数据:
a 1
b 2
dtype: int64
元素加倍后:
a 2
b 4
c 6
d 8
e 10
f 12
dtype: int64
累计求和:
a 1
b 3
c 6
d 10
e 15
f 21
dtype: int64
缺失值判断: a False
b False
c False
d False
e False
f False
dtype: bool
排序后的 Series:
a 1
b 2
c 3
d 4
e 5
f 6
dtype: int64更多 Series 说明
CASE 使用列表、字典或数组创建一个默认索引的 Series
import numpy as np;
import pandas as pd;
# 使用列表创建 Series
s = pd.Series()
print(s)
# 使用 NumPy 数组创建 Series
s = pd.Series(np.array())
print(s)
# 使用字典创建 Series
s = pd.Series({'a': 1, 'b': 2, 'c': 3, 'd': 4})
print(s)out
0 1
1 2
2 3
3 4
dtype: int64
0 1
1 2
2 3
3 4
dtype: int64
a 1
b 2
c 3
d 4
dtype: int64CASE 基本操作
# 指定索引创建 Series
s = pd.Series(, index=['a', 'b', 'c', 'd'])
# 获取值
value = s# 获取索引为2的值
print(s['a'])# 返回索引标签 'a' 对应的元素
# 获取多个值
subset = s# 获取索引为1到3的值
# 使用自定义索引
value = s['b']# 获取索引为'b'的值
# 索引和值的对应关系
for index, value in s.items():
print(f"Index: {index}, Value: {value}")
# 使用切片语法来访问 Series 的一部分
print(s['a':'c'])# 返回索引标签 'a' 到 'c' 之间的元素
print(s[:3])# 返回前三个元素
# 为特定的索引标签赋值
s['a'] = 10# 将索引标签 'a' 对应的元素修改为 10
# 通过赋值给新的索引标签来添加元素
s['e'] = 5# 在 Series 中添加一个新的元素,索引标签为 'e'
# 使用 del 删除指定索引标签的元素。
del s['a']# 删除索引标签 'a' 对应的元素
# 使用 drop 方法删除一个或多个索引标签,并返回一个新的 Series。
s_dropped = s.drop(['b'])# 返回一个删除了索引标签 'b' 的新 SeriesCASE 基本运算
# 算术运算
result = series * 2# 所有元素乘以2
# 过滤
filtered_series = series# 选择大于2的元素
# 数学函数
import numpy as np
result = np.sqrt(series)# 对每个元素取平方根CASE 计算统计数据:使用 Series 的方法来计算描述性统计
print(s.sum())# 输出 Series 的总和
print(s.mean())# 输出 Series 的平均值
print(s.max())# 输出 Series 的最大值
print(s.min())# 输出 Series 的最小值
print(s.std())# 输出 Series 的标准差CASE 属性和方法
# 获取索引
index = s.index
# 获取值数组
values = s.values
# 获取描述统计信息
stats = s.describe()
# 获取最大值和最小值的索引
max_index = s.idxmax()
min_index = s.idxmin()
# 其他属性和方法
print(s.dtype) # 数据类型
print(s.shape) # 形状
print(s.size) # 元素个数
print(s.head())# 前几个元素,默认是前 5 个
print(s.tail())# 后几个元素,默认是后 5 个
print(s.sum()) # 求和
print(s.mean())# 平均值
print(s.std()) # 标准差
print(s.min()) # 最小值
print(s.max()) # 最大值CASE 使用布尔表达式:根据条件过滤 Series
# 使用字典创建 Series
s = pd.Series({'a': 1, 'b': 2, 'c': 3, 'd': 4})
print(s)
print("result:\n", s > 2)# 返回一个布尔 Series,其中的元素值是否大于 2out
result:
a False
b False
c True
d True
dtype: boolCASE 查看数据类型:使用 dtype 属性查看 Series 的数据类型
print(s.dtype)# 输出 Series 的数据类型CASE 转换数据类型:使用 astype 方法将 Series 转换为另一种数据类型
s = s.astype('float64')# 将 Series 中的所有元素转换为 float64 类型注意事项
[*]Series 中的数据是有序的。
[*]可以将 Series 视为带有索引的一维数组。
[*]索引可以是唯一的,但不是必须的。
[*]数据可以是标量、列表、NumPy 数组等。
Pandas 数据结构 - DataFrame
[*]DataFrame 是 Pandas 中的另一个核心数据结构,类似于一个二维的表格或数据库中的数据表。
[*]DataFrame 是一个表格型的数据结构,它含有一组有序的列,每列可以是不同的值类型(数值、字符串、布尔型值)。
[*]DataFrame 既有行索引也有列索引,它可以被看做由 Series 组成的字典(共同用一个索引)。
[*]DataFrame 提供了各种功能来进行数据访问、筛选、分割、合并、重塑、聚合以及转换等操作。
[*]DataFrame 是一个非常灵活且强大的数据结构,广泛用于数据分析、清洗、转换、可视化等任务。
https://img2024.cnblogs.com/blog/1173617/202505/1173617-20250504123516463-602828572.png
DataFrame 特点
[*]二维结构: DataFrame 是一个二维表格,可以被看作是一个 Excel 电子表格或 SQL 表,具有行和列。可以将其视为多个 Series 对象组成的字典。
[*]列的数据类型: 不同的列可以包含不同的数据类型,例如整数、浮点数、字符串或 Python 对象等。
[*]索引:DataFrame 可以拥有行索引和列索引,类似于 Excel 中的行号和列标。
[*]大小可变:可以添加和删除列,类似于 Python 中的字典。
[*]自动对齐:在进行算术运算或数据对齐操作时,DataFrame 会自动对齐索引。
[*]处理缺失数据:DataFrame 可以包含缺失数据,Pandas 使用 NaN(Not a Number)来表示。
[*]数据操作:支持数据切片、索引、子集分割等操作。
[*]时间序列支持:DataFrame 对时间序列数据有特别的支持,可以轻松地进行时间数据的切片、索引和操作。
[*]丰富的数据访问功能:通过 .loc、.iloc 和 .query() 方法,可以灵活地访问和筛选数据。
[*]灵活的数据处理功能:包括数据合并、重塑、透视、分组和聚合等。
[*]数据可视化:虽然 DataFrame 本身不是可视化工具,但它可以与 Matplotlib 或 Seaborn 等可视化库结合使用,进行数据可视化。
[*]高效的数据输入输出:可以方便地读取和写入数据,支持多种格式,如 CSV、Excel、SQL 数据库和 HDF5 格式。
[*]描述性统计:提供了一系列方法来计算描述性统计数据,如 .describe()、.mean()、.sum() 等。
[*]灵活的数据对齐和集成:可以轻松地与其他 DataFrame 或 Series 对象进行合并、连接或更新操作。
[*]转换功能:可以对数据集中的值进行转换,例如使用 .apply() 方法应用自定义函数。
[*]滚动窗口和时间序列分析:支持对数据集进行滚动窗口统计和时间序列分析。
构造方法
[*]DataFrame 构造方法:
pandas.DataFrame(data=None, index=None, columns=None, dtype=None, copy=False)
[*]参数说明:
[*]data:DataFrame 的数据部分,可以是字典、二维数组、Series、DataFrame 或其他可转换为 DataFrame 的对象。如果不提供此参数,则创建一个空的 DataFrame。
[*]index:DataFrame 的行索引,用于标识每行数据。可以是列表、数组、索引对象等。如果不提供此参数,则创建一个默认的整数索引。
[*]columns:DataFrame 的列索引,用于标识每列数据。可以是列表、数组、索引对象等。如果不提供此参数,则创建一个默认的整数索引。
[*]dtype:指定 DataFrame 的数据类型。可以是 NumPy 的数据类型,例如 np.int64、np.float64 等。如果不提供此参数,则根据数据自动推断数据类型。
[*]copy:是否复制数据。默认为 False,表示不复制数据。如果设置为 True,则复制输入的数据。
[*]Pandas DataFrame 是一个二维的数组结构,类似二维数组。
[*]Demo
import pandas as pd
data = [['Google', 10], ['Runoob', 12], ['Wiki', 13]]
# 创建DataFrame
df = pd.DataFrame(data, columns=['Site', 'Age'])
# 使用astype方法设置每列的数据类型
df['Site'] = df['Site'].astype(str)
df['Age'] = df['Age'].astype(float)
print(df)也可以使用字典来创建:
import pandas as pd
data = {'Site':['Google', 'Runoob', 'Wiki'], 'Age':}
df = pd.DataFrame(data)
print (df)out
SiteAge
0Google 10
1Runoob 12
2 Wiki 13以下实例使用 ndarrays 创建,ndarray 的长度必须相同
[*]如果传递了 index,则索引的长度应等于数组的长度。
如果没有传递索引,则默认情况下,索引将是range(n),其中n是数组长度。
[*]ndarrays 可以参考: NumPy Ndarray 对象
Demo - 使用 ndarrays 创建
import numpy as np
import pandas as pd
# 创建一个包含网站和年龄的二维ndarray
ndarray_data = np.array([
['Google', 10],
['Runoob', 12],
['Wiki', 13]
])
# 使用DataFrame构造函数创建数据帧
df = pd.DataFrame(ndarray_data, columns=['Site', 'Age'])
# 打印数据帧
print(df)out
Site Age
0Google10
1Runoob12
2 Wiki13从以上输出结果可以知道, DataFrame 数据类型一个表格,包含 rows(行) 和 columns(列):
Demo - 使用字典创建
import pandas as pd
data = [{'a': 1, 'b': 2},{'a': 5, 'b': 10, 'c': 20}]
df = pd.DataFrame(data)
print (df)out
a b c
01 2 NaN
151020.0没有对应数据的部分为 NaN。
CASE 通过loc属性返回指定行的数据
[*]Pandas 可以使用 loc 属性返回指定行的数据
[*]如果没有设置索引,第一行索引为 0,第二行索引为 1,以此类推:
import pandas as pd
data = {
"calories": ,
"duration":
}
# 数据载入到 DataFrame 对象
df = pd.DataFrame(data)
# 返回第一行
print(df.loc)
# 返回第二行
print(df.loc)out
calories 420
duration 50
Name: 0, dtype: int64
calories 380
duration 40
Name: 1, dtype: int64
[*]注意:返回结果其实就是一个 Pandas Series 数据。
也可以返回多行数据,使用 [[ ... ]] 格式,... 为各行的索引,以逗号隔开:
CASE 以字典创建DataFrame对象
import pandas as pd
data = {
"calories": ,
"duration":
}
# 数据载入到 DataFrame 对象
df = pd.DataFrame(data)
# 返回第一行
print(df.loc)
# 返回第一行和第二行
print("\n", df.loc[])out
caloriesduration
0 420 50
caloriesduration
0 420 50
1 380 40注意:返回结果其实就是一个 Pandas DataFrame 数据。
[*]我们可以指定索引值
如下实例:
import pandas as pd
data = {
"calories": ,
"duration":
}
df = pd.DataFrame(data, index = ["day1", "day2", "day3"])
print(df)out
caloriesduration
day1 420 50
day2 380 40
day3 390 45CASE 基于loc属性获取指定索引的元素数据
[*]Pandas 可以使用 loc 属性返回指定索引对应到某一行:
import pandas as pd
data = {
"calories": ,
"duration":
}
df = pd.DataFrame(data, index = ["day1", "day2", "day3"])
# 指定索引
print(df.loc["day2"])out
calories 380
duration 40
Name: day2, dtype: int64DataFrame 方法
方法清单
方法名称功能描述head(n)返回 DataFrame 的前 n 行数据(默认前 5 行)tail(n)返回 DataFrame 的后 n 行数据(默认后 5 行)info()显示 DataFrame 的简要信息,包括列名、数据类型、非空值数量等describe()返回 DataFrame 数值列的统计信息,如均值、标准差、最小值等shape返回 DataFrame 的行数和列数(行数, 列数)columns返回 DataFrame 的所有列名index返回 DataFrame 的行索引dtypes返回每一列的数值数据类型sort_values(by)
按照指定列排序sort_index()
sort_index(by=None, axis=0, level=None, ascending=True, inplace=False, kind='quicksort', na_position='last', sort_remaining=True)按行索引排序
by:按照某一列或几列数据进行排序,但是by参数貌似不建议使用
axis:0按照行名排序;1按照列名排序
level:默认None,否则按照给定的level顺序排列---貌似并不是,文档
ascending:默认True升序排列;False降序排列
inplace:默认False,否则排序之后的数据直接替换原来的数据框
kind:排序方法,{"quicksort", "mergesort", "heapsort"}, default 'quicksort'。
na_position:缺失值默认排在最后dropna()删除含有缺失值(NaN)的行或列fillna(value)用指定的值填充缺失值isnull()判断缺失值,返回一个布尔值 DataFramenotnull()判断非缺失值,返回一个布尔值 DataFrameloc[]按标签索引选择数据iloc[]按位置索引选择数据at[]访问 DataFrame 中单个元素(比 loc[] 更高效)iat[]访问 DataFrame 中单个元素(比 iloc[] 更高效)apply(func)对 DataFrame 或 Series 应用一个函数applymap(func)对 DataFrame 的每个元素应用函数(仅对 DataFrame)groupby(by)分组操作,用于按某一列分组进行汇总统计pivot_table()创建透视表merge()合并多个 DataFrame(类似 SQL 的 JOIN 操作)concat()按行或按列连接多个 DataFrameto_csv()将 DataFrame 导出为 CSV 文件to_excel()将 DataFrame 导出为 Excel 文件to_json()将 DataFrame 导出为 JSON 格式to_sql()将 DataFrame 导出为 SQL 数据库query()使用 SQL 风格的语法查询 DataFrameduplicated()返回布尔值 DataFrame,指示每行是否是重复的drop_duplicates()删除重复的行set_index()设置 DataFrame 的索引reset_index()重置 DataFrame 的索引transpose()转置 DataFrame(行列交换)使用示例
import pandas as pd
# 创建 DataFrame
data = {
'Name': ['Alice', 'Bob', 'Charlie', 'David'],
'Age': ,
'City': ['New York', 'Los Angeles', 'Chicago', 'Houston']
}
df = pd.DataFrame(data)
# 查看前两行数据
print(df.head(2))
# 查看 DataFrame 的基本信息
print("info:\n", df.info())
# 获取描述统计信息
print("describe:\n", df.describe())
# 按列排序 (列名=年龄,排序方式=降序)
df_sorted = df.sort_values(by='Age', ascending=False)
print("df_sorted:\n", df_sorted)
# 选择指定列
print("Name, Age:\n", df[['Name', 'Age']])
# 按索引选择行
print("df.iloc:\n", df.iloc)# 选择第二到第三行(按位置)
# 按标签选择行
print("df.loc:\n", df.loc)# 选择第二到第三行(按标签)
# 计算分组统计(按城市分组,计算平均年龄)
print("groupby:\n", df.groupby('City')['Age'].mean())
# 处理缺失值(填充缺失值)
df['Age'] = df['Age'].fillna(30)
# 导出为 CSV 文件
df.to_csv('output.csv', index=False)out
NameAge City
0Alice 25 New York
1 Bob 30Los Angeles
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 4 entries, 0 to 3
Data columns (total 3 columns):
# ColumnNon-Null CountDtype
----------------------------
0 Name 4 non-null object
1 Age 4 non-null int64
2 City 4 non-null object
dtypes: int64(1), object(2)
memory usage: 228.0+ bytes
info:
None
describe:
Age
count 4.000000
mean 32.500000
std 6.454972
min 25.000000
25% 28.750000
50% 32.500000
75% 36.250000
max 40.000000
df_sorted:
NameAge City
3 David 40 Houston
2Charlie 35 Chicago
1 Bob 30Los Angeles
0 Alice 25 New York
Name, Age:
NameAge
0 Alice 25
1 Bob 30
2Charlie 35
3 David 40
df.iloc:
NameAge City
1 Bob 30Los Angeles
2Charlie 35 Chicago
df.loc:
NameAge City
1 Bob 30Los Angeles
2Charlie 35 Chicago
groupby:
City
Chicago 35.0
Houston 40.0
Los Angeles 30.0
New York 25.0
Name: Age, dtype: float64访问 DataFrame 元素 【推荐】
试验数据
import pandas as pd
import numpy as np
# 生成DataFrame
df= pd.DataFrame(np.arange(30).reshape((6,5)),
columns=['A','B','C','D','E'])
print(df)
# 写入本地
# df.to_excel("D:\\实验数据\\data.xls", sheet_name="data")out
A B C D E
0 0 1 2 3 4
1 5 6 7 8 9
21011121314
31516171819
42021222324
52526272829访问列
[*]访问列:使用列名作为属性或通过 .loc[]、.iloc[] 访问,也可以使用标签或位置索引。
[*]loc:通过行、列的名称或标签来索引
[*]iloc:通过行、列的索引位置来寻找数据
# 通过列名访问
print("column=A: `df['A']`\n", df['A'])
## 访问多个列
# print("column=A,B: `df['A', 'B']`\n", df['A', 'B']) # 错误语法
print("column=A,B: `df[['A', 'B']]`\n", df[['A', 'B']]) # 正确语法
# 通过属性访问
print("column=B: `df.B`\n", df.B)
# 通过 .loc[] 访问列 by 列名
print("column=A: `df.loc[:, 'A']`\n", df.loc[:, 'A'])
# 通过 .iloc[] 访问列 by 列下标
print("column=A: `df.iloc[:, 0]`\n", df.iloc[:, 0])# 假设 'A' 是第一列
# 访问单个元素
print("`df['B']`:",df['B'])
print("`df.loc[ 0, \"B\"]`:", df.loc[ 0, "B"])out
column=A: `df['A']`
0 0
1 5
2 10
3 15
4 20
5 25
Name: A, dtype: int64
column=A,B: `df[['A', 'B']]`
A B
0 0 1
1 5 6
21011
31516
42021
52526
column=B: `df.B`
0 1
1 6
2 11
3 16
4 21
5 26
Name: B, dtype: int64
column=A: `df.loc[:, 'A']`
0 0
1 5
2 10
3 15
4 20
5 25
Name: A, dtype: int64
column=A: `df.iloc[:, 0]`
0 0
1 5
2 10
3 15
4 20
5 25
Name: A, dtype: int64
`df['B']`: 1
`df.loc[ 0, "B"]`: 1访问行
[*]访问行:使用行的标签和 .loc[] 访问。
# 通过 .loc[] 访问行 by 行索引名/标签 (可自定义,默认是数值)
print("row=2: `df.loc`\n", df.loc) # 访问第2行 | df.loc 等效于 df.loc
#print("row=2: `df.loc`\n", df.loc)
print("df.loc:\n", df.loc)# 选择第二到第三行(按标签)
# 通过 .iloc[] 访问列 by 行下标(位置)
print("row=2: `df.iloc`\n", df.iloc)
# print("row=2: `df.iloc`\n", df.iloc) # 访问第2行 | df.iloc 等效于 df.iloc
print("df.iloc:\n", df.iloc)# 选择第二到第三行(按位置)
# 访问单个元素
print("`df.loc[ 0, \"B\"]`:", df.loc[ 0, "B"])
print("`df['B']`:",df['B'])out
row=2: `df.loc`
A 5
B 6
C 7
D 8
E 9
Name: 1, dtype: int64
df.loc:
A B C D E
1 5 6 7 8 9
21011121314
row=2: `df.iloc`
A 5
B 6
C 7
D 8
E 9
Name: 1, dtype: int64
df.iloc:
A B C D E
1 5 6 7 8 9
21011121314
`df.loc[ 0, "B"]`: 1
`df['B']`: 1访问前n行/后n行
df= pd.DataFrame(
np.arange(30).reshape((6,5))
, columns=['A','B','C','D','E']
);
print(df);
print( "前3行:\n", df.head(3) );
print( "后3行:\n", df.tail(3) );out
A B C D E
0 0 1 2 3 4
1 5 6 7 8 9
21011121314
31516171819
42021222324
52526272829前3行: A B C D E0 0 1 2 3 41 5 6 7 8 921011121314后3行: A B C D E315161718194202122232452526272829读取某行某列/单个元素
# 访问单个元素
print("`df.loc[ 0, \"B\"]`:", df.loc[ 0, "B"])
print("`df['B']`:",df['B'])out
`df.loc[ 0, "B"]`: 1
`df['B']`: 1读取指定区域 & 根据条件读取
# 读取第1行到第3行,第B列到第D列这个区域内的值
print("\n`df.loc[ 1:3, \"B\":\"D\"]`\n", df.loc[ 1:3, "B":"D"])
# 按index和columns进行切片操作 : 读取第2、3行(即 [1+1,3+1),第3、4列(即: [2+1, 4+1) )
print("`df.iloc`:\n", df.iloc)
# df.loc[ df.B > 6] 等价于 df
print("`df.loc[ df.B > 6]`:\n", df.loc[ df.B > 6]) # 读取第B列中大于6的值
# 切片操作 : 选择B,C,D,E四列区域内,B列大于6的值
print("`df.loc[ df.B >6, [\"B\",\"C\",\"D\",\"E\"]]`:\n", df.loc[ df.B > 6, ["B","C","D","E"]])out
`df.loc[ 1:3, "B":"D"]`
B C D
1 6 7 8
2111213
3161718
`df.iloc`:
C D
1 7 8
21213
`df.loc[ df.B > 6]`:
A B C D E
21011121314
31516171819
42021222324
52526272829
`df.loc[ df.B >6, ["B","C","D","E"]]`:
B C D E
211121314
316171819
421222324
526272829排序
关键函数: sort_index / sort_values
[*]sort_index
dataFrameObject.sort_index(
by=None,
axis=0, level=None,
ascending=True,
inplace=False,
kind='quicksort',
na_position='last',
sort_remaining=True
)
[*]by:按照某一列或几列数据进行排序,但是by参数貌似不建议使用
[*]axis:0按照行名排序;1按照列名排序
[*]level:默认None,否则按照给定的level顺序排列---貌似并不是,文档
[*]ascending:默认True升序排列;False降序排列
[*]inplace:默认False,否则排序之后的数据直接替换原来的数据框
[*]kind:排序方法,{‘quicksort’, ‘mergesort’, ‘heapsort’}, default ‘quicksort’。
[*]na_position:缺失值默认排在最后
[*]sort_values
dataFrameObjecy.sort_values(
by,
axis=0,
ascending=True,
inplace=False,
kind='quicksort',
na_position='last'
)
[*]by:字符串或者List;如果axis=0,那么by="列名";如果axis=1,那么by="行名"。
[*]axis:{0 or ‘index’, 1 or ‘columns’}, default 0,默认按照列排序,即纵向排序;如果为1,则是横向排序。
[*]ascending:布尔型,True则升序,如果by=['列名1','列名2'],则该参数可以是,即第一字段升序,第二个降序。
[*]inplace:布尔型,是否用排序后的数据框替换现有的数据框。
[*]kind:排序方法,{‘quicksort’, ‘mergesort’, ‘heapsort’}, default ‘quicksort’。
[*]na_position:{‘first’, ‘last’}, default ‘last’,默认缺失值排在最后面。
试验数据
import numpyas np
import pandas as pd
data = pd.DataFrame(
np.arange(9).reshape(3,3)
, index = ["0","2","1"]
, columns = ["col_a","col_c","col_b"]
)out
data
col_acol_ccol_b
0 0 1 2
2 3 4 5
1 6 7 8按【行索引】排序
[*]按行的索引升序进行排序,默认按行,升序
data.sort_index()
col_acol_ccol_b
0 0 1 2
1 6 7 8
2 3 4 5
[*]按行的索引按降序进行排序
data.sort_index(ascending=False)
col_acol_ccol_b
2 3 4 5
1 6 7 8
0 0 1 2按【列索引】排序
[*]按列升序的索引进行排序
# axis : 0按照行名排序;1按照列名排序
print( data.sort_index(axis=1) )
Out:
col_acol_bcol_c
0 0 2 1
2 3 5 4
1 6 8 7按【指定列名的值】排序
[*]按指定列的值大小顺序进行排序
print(data.sort_values(by="col_a"))
# 等效于: print(data.sort_values(by="col_a", axis=0, ascending=True))out
col_acol_ccol_b
0 0 1 2
2 3 4 5
1 6 7 8
[*]按多列进行排序
print( data.sort_values(by=['col_b','col_a']) )out
col_acol_ccol_b
0 0 1 2
2 3 4 5
1 6 7 8
[*]先按col_b列的值降序,再按col_a列的值升序排序
print( data.sort_values(by=['col_b','col_a'], axis=0,ascending=) )out
col_acol_ccol_b
1 6 7 8
2 3 4 5
0 0 1 2按【行名的值】排序
[*]按【指定行名的值】排序
print( data.sort_values(by='2',axis=1)) # 第 2 +1 行out
col_acol_ccol_b
0 0 1 2
2 3 4 5
1 6 7 8
[*]按 2 行的值 降序,0行的值升序排列
print( data.sort_values(by=['2','0'],axis=1, ascending=))out
col_bcol_ccol_a
0 2 1 0
2 5 4 3
1 8 7 6更多 DataFrame 说明
创建 DataFrame
CASE 从字典创建 DataFrame
[*]从字典创建:字典的键成为列名,值成为列数据。
import pandas as pd
# 通过字典创建 DataFrame
df = pd.DataFrame({'Column1': , 'Column2': })CASE 从二维数组创建
[*]从二维数组创建:外层列表代表行,内层列表代表列。
df = pd.DataFrame(
[, , ],
columns=['Column1', 'Column2', 'Column3']
)CASE 从 NumPy 数组创建 DataFrame
[*]从 NumPy 数组创建:提供一个二维 NumPy 数组。
import numpy as np
# 通过 NumPy 数组创建 DataFrame
df = pd.DataFrame(np.array([, , ]))CASE 从 Series 创建 DataFrame
[*]从 Series 创建 DataFrame:通过 pd.Series() 创建。
# 从 Series 创建 DataFrame
s1 = pd.Series(['Alice', 'Bob', 'Charlie'])
s2 = pd.Series()
s3 = pd.Series(['New York', 'Los Angeles', 'Chicago'])
df = pd.DataFrame({'Name': s1, 'Age': s2, 'City': s3})DataFrame 的属性和方法
[*]DataFrame 对象有许多属性和方法,用于数据操作、索引和处理,例如:shape、columns、index、head()、tail()、info()、describe()、mean()、sum() 等。
# DataFrame 的属性和方法
print(df.shape) # 形状
print(df.columns) # 列名
print(df.index) # 索引
print(df.head()) # 前几行数据,默认是前 5 行
print(df.tail()) # 后几行数据,默认是后 5 行
print(df.info()) # 数据信息
print(df.describe())# 描述统计信息
print(df.mean()) # 求平均值
print(df.sum()) # 求和删除 DataFrame 元素
删除列:使用 drop 方法。
df_dropped = df.drop('Column1', axis=1)删除行:同样使用 drop 方法。
df_dropped = df.drop(0)# 删除索引为 0 的行DataFrame 的统计分析
描述性统计:使用 .describe() 查看数值列的统计摘要。
df.describe()计算统计数据:使用聚合函数如 .sum()、.mean()、.max() 等。
df['Column1'].sum()
df.mean()DataFrame 的索引操作
重置索引:使用 .reset_index()。
df_reset = df.reset_index(drop=True)设置索引:使用 .set_index()。
df_set = df.set_index('Column1')DataFrame 的布尔索引
使用布尔表达式:根据条件过滤 DataFrame。
df > 2]DataFrame 的数据类型
查看数据类型:使用 dtypes 属性。
df.dtypes转换数据类型:使用 astype 方法。
df['Column1'] = df['Column1'].astype('float64')DataFrame 的合并与分割
合并:使用 concat 或 merge 方法。
# 纵向合并
pd.concat(, ignore_index=True)
# 横向合并
pd.merge(df1, df2, on='Column1')分割:使用 pivot、melt 或自定义函数。
# 长格式转宽格式
df_pivot = df.pivot(index='Column1', columns='Column2', values='Column3')
# 宽格式转长格式
df_melt = df.melt(id_vars='Column1', value_vars=['Column2', 'Column3'])索引和切片
[*]DataFrame 支持对行和列进行索引和切片操作。
实例 : 索引和切片
print(df[['Name', 'Age']]) # 提取多列
print(df) # 切片行
print(df.loc[:, 'Name']) # 提取单列
print(df.loc]) # 标签索引提取指定行列
print(df.iloc[:, 1:]) # 位置索引提取指定列
注意事项
[*]DataFrame 是一种灵活的数据结构,可以容纳不同数据类型的列。
[*]列名和行索引可以是字符串、整数等。
[*]DataFrame 可以通过多种方式进行数据选择、过滤、修改和分析。
[*]通过对 DataFrame 的操作,可以进行数据清洗、转换、分析和可视化等工作。
Z FAQ for Pandas
Q: 使用基于 OpenPyXL 的 Pandas 读取 Excel 数据集?
[*]Python = 3.12
[*]Pandas = 2.2.3
内部依赖 openpyxl 组件
[*]OpenPyXL = 3.1.5
#!/usr/bin/python3
## #!/usr/bin/python
# -*- coding: UTF-8 -*-
import pandas as pd;
"""
Excel 文件 转 Parquet 文件
"""
# 从 Excel 文件,读取信号数据集合
def readDataset(excelFilePath):
# 读取 Excel 文件
df = pd.read_excel(excelFilePath, sheet_name=None)
# 获取所有工作表的名称
sheet_names = df.keys()
# 将所有工作表的数据合并为一个 DataFrame
combined_df = pd.concat(df.values(), ignore_index=True)
return combined_df
dataset = readDataset(excelFilePath="../dataset/signals.xlsx");
print(dataset)Y 推荐文献
[*]Pandas
[*]https://pandas.pydata.org/
[*]https://github.com/pandas-dev/pandas
[*] Numpy : 支持多维数组与矩阵运算的线性代数库 - 博客园/千千寰宇
[*] 数据科学与人工智能开源库 - 博客园/千千寰宇
[*] OpenPyXl : Python 的 Excel 库 - 博客园/千千寰宇
X 参考文献
[*]Pandas 教程 - 菜鸟教程
[*]Pandas 数据结构 - Series - 菜鸟教程
[*]Pandas读取某列、某行数据——loc、iloc用法总结 - CSDN
本文作者: 千千寰宇
本文链接: https://www.cnblogs.com/johnnyzen
关于博文:评论和私信会在第一时间回复,或直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
日常交流:大数据与软件开发-QQ交流群: 774386015 【入群二维码】参见左下角。您的支持、鼓励是博主技术写作的重要动力!
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! 谢谢分享,辛苦了
页:
[1]