大家好,我是小小明,本人非常擅长解决各类复杂数据处理的逻辑,包括各类结构化与非结构化数据互转,字符串解析匹配等等。

至今已经帮助很多数据从业者解决工作中的实际问题,如果你在数据处理上遇到什么困难,欢迎与我交流。

上次我分享了一道基础题N种解题思路,其中一种读取数据的过程涉及到列表分列,详见:https://blog.csdn.net/as604049322/article/details/112760894

这次我将分享三个实际案例,让大家看看列表分列的一些实际应用。

首先,我们先导包并设置Pandas显示参数:

import pandas as pd
pd.set_option("display.max_colwidth", 100)

正则提取并分列

需求:

image-20210118154114166

读取数据:

df = pd.read_excel("正则提取与分列.xlsm", usecols=[0])
df.head()

结果:

补回原因
0核实断网时间;20190128至20190217,20190223至20190311,20190407至20190622号无上网记录,协商补回3个月21天
1核实断网时间;2019.06.20到2019.07.22无上网记录,断网1个月3天
2核实断网时间从20190130到20190322,20190414到20190719无上网记录,断网5个月7天
3核实断网时间:20190312到20190802号无上网记录,断网4个月20天
4核实断网时间:2019.03.29到2019.06.29无上网记录,协商补回3个月

实现代码:

result = df.copy()
result["tmp"] = result["补回原因"].str.findall("([\d.]+[到至][\d.]+)")
result = result.agg({"补回原因": lambda x: x, "tmp": pd.Series}).droplevel(0, axis=1)
result.head()

结果:

补回原因012
0核实断网时间;20190128至20190217,20190223至20190311,20190407至20190622号无上网记录,协商补回3个月21天20190128至2019021720190223至2019031120190407至20190622
1核实断网时间;2019.06.20到2019.07.22无上网记录,断网1个月3天2019.06.20到2019.07.22NaNNaN
2核实断网时间从20190130到20190322,20190414到20190719无上网记录,断网5个月7天20190130到2019032220190414到20190719NaN
3核实断网时间:20190312到20190802号无上网记录,断网4个月20天20190312到20190802NaNNaN
4核实断网时间:2019.03.29到2019.06.29无上网记录,协商补回3个月2019.03.29到2019.06.29NaNNaN

分步解析:

df["tmp"] = df["补回原因"].str.findall("([\d.]+[到至][\d.]+)")
df.head(5)

结果:

补回原因tmp
0核实断网时间;20190128至20190217,20190223至20190311,20190407至20190622号无上网记录,协商补回3个月21天[20190128至20190217, 20190223至20190311, 20190407至20190622]
1核实断网时间;2019.06.20到2019.07.22无上网记录,断网1个月3天[2019.06.20到2019.07.22]
2核实断网时间从20190130到20190322,20190414到20190719无上网记录,断网5个月7天[20190130到20190322, 20190414到20190719]
3核实断网时间:20190312到20190802号无上网记录,断网4个月20天[20190312到20190802]
4核实断网时间:2019.03.29到2019.06.29无上网记录,协商补回3个月[2019.03.29到2019.06.29]

这步使用正则提取出每个日期字符串,[\d.]+表示连续的数字或.用于匹配时间字符串,两个时间之间的连接字符可能是到或至。

然后我使用agg函数直接对Datafream分列:

df.agg({"补回原因": lambda x: x, "tmp": pd.Series})

结果:

image-20210118155438163

由于列索引多了一级,所以需要删除:

df.agg({"补回原因": lambda x: x, "tmp": pd.Series}).droplevel(0, axis=1).head()

结果:

补回原因012
0核实断网时间;20190128至20190217,20190223至20190311,20190407至20190622号无上网记录,协商补回3个月21天20190128至2019021720190223至2019031120190407至20190622
1核实断网时间;2019.06.20到2019.07.22无上网记录,断网1个月3天2019.06.20到2019.07.22NaNNaN
2核实断网时间从20190130到20190322,20190414到20190719无上网记录,断网5个月7天20190130到2019032220190414到20190719NaN
3核实断网时间:20190312到20190802号无上网记录,断网4个月20天20190312到20190802NaNNaN
4核实断网时间:2019.03.29到2019.06.29无上网记录,协商补回3个月2019.03.29到2019.06.29NaNNaN

droplevel(0, axis=1)用于删除多级索引指定的级别,axis=0可以删除行索引,axis=1则可以删除列索引,第一参数表示删除级别0。当然如果列索引存在名称时还可以传入名称字符串,可参考官网文档:

df = pd.DataFrame([
...     [1, 2, 3, 4],
...     [5, 6, 7, 8],
...     [9, 10, 11, 12]
... ]).set_index([0, 1]).rename_axis(['a', 'b'])
>>> df.columns = pd.MultiIndex.from_tuples([
...    ('c', 'e'), ('d', 'f')
... ], names=['level_1', 'level_2'])
>>> df
level_1   c   d
level_2   e   f
a b
1 2      3   4
5 6      7   8
9 10    11  12
>>> df.droplevel('a')
level_1   c   d
level_2   e   f
b
2        3   4
6        7   8
10      11  12
>>> df.droplevel('level2', axis=1)
level_1   c   d
a b
1 2      3   4
5 6      7   8
9 10    11  12

分组聚合并分列

需求:

image-20210118160441548

首先,读取数据:

df = pd.read_excel("分组聚合并分列.xlsx")
df

结果:

image-20210118160611471

实现代码:

(
    df.groupby("姓名")["得分"]
    .apply(list)
    .apply(pd.Series)
    .fillna("")
    .rename(columns=lambda x: f"得分{x+1}")
    .reset_index()
    .astype({"得分1":"int8"})
)

结果:

image-20210118165745784

分布解析:

首先将每个姓名的得分聚合成列表,并最终返回一个Series:

df.groupby("姓名")["得分"].apply(list)

结果:

姓名
孙四娘          [7, 28]
看见星光    [88, 28, 23]
看见月光    [69, 10, 87]
老祝          [51, 29]
马青梅             [99]
Name: 得分, dtype: object

当然,这步的标准写法应该是使用Series的内部方法:

df.groupby("姓名")["得分"].apply(lambda x:x.to_list())

使用Series内部方法的性能比python列表方法转换快一些。

作为一个Series就可以通过将每个列表元素转换为Series,从而最终返回一个分列的Datafream:

_.apply(pd.Series)

结果:

image-20210118164252627

注意:_在ipython表示上一个输出返回的结果,jupyter还额外支持_num表示num编号单元格的输出。

_.fillna("")

结果:

image-20210118164617583

fillna表示填充缺失值,传入""表示将缺失值填充为空字符串。

下面重命名一下列名:

_.rename(columns=lambda x: f"得分{x+1}")

结果:

image-20210118164825168

然后还原索引:

_.reset_index()

结果:

image-20210118165208842

发现结果中有一列,不是整数,所以还原成整数(总分100分,8位足够存储):

_.astype({"得分1":"int8"})

结果:

image-20210118165745784

解析json字符串并字典分列

需求:

image-20210118170657013

首先读取数据:

df = pd.read_excel("字典分列.xlsx")
df.head()

结果:

image-20210118170730220

处理代码:

result = df.features.apply(eval).apply(pd.Series)
result["counts"] = df.counts
result

结果:

储存条件品牌推荐理由品种食用方式是否进口特色服务是否有机counts
0常温NaNNaNNaNNaNNaNNaNNaN33
1冷藏NaNNaNNaNNaNNaNNaNNaN24
2常温禾煜NaNNaNNaNNaNNaNNaN22
3常温妙洁NaNNaNNaNNaNNaNNaN16
4冷冻NaNNaNNaNNaNNaNNaNNaN14
2083常温乐事够薄够脆NaNNaNNaNNaNNaN1
2084冷藏NaN生态种植黄瓜NaNNaNNaN有机1
2085冷藏NaN腥味较淡鲫鱼NaNNaN免费宰杀NaN1
2086冷藏NaN甜脆可口佛手瓜NaNNaNNaNNaN1
2087冷藏叮咚日日鲜全程可追溯猪小排NaNNaNNaNNaN1

2088 rows × 9 columns

浅析:

df.features.apply(eval)用于将features列的每个json字符串解析为字典对象。

**.apply(pd.Series)则可以将每个字典对象转换成Series,则可以将该字典扩展到多列,并将原始的Series转换为Datafream。

result["counts"] = df.counts则将原始数据的counts列添加到结果列中。

总结

经过三个案例的练习,大家是否已经对Pandas的分列操作比较熟悉呢?

欢迎大家在下方评论区留言你的看法。


本文转载:CSDN博客