龙空技术网

敲出最优的Python代码4个绝招

读芯术 181

前言:

当前朋友们对“python 绝技”大概比较关切,同学们都需要知道一些“python 绝技”的相关内容。那么小编在网上汇集了一些有关“python 绝技””的相关知识,希望小伙伴们能喜欢,兄弟们快快来学习一下吧!

全文共3510字,预计学习时长7分钟

作为数据科学家,敲出最优的Python代码非常非常重要。别无他法,杂乱低效的代码笔记本会消耗你的时间,也会浪费大量项目资金。经验丰富的数据科学家和专业人士都很清楚,这样是没办法和客户合作的。

本文将列出4个可行的Python代码优化方法,以便大家日后应用到自己的数据科学项目中。

什么是最优化?

首先来看一个直观的例子,然后定义什么是最优化。

问题是这样的:

假设有一个数组,其中每个指数代表一个城市,指数的值代表该城市和下一个城市之间的距离。已知两个指数,求这两个指数间的距离。简单来讲,就是求任意两个指数间的总值。

指数

0

1

2

3

4

5

城市

A

B

C

D

E

F

距离

15(A-B)

20(B-C)

6(C-D)

10(D-E)

5(E-F)

-

大家肯定首先会想到这里可以用for循环。但是如果一共有十几万个城市,每秒会收到五万多个查询需求呢?这种情况下,for循环还是这个问题的最优解吗?

不是了吧。此时就该挥动优化代码的仙女棒了。

代码最优化,简单来讲,就是在保证结果正确的前提下尽可能减少执行任务的运算量。

来算算for循环完成任务所需的运算量吧:

首先计算出上面数组中指数1和3代表的城市间的距离。

指数1和3代表城市之间的距离=(0+20+6+10)=36=>3次算术运算。

如果数组大小为100000,需求数量为50000呢?

数组总大小为100000。

需求总数为50000。

假设两指数间的平均差异为1000。

完成该任务的算术运算总量近似值为50000*1000=50000000

这个数量非常庞大。如果数据和查询量不断增加,for循环将会花费更多的时间。如果想减少计算量,同时又想得到正确的结果,应该采取什么优化方法呢?

这里,使用前缀数组来计算距离是一种可能的优化方案。它是这样运算的:

大家能理解这里的做法吗?这样只需一次计算就得到了同样的城市距离!这一方法最棒的地方就是,不管指数间的差距是1还是100000,只需一次计算就能算出任意两个指数间的距离。是不是很神奇?

我们用10万的数组和5万查询量创建了一个样本数据集。在下面的在线编程窗口中比较两种方法所需的时间。

注意:数据集总查询量为5万,你可以改变execute_queries参数,执行不超过5万的任一查询数量,看看每种方法完成任务所花费的时间。

最优化不仅能节省时间,大大加快完成速度,还能节省计算能力!

这些要怎么应用于数据科学项目呢?大家可能已经注意到了,很多时候需要对大量数据点进行相同查询,尤其是数据预处理阶段。

所以,在编程中运用最优化方法,从而尽可能快速有效地完成任务至关重要。以下就来分享几个提升优化Python代码的方法。

1. Pandas.apply() – 特征工程瑰宝

Pandas 库已经非常优化了,但是大部分人都没有发挥它的最大作用。想想它一般会用于数据科学项目中的哪些地方。

一般首先能想到的就是特征工程,即用已有特征创造新特征。其中最高效的方法之一就是Pandas.apply(),即Pandas中的apply函数。

在Pandas.apply()中,可以传递用户定义功能并将其应用到Pandas Series的所有数据点中。这个函数是Pandas库最好的扩展功能之一,它能根据所需条件分隔数据。之后便能将其有效应用到数据处理任务中。

试着用推特的情感分析数据来计算每条推文的字数吧。可以使用dataframe iterrows函数、NumPy程序库和apply函数等方法,再在下面的在线编程窗口中进行比较。

数据集可在此处下载:;utm_medium=4-methods-optimize-python-code-data-science

apply比iterrows函数快多了。它的性能和NumPy类似,但是却更加灵活。

阅读更多文档:;utm_medium=4-methods-optimize-python-code-data-science

2. Pandas.DataFrame.loc – Python数据操作绝妙技巧

所有和数据处理打交道的数据科学家(差不多所有人了!)都应该学会这个方法。

很多时候,数据科学家需要根据一些条件更新数据集中某列的某些值。Pandas.DataFrame.loc就是此类问题最优的解决方法。

试试用它来解决下面这个问题吧。

数据集可在此处下载:

# importing libraries

import pandas as pd

data = pd.read_csv('school.csv')

data.head()

检查“City”变量的值计算:

现在,假设只需要排名前五位的城市,其他城市替换为“Others”,试着做一下:

# save the top cities in a list

top_cities = ['Brooklyn','Bronx','Manhattan','Jamaica','Long Island City']

# use loc to update the target

data.loc[(data.City.isin(top_cities) == False),'City'] = 'Others'

# city value counts

data.City.value_counts()

看到更新这些值有多简单了吗?完成此类数据操作任务最好的方法就是它了。

3. Python函数向量化

另一种解决缓慢循环的方法就是将函数向量化。这意味着新建函数会应用于输入列表,并返回结果数组。在Python中使用向量化能至少迭代两次,从而加速计算。

事实上,这样不仅能加速代码运算,还能让代码更加简洁清晰。

4. Python多重处理

多重处理能使系统同时支持一个以上的处理器。

此处将数据处理分成多个任务,让它们各自独立运行。处理庞大的数据集时,即使是apply函数也显得有些迟缓。

所以,来看看Python中的多重处理库怎么大显神通吧。

先随机创建一百万个点,然后计算每个点的除数。比较apply函数和多重处理完成这一任务的性能:

# importing required libraries

import pandas as pd

import math

import multiprocessing as mp

from random import randint

# function to calculate the number of divisors

def countDivisors(n) :

count = 0

for i in range(1, (int)(math.sqrt(n)) + 1) :

if (n % i == 0) :

if (n / i == i) :

count = count + 1

else :

count = count + 2

return count

# create random data

random_data = [randint(10,1000) for i in range(1,1000001)]

data = pd.DataFrame({'Number' : random_data })

data.shape

%%time

data['Number_of_divisor'] = data.Number.apply(countDivisors)

%%time

pool = mp.Pool(processes = (mp.cpu_count() - 1))

answer = pool.map(countDivisors,random_data)

pool.close()

pool.join()

这个问题中,多重处理生成的输出比apply函数快了13倍。它的性能可能会随着硬件系统不同而有所变化,但是必定会提升性能。

留言 点赞 关注

我们一起分享AI学习与发展的干货

如需转载,请后台留言,遵守转载规范

标签: #python 绝技