最近看到一篇文章说Python的计算速度远慢于Julia。我想说,每个这么说的搞科学计算的PhD都应该去计算机系修一下计算机原理,编程语言和算法。这个世界上不存在silver bullet,凡事都有trade off,这是这个自然运作的本质规律。与其把时间浪费在语言的选择上,不如认清编程语言各自的局限性,然后优化算法。
以算Fibonacci数列为例,经典的递归代码如下:
R code:
fib=function(N){
if(N<2){return(N)}
else{return(fib(N-1)+fib(N-2))}
}
Python code:
def f(n):
if n < 2:
return n
else:
return f(n-2) + f(n-1)
当N=40的时候上面的代码就已经算得很慢了(R还凑活,Python非常慢)。使用字节码编译(compiler,cython)后略微改善,仍然不是很乐观。
简单的profiling可以发现速度慢的主要原因是递归重复计算,时间是指数级增长的。对付重复计算的一个简单方法就是缓存计算过的值:
R code:
library(memoise)
fib=function(N){
if(N<2){return(N)}
else{return(fib(N-1)+fib(N-2))}
}
fib=memoise(fib)
Python code:
def cache(function):
caches = {}
def _cache(*args, **kw):
key = 'f' + str(args[0])
if key in caches:
return caches[key]
result = function(*args, **kw)
caches[key] = result
return caches[key]
return _cache
@cache
def f(n):
if n < 2:
return n
else:
return f(n-2) + f(n-1)
注:R直接使用现成的包memoise,Python2使用装饰器 (Python3可以直接调用cache函数)。
缓存过后速度就上升几个数量级。但是由于语言本身的默认递归次数限制,上面的代码并不能计算很大的数。再次优化算法,改递归为迭代,这样时间增长就变成线性的了:
R code:
fib=function(N){
cache_vector=c(0,1)
for(i in seq(2,N)){
cache_vector = c(cache_vector[-1], cache_vector[1] + cache_vector[2])
}
return(cache_vector[-1])
}
Python code:
def f(n):
cache_vector=[0,1]
for i in range(1,n):
cache_vector = [cache_vector[1], cache_vector[0] + cache_vector[1]]
return cache_vector[1]
运算速度又上了一个台阶,且可以随意计算,只受机器限制。
所以要想加速代码,关键是优化算法。养成良好的编程习惯,模块化代码,尽量写小函数,把复杂的事情变简单。这样可以针对某个特定的函数优化算法,迅速提高计算效率。另外精通一门解释型语言和一门编译型语言然后混合编程也是一个不错的方法。
References: