前言:
此刻各位老铁们对“最短路算法的复杂度”大体比较着重,看官们都需要剖析一些“最短路算法的复杂度”的相关内容。那么小编在网上搜集了一些对于“最短路算法的复杂度””的相关知识,希望兄弟们能喜欢,各位老铁们快快来学习一下吧!今天是算法数据结构专题的第34篇文章,我们来继续聊聊最短路算法。
在上一篇文章当中我们讲解了bellman-ford算法和spfa算法,其中spfa算法是我个人比较常用的算法,比赛当中几乎没有用过其他的最短路算法。但是spfa也是有缺点的,我们之前说过它的复杂度是O(kE),这里的E是边的数量。但有的时候边的数量很多,E最多能够达到V^2,这会导致超时,所以我们会更换其他的算法。这里说的其他的算法就是Dijkstra。
算法思想
在上一篇文章当中我们曾经说过Bellman-ford算法本质上其实是动态规划算法,我们的状态就是每个点的最短距离,策略就是可行的边,由于一共最多要松弛V-1次,所以整体的算法复杂度很高。当我们用队列维护可以松弛的点之后,就将复杂度降到了O(kE),也就是spfa算法。
Dijkstra算法和Bellman-ford算法虽然都是最短路算法,但是核心的逻辑并不相同。Dijkstra算法的底层逻辑是贪心,也可以理解成贪心算法在图论当中的使用。
其实Dijstra算法和Bellman-ford算法类似,也是一个松弛的过程。即一开始的时候除了源点s之外,其他的点的距离都设置成无穷大,我们需要遍历这张图对这些距离进行松弛。所谓的松弛也就是要将这些距离变小。假设我们已经求到了两个点u和v的距离,我们用dis[u]表示u到s的距离,dis[v]表示v的距离。
假设我们有dis[u] < dis[v],也就是说u离s更近,那么我们接下来要用一个新的点去搜索松弛的可能,u和v哪一个更有可能获得更好的结果呢?当然是u,所以我们选择u去进行新的松弛,这也就是贪心算法的体现。如果这一层理解了,算法的整个原理也就差不多了。
我们来整理一下思路来看下完整的算法流程:
我们用一个数组dis记录源点s到其他点的最短距离,起始时dis[s] = 0,其他值设为无穷大我们从未访问过的点当中选择距离最小的点u,将它标记为已访问遍历u所有可以连通的点v,如果dis[v] < dis[u] + l[u] [v],那么更新dis[v]重复上述2,3两个步骤,直到所有可以访问的点都已经访问过
怎么样,其实核心步骤只有两步,应该很好理解吧?我找到了一张不错的动图,大家可以根据上面的流程对照一下动图加深一下理解。
我们根据原理不难写出代码:
INF = sys.maxsizeedges = [[]] # 邻接表存储边dis = [] # 记录s到其他点的距离visited = {} # 记录访问过的点while True: mini = INF u = 0 flag = False # 遍历所有未访问过点当中距离最小的 for i in range(V): if i not in visited and dis[i] < mini: mini, u = dis[i], i flag = True # 如果没有未访问的点,则退出 if not flag: break visited[u] = True for v, l in edges[u]: dis[v] = min(dis[v], dis[u] + l)
虽然我们已经知道算法没有反例了,但是还是可以思考一下。主要的点在于我们每次都选择未访问的点进行松弛,有没有可能我们松弛了一个已经访问的点,由于它已经被松弛过了,导致后面没法拿来松弛其他的点呢?
其实是不可能的,因为我们每次选择的都是距离最小的未访问过的点。假设当前的点是u,我们找到了一个已经访问过的点v,是不可能存在dis[u] + l < dis[v]的,因为dis[v]必然要小于dis[u],v才有可能先于u访问。但是这有一个前提,就是每条边的长度不能是负数。
算法优化
和Bellman-ford算法一样,Dijkstra算法最大的问题同样是复杂度。我们每次选择一个点进行松弛,选择的时候需要遍历一遍所有的点,显然这是非常耗时的。复杂度应该是O(V^2+E),这里的E是边的数量,Dijkstra中每个点只会松弛一次,也就意味着每条边最多遍历一次。
我们观察一下会发现,外面这层循环也就算了,里面这层循环很没有必要,我们只是找了一个最值而已。完全可以使用数据结构来代替循环查询,维护最值的场景我们也已经非常熟悉了,当然是使用优先队列。
使用优先队列之后这段代码会变得非常简单,同样也不超过十行,为了方便同学们调试,我把连带优先队列实现的代码一起贴上来。
import heapqimport sys# 优先队列class PriorityQueue: def __init__(self): self._queue = [] self._index = 0 def push(self, item, priority): # 传入两个参数,一个是存放元素的数组,另一个是要存储的元素,这里是一个元组。 # 由于heap内部默认由小到大排,所以对priority取负数 heapq.heappush(self._queue, (-priority, self._index, item)) self._index += 1 def pop(self): return heapq.heappop(self._queue)[-1] def empty(self): return len(self._queue) == 0que = PriorityQueue()INF = sys.maxsizeedges = [[], [[2, 7], [3, 9], [6, 14]], [[1, 7], [3, 10], [4, 15]], [[1, 9], [2, 10], [6, 2], [4, 11]], [[3, 11], [5, 6]], [[4, 6], [6, 9]], [[3, 2], [5, 9]]] # 邻接表存储边dis = [sys.maxsize for _ in range(8)] # 记录s到其他点的距离s = 1que.push(s, 0)dis[s] = 0visited = {}while not que.empty(): u = que.pop() if u in visited: continue visited[u] = True for v, l in edges[u]: if v not in visited and dis[u] + l < dis[v]: dis[v] = dis[u] + l que.push(v, dis[v])print(dis)
这里用visited来判断是否之前访问过的主要目的是为了防止负环的产生,这样程序会陷入死循环,如果确定程序不存在负边的话,其实可以没必要判断。因为先出队列的一定更优,不会存在之后还被更新的情况。如果想不明白这点加上判断也没有关系。
我们最后分析一下复杂度,每个点最多进入队列一次,加上优先队列的调整耗时,整体的复杂度是
O(VlogV + E),比之前V^2 + E的复杂度要提速了很多,非常适合边很多,点相对较少的图。有时候spfa卡时间了,我们会选择Dijkstra。
今天的文章到这里就结束了,如果喜欢本文的话,请来一波素质三连,给我一点支持吧(关注、转发、点赞)。
本文始发于公众号:TechFlow,求个关注
标签: #最短路算法的复杂度