【技术积累】算法中的基本概念【一】

什么是算法?

算法是一组解决问题的步骤或指令。它包含了输入、输出、处理和控制流程等组成部分,用于处理数据、完成任务和解决问题的过程。算法通常用于计算机程序中,但它也可以用于各种领域的问题和应用中。

算法需要满足以下要求:正确性、可读性、效率、鲁棒性、可维护性等。

算法的分类包括线性算法、分治算法、贪心算法、动态规划算法、回溯算法等。每种算法的特点不同,适用于不同类型的问题。算法的选择和设计取决于问题本身的特征及其他限制条件。

算法在计算机科学和计算机编程中是非常重要的,它在解决复杂问题和进行科学研究中起着重要作用。在实际应用中,算法的选择和优化可以大大提高程序的性能和效率。

算法的本质特征是什么?

算法的本质特征包括以下几点:

  1. 有限性:算法必须能够在有限的时间内完成。它需要在一定的时间范围内,通过有限的计算步骤来得出问题的解答。
  2. 明确性:算法必须是清晰、明确的。算法应该描述问题的解决过程,并指导程序员完成实际程序编写。
  3. 输入:算法必须具有输入数据的概念。它需要明确定义输入参数的类型、范围和有效值,以便正确的执行程序。
  4. 输出:算法必须能够产生输出结果。输出应该与输入相关,以及满足对问题的正确描述。
  5. 可以实现:算法必须能够通过计算来实现。它需要在计算机程序中正确的实现,并可以在计算机上执行。
  6. 无歧义性:算法的所有操作步骤都应该具有明确的意义并且要精确的定义下来,以消除歧义。

算法的本质特征使得它们可以用于解决不同类型的问题,并且这些解决方案都具有通用性和普适性。算法对于计算机科学和计算机编程都是非常重要的,因为它们为我们提供了一种非常有效的工具来解决现实世界中的问题。

算法的分类

算法的分类可以根据其解决问题的方法、应用领域、时间和空间复杂度等方面进行划分。以下是常见的算法分类:

1.按处理方式分类:

(1)递推算法:递推算法是一种依靠前面的计算结果来确定后面的值的算法。

(2)分治算法:分治算法是通过将问题划分为许多小部分来求解大问题的算法。

(3)贪心算法:贪心算法是通过每个步骤尽可能地优化来最终求解问题的算法。

(4)动态规划算法:动态规划算法是一种通过建立较小的子问题来解决大问题的方法。

(5)回溯算法:回溯算法是一种逐步构建解决方案的算法,经过每一步之后都会检查结果是否满足条件。

2.按应用领域分类:

(1)图论算法:用于解决图论问题的算法,例如最短路径、最小生成树等。

(2)字符串算法:用于字符串处理和匹配的算法,例如字符串查找、排序、匹配等。

(3)数学算法:用于数学问题的算法,例如素数测试、最大公因数、最小公倍数等。

(4)计算几何算法:用于几何问题的算法,例如寻找几何物体的位置和形状等。

3.按时间和空间复杂度分类:

(1)常量时间算法:算法的执行时间不会随着数据量的增加而增加。

(2)线性时间算法:算法的执行时间随数据量的增加而线性增加。

(3)对数时间算法:算法的执行时间随数据量的增加而对数增加。

(4)指数时间算法:算法的执行时间随数据量的增加而指数级增加。

除了以上列举的分类方法,还有其他的分类方式,例如近似算法、并行算法、随机化算法等。不同的算法分类方法可以很好地帮助我们理解和学习算法。

算法的复杂度分析方法有哪些?

算法的复杂度分析方法主要有以下几种:

  1. 时间复杂度:时间复杂度是算法运行时间与问题规模之间的关系。一般使用大O符号表示算法的时间复杂度,例如O(1)、O(n)、O(nlogn)等,表示算法运行时间随问题规模的增加而增加的速率。

  2. 空间复杂度:空间复杂度是指算法执行中所需内存空间的大小。一般也使用大O符号表示,例如O(1)、O(n)等。

  3. 最坏情况复杂度:最坏情况复杂度是指算法在最坏情况下的时间或空间复杂度,即算法在所有可能输入中最耗时或最耗空间的情况下的复杂度。

  4. 平均情况复杂度:平均情况复杂度是指算法在所有可能输入的平均情况下的时间或空间复杂度。一般情况下难以确定所有可能输入的分布,因此平均情况复杂度常常不太实用。

  5. 最好情况复杂度:最好情况复杂度是指算法在最好情况下的时间或空间复杂度,即算法在所有可能输入中最快速或最省空间的情况下的复杂度。最好情况复杂度一般不常用,通常只用于特殊情况下的算法。

  6. 算法复杂度的渐进性:算法复杂度的渐进性是指算法在输入规模无限增大时复杂度表现的趋势。通常情况下只考虑算法复杂度的渐进性,并用大O符号标记算法的渐进复杂度。

为什么要进行算法复杂度分析

算法复杂度分析是衡量算法效率的重要手段,具有以下几个原因和意义:

  1. 预估算法的运行时间:对于一个好的算法来说,运行时间应该随着输入规模的增加而增加的不太快,否则算法效率低下,难以承受大规模数据的处理。通过算法复杂度分析,可以对一个算法的运行时间进行预估,从而知道算法在处理规模较大数据时,是否会超时或耗费过多时间。
  2. 选择最优算法:对于一个特定的问题,可能有多种算法可以解决。通过算法复杂度分析,可以比较不同算法的效率,选择最优算法,从而更高效地解决问题。
  3. 看到算法的瓶颈:算法复杂度分析可以帮助开发者看到算法的瓶颈所在,即哪些操作是最耗时、最消耗空间的,从而可以优化算法,提升运行效率。
  4. 分析算法的可扩展性:当处理规模小的数据时,许多算法都能较快地完成任务。但在处理大规模数据时,算法的效率可能会急剧降低。通过算法复杂度分析,可以分析算法的可扩展性,了解算法在处理大规模数据时的最大处理能力。

综上所述,算法复杂度分析是对算法进行评估和优化的一个重要手段,有助于优化算法的效率和性能,提高程序整体的运行效率和处理能力。

什么是时间复杂度?如何计算?

时间复杂度是衡量算法时间效率的度量标准,通常用大O符号(O)表示。它描述了算法的运行时间与问题规模之间的关系。当问题规模变大时,时间复杂度主要考虑的是算法执行次数的增长率。比如,当问题规模增加k倍时,若算法的执行次数也增加了k倍,则该算法的时间复杂度为O(k)。

时间复杂度的计算主要从算法的基本操作出发,通过估算算法的执行次数,得出最差情况下的大O估计。基本操作是指算法中执行次数最多,最能反映运行时间的操作,通常是算术运算、比较运算、赋值、数组下标访问等。

以下是一个简单的选择排序算法的伪代码,用来举例说明时间复杂度的计算方法:

SelectionSort(A, n)       // A是待排序的数组,n是数组大小
    for i = 0 to n-2     // 执行n-1次
        k = i           // 执行n-1次
        for j = i+1 to n-1  // 执行(n-1)+(n-2)+...+2+1次
            if A[j] < A[k]  // 执行最多(n-1)+(n-2)+...+2+1次
                k = j       // 执行最多(n-1)+(n-2)+...+2+1次
        if k != i           // 执行n-1次
            Swap(A[i], A[k])    // 执行0到n-2次
  1. 根据伪代码中的循环和条件语句,我们可以计算出每个基本操作在最差情况下执行的次数,从而得出算法的时间复杂度:
  2. 外层循环执行n-1次。基本操作为赋值语句,执行次数为n-1次。
  3. 内层循环执行(n-1)*n/2次。基本操作为比较和赋值语句,执行次数最多为(n-1)*n/2次。
  4. 条件语句执行的次数等于内层循环执行的次数。
  5. Swap函数执行的次数最多为n-1次。
  6. 因此,最差情况下该算法的时间复杂度为O(n^2)。

从这个例子可以看出,时间复杂度是对算法执行次数的一种估计,它与具体的机器、编程语言和编译器无关。只要问题规模(即问题的输入数据)足够大,时间复杂度就可以很好地反映出算法的效率。

什么是空间复杂度?如何计算?

空间复杂度是衡量算法空间效率的度量标准,通常也用大O符号(O)表示。它描述了算法所需的额外空间(即除了输入数据占用的空间之外的空间)与问题规模之间的关系。当问题规模变大时,空间复杂度主要考虑的是算法所需的额外空间与问题规模的增长率。比如,当问题规模增加k倍时,若算法所需的额外空间也增加了k倍,则该算法的空间复杂度为O(k)。

空间复杂度的计算主要从算法所需的额外空间出发,通过估算算法所需的最大额外空间,得出最差情况下的大O估计。计算时通常会考虑算法中使用的变量、数组和递归调用所需的栈空间等。

以下是一个简单的归并排序算法的伪代码,用来举例说明空间复杂度的计算方法:

MergeSort(A, L, R)     // A是待排序的数组,L是左边界,R是右边界
    if L < R
        mid = (L + R) / 2
        MergeSort(A, L, mid)    // 递归调用左边子数组
        MergeSort(A, mid+1, R)  // 递归调用右边子数组
        Merge(A, L, mid, R)     // 合并左右两个有序子数组

Merge(A, L, mid, R)     // 合并左右两个有序子数组
    n1 = mid - L + 1
    n2 = R - mid
    left = new Array[n1]    // 分配额外空间
    right = new Array[n2]   // 分配额外空间
    for i = 0 to n1-1       // 复制左边子数组
        left[i] = A[L+i]
    for j = 0 to n2-1       // 复制右边子数组
        right[j] = A[mid+1+j]
    i = 0
    j = 0
    k = L
    while i < n1 and j < n2
        if left[i] <= right[j]
            A[k] = left[i]
            i = i+1
        else
            A[k] = right[j]
            j = j+1
        k = k+1
    while i < n1            // 复制剩余元素
        A[k] = left[i]
        i = i+1
        k = k+1
    while j < n2            // 复制剩余元素
        A[k] = right[j]
        j = j+1
        k = k+1
    delete left            // 释放额外空间
    delete right           // 释放额外空间

根据伪代码中的数组、变量和递归调用语句,我们可以计算出算法在最差情况下所需的最大额外空间,从而得出算法的空间复杂度:

  1. 归并函数中使用了两个大小为n/2的临时数组left和right,因此最大额外空间为O(n)。
  2. MergeSort函数的递归调用栈深度为O(log n),因为每次递归调用都会把输入数据的规模缩小一半,因此最大额外空间也为O(log n)。
  3. 因此,最差情况下该算法的空间复杂度为O(n),取两者的较大值。

从这个例子可以看出,空间复杂度是对算法所需的额外空间的一种估计,它与具体的机器、编程语言和编译器有关。只要问题规模不断增大,空间复杂度就可以很好地反映出算法的效率。

递推算法是什么

递推算法(Recurrence Relation)是一种数学算法,通过利用已知的问题规模推导出未知问题规模的解。递推算法最常用于计算斐波那契数列、二项式系数、卷积等问题。

递推算法是一种自底向上的计算方法。在计算递推公式的过程中,我们需要预先计算出所有比当前问题规模小的所有子问题的解,并存储在一个数据结构中(例如数组、矩阵等)。然后利用公式和已经求解出来的子问题解,计算当前问题规模的解。

以下是一个递推算法的伪代码示例,用于计算斐波那契数列:

function fibonacci(n):
    # 初始化
    memo = [0, 1]
    
    # 递推计算
    for i in range(2, n+1):
        memo.append(memo[i-1] + memo[i-2])
    
    return memo[n]

在上述示例中,我们定义了一个fibonacci函数,用于计算斐波那契数列的第n项。在实现过程中,我们使用一个列表(memo)存储所有小于n的斐波那契数列项的值,然后按照递推公式利用已知的子问题解计算得到第n项的值。

递推算法通过自底向上的计算方式,将原问题分解成小规模的子问题,并对已知的子问题解进行简单组合,计算得到原问题的解。由于递推算法不需要进行回溯,因此可以获得更好的时间和空间效率。

分治算法是什么

分治算法是一种高效的算法设计策略,其核心思想是将一个问题分解为若干个相互独立且同样结构的子问题,并递归求解这些子问题。这些子问题求解的结果最终被合并起来,得到原问题的解。 分治算法应用广泛,包括排序、查找、逆向思维等领域,是解决计算机科学中常见问题的常用方法之一。其特点是简单易懂、实现方便且性能表现优异。

以下是一个分治算法的伪代码示例,用于归并排序:

function mergeSort(arr):
    # 边界条件:当数组长度<=1时无需继续划分
    if len(arr) <= 1:
        return arr
    
    # 将数组分成左右两部分
    mid = len(arr) // 2
    left = arr[:mid]
    right = arr[mid:]
    
    # 递归求解左右两部分并合并结果
    return merge(mergeSort(left), mergeSort(right))
    
function merge(left, right):
    result = []
    i, j = 0, 0
    
    # 合并左右两部分
    while i < len(left) and j < len(right):
        if left[i] < right[j]:
            result.append(left[i])
            i += 1
        else:
            result.append(right[j])
            j += 1
    
    # 处理剩余元素
    result.extend(left[i:])
    result.extend(right[j:])
    
    return result

在上述示例中,我们定义了一个mergeSort函数,用于归并排序算法的实现。在每次递归调用中,我们将输入数组分成左右两部分,并分别递归求解。当左右两部分求解完毕后,我们合并它们得到结果。

分治算法通过将问题分解为相互独立的子问题并递归求解它们,从而大大降低了问题的复杂度。同时,它也有助于实现并行化和利用多核计算机和计算集群。

贪心算法是什么

贪心算法是一种常见的算法思想,主要应用于优化问题中,特别是在计算机科学和运筹学领域中。贪心算法的核心思想是每一步都选择当前最好的选项,从而得到全局最优解。

贪心算法通常包括以下步骤:

  1. 确定问题的最优子结构:即在问题中寻找那些可以自行解决的子问题。

  2. 开始构建解决方案:从问题的初始状态开始,按照某种规则选择一个最优解,并将其添加到中间方案中。该步骤不断重复,直到找到全局最优解。

  3. 判断可行性:为了确保得到一个全局最优解,需要在每个构建解决方案的步骤中,检查得到的局部最优解是否是可行的。如果当前的局部最优解无法满足问题的限制条件,则需要放弃此局部最优解,重新开始构建方案。

贪心算法的优点是输入数据越大,运行时间越短;同时,由于贪心算法的设计都是局部的最优决策,不是全局的最优决策,因此可能不会得到最优解,但通常会得到接近最优解的解决方案。

贪心算法适用于一些特殊的算法场景,如图论中的最小生成树算法、哈夫曼编码等。同时,在一些工业设计、物流计划及经济学领域中也有应用。

贪心算法需要注意的问题是不能保证一定得到全局最优解,有可能会导致次优解的出现。因此,在具体应用中,需要充分了解问题的性质,深入分析问题才能设计出较好的贪心算法。

 

例如,有一个任务调度问题,有n个任务需要在k个处理器上执行,每个任务需要的执行时间不同。将任务分配给处理器,使得所有任务的完成时间最短(即最小化所有处理器上任务的完成时间)。使用贪心算法解决该问题的伪代码如下:

  1. 将所有任务按执行时间从大到小排序。
  2. 对于每个任务,将其分配给处理器中当前执行时间最短的那个处理器,并将该处理器的执行时间加上该任务的执行时间。
  3. 最后的最小完成时间即为所有处理器中执行时间最长的那个时间。

伪代码实现:

sort(tasks)  //将任务按执行时间从大到小排序
processors = [0]*k  //初始化处理器执行时间为0
for task in tasks:  //遍历每个任务
    min_time = min(processors)  //找到处理器中执行时间最短的那个处理器
    processors[processors.index(min_time)] += task  //将该任务分配给该处理器,并将执行时间加上该任务的执行时间
min_completion_time = max(processors)  //所有处理器中最大的执行时间即为最小完成时间
return min_completion_time  //返回最小完成时间

动态规划算法是什么

动态规划(Dynamic Programming)是一种求解最优化问题的方法,常用于解决具有重叠子问题和最优子结构性质的问题。

动态规划的核心思想是将问题分解为若干个子问题,并从简单的子问题开始构建问题的解。在求解子问题的过程中,通过将子问题的解存储在表格中,避免不必要的重复计算。最终,利用存储的子问题解构建出原问题的解。

以下是一个简单的动态规划伪代码示例,用于计算斐波那契数列中的第n项:

function fib(n):
    if n < 0:
        return None
    if n == 0 or n == 1:
        return n
    
    # 初始化值
    memo = [0, 1]
    
    # 计算斐波那契数列中的第n项
    for i in range(2, n+1):
        memo.append(memo[i-1] + memo[i-2])
    
    return memo[n]

在上述示例中,我们使用了一个列表(memo)来存储斐波那契数列中每一项的值。在求解第n项时,我们通过利用存储在memo中的前两个值,依次计算得到第n项的值。

在上述示例中,我们可以看到动态规划通过分治、递归、和缓存的策略来优化时间复杂度。

回溯算法是什么

回溯算法是一种经典的搜索算法,常用于解决组合优化问题和排列组合问题等。回溯算法通过枚举所有可能的解、逐步试探和回溯来求解问题,因此也被称为试探法或莫斯科大学方法。

回溯算法通常通过递归的方式实现。在实现过程中,我们首先定义一个状态变量,用于表示当前搜索状态。在每次递归的调用中,我们根据当前状态变量的值,枚举下一步可能的选择,依次进行试探。在进行试探时,我们需要判断当前状态变量是否满足问题的要求。如果满足,我们就继续递归寻找下一步的解决方案。否则,我们回溯到上一个状态,重新选择下一步的路径。

以下是一个回溯算法的伪代码示例,用于求解数独问题:

def backtrack(board, row, col):
    # 边界条件:搜索完整个数独
    if row == 9:
        return True
    
    # 计算下一个格子的位置
    next_row = row if col < 8 else row+1
    next_col = col+1 if col < 8 else 0
    
    # 如果当前格子不为空格,递归求解下一个格子
    if board[row][col] != '.':
        return backtrack(board, next_row, next_col)
    
    # 枚举当前格子的可能取值
    for i in range(1, 10):
        if isValid(board, row, col, str(i)):
            board[row][col] = str(i)
            if backtrack(board, next_row, next_col):
                return True
            board[row][col] = '.'

    return False

在上述示例中,我们定义了一个回溯函数backtrack,用于递归求解数独问题。在递归的每一步,我们根据当前格子的值和下一个格子的位置,计算出所有可能的取值,并依次进行试探。如果当前取值符合数独的规则,我们就继续递归搜索下一个格子。否则,我们回溯到上一个状态,并选择下一个可能的取值。

回溯算法的核心思想在于枚举所有的解空间,并不断试探和回溯,直到找到解或者穷尽所有可能的选择。由于它的复杂度很高,因此需要结合剪枝等优化技巧来提高效率。

什么是图论算法

图论算法是研究图结构和应用的数学分支,用于描述现实世界中的一些问题,例如交通网络、通信网络、社交网络等。图论算法主要通过定义图中节点之间的关系,来研究节点之间的连接方式和网络结构。

图论算法包括许多不同的算法,例如最短路径算法、最小生成树算法、最大流算法、二分图匹配算法、搜索算法等。每种算法都有自己的特点和适用范围,在不同的应用场景中发挥着不同的作用。

以下是一个图论算法的伪代码示例,用于搜索图中的最短路径:

function shortestPath(graph, start, end):
    # 初始化距离和前驱节点
    dist = { start: 0 }
    pre = {}
    
    # 将所有节点加入优先队列中
    queue = PriorityQueue()
    for v in graph:
        queue.put(v)
        if v != start:
            dist[v] = float('inf')
    
    # 优先队列中不为空时,不断寻找最短路径
    while not queue.empty():
        u = queue.get()
        if u == end:
            break
        
        # 对于每个相邻节点,计算到当前节点的距离
        for v in graph[u]:
            alt = dist[u] + graph[u][v]
            if alt < dist[v]:
                dist[v] = alt
                pre[v] = u
                queue.put(v)
    
    # 回溯查找最短路径
    path = []
    while end != start:
        path.append(end)
        end = pre[end]
    path.append(start)
    path.reverse()
    
    return path

在上述示例中,我们定义了一个shortestPath函数,用于搜索图中的最短路径。在实现过程中,我们使用了一个优先队列来维护待处理的节点,并使用字典来存储每个节点到起点的最短距离和前驱节点。通过不断更新距离和前驱节点的值,我们最终得到了起点到终点的最短路径。

图论算法通过定义节点之间的关系,来研究图的结构和特性,并开发了许多高效的算法来解决不同的图论问题。在现代科技中,图论算法需要广泛使用于从社会网络到大规模网络问题的复杂问题。

什么是字符串算法

字符串算法是计算机科学中研究字符串匹配、替换、压缩、解压、编辑距离、最长公共子序列等问题的算法。字符串算法在文本编辑、自然语言处理、图像处理、生物信息学等领域中常被使用。

字符串算法包括匹配算法、压缩算法、编辑距离算法、最长公共子序列算法等。其中匹配算法是最为常见的一种,用于在一个字符串中查找另一个字符串出现的位置。

以下是一个字符串匹配算法的伪代码示例,用于查找字符串中的子串:

function indexOf(text, pattern):
    # 计算next数组
    next = computeNext(pattern)
    
    # 根据next数组逐次遍历text和pattern
    i, j = 0, 0
    while i < len(text) and j < len(pattern):
        if j == -1 or text[i] == pattern[j]:
            i += 1
            j += 1
        else:
            j = next[j]  # 根据next数组跳转

    # 查找结果
    if j == len(pattern):
        return i - j
    else:
        return -1

def computeNext(pattern):
    next = [-1] * (len(pattern) + 1)
    i, j = 0, -1
    while i < len(pattern):
        if j == -1 or pattern[i] == pattern[j]:
            i += 1
            j += 1
            next[i] = j
        else:
            j = next[j]
    return next

在上述示例中,我们定义了一个indexOf函数,用于在text中查找pattern的位置。在实现过程中,我们根据pattern计算出next数组,并使用双指针逐个遍历text和pattern,根据next数组跳转指针位置。如果最终能够找到pattern,则返回在text中的位置;否则返回-1。

字符串算法通过机智且高效地处理字符串,可以在数学、自然语言和图像处理等领域中发挥作用。在工业实践中,字符串算法被广泛应用于计算机视觉、自然语言处理、大数据分析等。

什么是数学算法

数学算法由数学和计算机科学交叉而来,解决包括线性代数、离散数学和数值分析在内的问题。数学算法可以用于数据分析、图像处理、人工智能、科学计算等多个领域。

数学算法包括线性代数算法、矩阵计算、最优化算法、数值方法、加密算法等。其中,矩阵计算是数学算法的核心,广泛应用于人工智能、计算机视觉等领域,例如使用矩阵计算进行图像处理和深度学习等。

以下是一个矩阵计算算法的伪代码示例,用于计算矩阵的乘积:

function matrixMultiplication(a, b):
    # 初始化结果矩阵
    result = [[0 for _ in range(len(b[0]))] for _ in range(len(a))]
    
    # 对于每个元素,计算其值并填入结果矩阵中
    for i in range(len(a)):
        for j in range(len(b[0])):
            for k in range(len(b)):
                result[i][j] += a[i][k] * b[k][j]
    
    return result

在上述示例中,我们定义了一个matrixMultiplication函数,用于计算矩阵的乘积。在实现过程中,我们使用三重循环遍历矩阵a和矩阵b中的每一个元素,然后计算它们的乘积并填入结果矩阵中。

数学算法通过严谨和高效的数学方法,解决现实世界中复杂的问题。在现代科技中,数学算法被广泛应用于数据分析、图像处理、人工智能、科学计算等领域,在对现实世界进行建模和计算中发挥着重要的作用。

什么是计算几何算法

计算几何算法是指利用计算机来解决几何问题的一类算法。它是一种兼具数学理论和计算机科学的交叉学科,可以应用于计算机图形学、CAD等领域。

常见的计算几何算法包括凸包算法、线段交点、点是否在多边形内、点到直线距离等。

举一个例子,我们来看点到线段的距离算法伪代码:

function distancePointToLineSegment(point, segment):
    # 将点p和线段上的两个点a、b相连,求垂足c
    ac = point - segment.start
    ab = segment.end - segment.start
    t = dot(ac, ab) / dot(ab, ab)
    if t ≤ 0:
        c = segment.start
    elif t ≥ 1:
        c = segment.end
    else:
        c = segment.start + t * ab
    # 返回点p到垂足c的距离
    return distance(point, c)

其中,`point`表示点的坐标,`segment`表示线段的两个端点坐标,`dot`表示两个向量的点积,`distance`表示两点之间的距离。该算法首先计算点到线段端点的向量`ac`和线段的向量`ab`的点积,再将其除以`ab`的点积,得到垂足到起点之间的比例`t`。如果`t`小于等于0,则垂足在`segment.start`处,如果`t`大于等于1,则垂足在`segment.end`处,否则垂足在线段上,具体位置为`segment.start + t * ab`。最后返回点`p`到垂足`c`的距离即可。

热门相关:我的治愈系游戏   火辣辣的美发店   重生当学神,又又又考第一了!   朕是红颜祸水   父传子传