算法的共同性质
我在想,算法那么多,是否存在一种共同的性质。
比如贪心算法,就是整体中找出一个部分,这个部分的最优解将组成整体的最优解。
比如1 到 100的和,我们抽取1到10为一部分,他的和也是最终和的一部分。不知道这算不是贪心算法?
找1.。。100中能被3整除的数,也符合这个。
找1.。。100中有多少组和等于100的数。这个就不能随便分割了。
如果随机抽取两个数来判断,这样会产生非常庞大的组合。这是最低效的算法。
第二种方法,可以通过代数式100-a=b这个方法,顺序抽取一个数,判断另一个数是否在集合中。
第三种方法,通过数学公式(100-1)/2取整。
可以看出:对数据假设的不同有很大的不同。如果是排序的,并且是自然数递增的,也就是数和数之间都有相同的关系,也就是相差1,把这些因素都考虑进去的算法明显比只是认为数据是随机排列的要更加高效率。
第二个,整体分割部分并不是什么时候都有效的。从上面第二种算法中可以看出:当算法的一个参数需要搜索整体的时候,就无法进行普通的分割。如果把数据看作一条线段,有些算法一次只需要线段的一小节,有些算法需要整个线段,有些算法要多倍线段。
算法的共同性质:
一、认识整体和部分的关系,是算法的一个最重要的环节。
二、对数据的假设的运用,越多越好。
三,对于细节,要注意可以用的基本运算指令,不同指令效率差很多