等效替代,放在工程实践领域,是一种很常见的设计与实现思路。
放在“强人工智能”,则需要切实的考虑清楚,人类,或者说人脑,其思维与认知行为究竟是一种怎样的过程。
“人会犯错误,计算机不会”,这并非是it专家的调侃,而是严肃的事实。
迄今为止,人类创造出的一切计算机,小到功能孱弱的早期单片机,大到算力zflops级别的超级计算机,能够实现的功能,眼花缭乱,无以尽述,但归拢所有这一切功能,不难发现,其本质上完全是人类意志的延续。
这种延续,并不是说人类能轻轻松松的,做到计算机做出的一切。
而是原则上讲,从单片机、到巨型机所做的任何事,原则上讲,一旦脱离运行时间的限制,人类同样也能够完成。
不仅如此,这段话的真实含义,要比字面上呈现的更深刻:
要完成当今时代一切计算机所做的事,人类,但凡有足够长的时间,根本无需动用自身的思维、认知能力,只需有一副听指挥的身体,加上除“……”之外一无所有的机器指令。
一旦意识到这点,便可以明白,为何当今时代的计算机,根本上讲,完全无法进行创造性、探索性的科学研究:
根据指令,摆弄一些数据,就能领悟客观规律,那简直就是在开玩笑。
要完成计算机所做的任何事,人类,根本无需动用智慧,这种原则性的判断,为研发组指出了一个关键点。
人类的智慧,与计算机的算力,如果说有什么本质上的差异,就是“出错”。
换成严谨的说法,就是基于细胞架构的模拟式人脑,能够引入一些出乎预料、无法预知的新变量。
而这一特性,在传统的电子计算机体系里,一概视为“干扰”而务必杜绝,否则便难以得到期望的准确运算结果,其突出成就,便是寻常人认识中的“计算机永不出错”。
撇开极小概率的宇宙射线、本底瑕疵等因素,的确,人类制造出的计算机,可以认为具有100%的可靠性,如果最终计算结果与事实不符,绝对是程序的设计、或者初始条件有问题,最终一定会追溯到人的身上。
计算一百次加法,计算机不会错,人也不会。
但是计算一百亿次加法,计算机不出错很寻常,人呢,根本就不可能一个不拉的全做对。
“人脑迟早会出错”的现象,长期以来,在计算机的永不出错面前自惭形秽,自愧不如,但反映到另一个层面,正是这种模拟式、并行式生化系统的“出错”,才让探索性、创造性的科学研究成为可能。
从已知,尝试推断未知,人类的一切科研活动,本质上都未脱出这样的形式。
而这正是计算机,至少到目前为止的计算机,始终做不到的。
计算机能做的工作,譬如说,计算,总归是一项人类交托的任务,是先由人来判断该问题是否有解,如果有,具体的算法是什么,然后将数据与算法交给计算机的逻辑电路去处理,所得结果也要由人去理解,阐述。
即便像aiasg这样的系统,能自主生成程序,实质上,也不过是将一些类似的已有成果排列组合,解决那些早已被人解决过的问题。
路,还是人走出来,计算机只不过是更快的再走一遍,两遍,三遍;
就算再走无数遍,仍没有任何创新。
取而代之的崭新思路,“敛散算法”,则是根据一定的初始条件,在算法的每一步,尝试尽可能多的展开分支,引入额外的发散量,当然这种做法,很快就会让计算量暴增,所以还需要进行“收敛”,通过同样包含随机性的判据,迅速“砍”掉大量无意义的分支。
表面上看,这一先发散、后收敛的做法,与向系统中引入随机变量,并无本质区别,实质上也可以粗糙的这样认为。
区别则在于,算法步骤中引入的变量,并非随机数,而是来自于初始状态库的一切既有知识。
那么就是在穷举吗,似乎是,只不过为了应对完全穷举的计算量暴涨,而必须在每一步进行判断、预计与猜测,将无意义的分支完全消除。
具体到某一个分支,其是否有意义,判断起来也并不容易,此外还要引入额外的随机性,将某些“看起来”无意义的分支,移入另一个线程继续追踪。
这一做法,能避免收敛策略错杀那些切实可行、却不符合既有知识体系的分支。
“敛散策略”的核心思想,是建立在传统计算机的运行之上,此外再加入“关联扰动”与“随机性”,利用这种方式,尝试让ai具备创造性、探索性思维。
这种体系,一开始在验证可行性时,需要的资源量并不太大。
但可想而知,倘若投入到实际运行中,这样的系统必然耗费巨大,哪怕只用来解决一些粗浅的问题,都需要比传统计算机更多的算力,当然,倘若其真能具备“强人工智能”的特质,巨大的投入也是值得的。