从单体到群落——不可靠消息的有效逻辑落成

目前的主流人工智能似乎使人造智慧体成为可能,它能够在某些领域很‘轻松’地超越人类专家。这是否意味着机器智慧体真的已经不远了?

先回顾一下现在的主流做法。

现在的所谓机器在了解一个新事物的时候,首先需要的是一堆(至少是能够表征这个事物)的数据。就说简单的阿拉伯数字‘1’,在有监督的情况下,也是需要过百的数据迭代个几十次。如果是无监督或者是对抗生成那就更可怕了。

获得数据后,数据分析人员需要将数据规范化,这个是为了提高效率。现在也可以代码自动完成了,时间上也是需要的。这里大家会忽略一个问题,就是优化的目的性,如果没有人在定义,那么所有的优化都不具备参考性。

在完成了数据的准备后,数据将进入一定的分类算法,这个是目前基本值得坑定的——一切只是分类,然后对不同的分类做出应有的回应。这些分类有个局限性,这也是人类理想思维的局限性——一切都是基于当前可获得定义认知的前提下,做出的逻辑演算。

最优的规则总是不会在第一次分类完就是最优的,所以后续还有优化调参。这和人的纠错很像,目的的概念目前也是由人类定义。

为了补充数据不充分,现在还出现了根据已有历史数据类似批量生成补充数据的做法,但科学的基础就是实践。生成的数据尽管很逼真,某些时候几乎和现实吻合,但那并不是实际的映射。

上面的过程还有一个问题,无论数据量是如何充足,这似乎都是一个英雄在孤军奋战。一个拥有所有场景资料的学者,然后根据自己的经验不断地推敲真实世界的场景,问题是他的数据都是书本上记载而非来自实践——有些中国专家的感觉。

现实的世界不总如是,数据的杂乱,事物的不可完全描述,已有数据的不透明等问题直接导致现有AI方法的过高成本。更可怕的是,目前的方法忽略了策略本身对适用场景的影响。

现实的世界似乎还需现实来还原。

俗话说,一将功成万骨枯。那么返回现实的路便是,认清每个终端的价值。牺牲终端的有限时间,获取一个相对可信的现实描述。这是在无中心的世界里达成一个可靠的中心共识——这个中心不再是具体的终端,而是一个可靠的结论。

比如,终端A记录了一个名叫柳程的人,他是江苏某个州的,此外,终端A还对泰州比较敏感;终端B记录了江苏省有扬州,刚巧他记录了一个来自泰州的人。

从现有的AI方法几乎不会给出很肯定的答案。但是通过无中心对等协作会出现这样一个过程。

某个测试者提问,谁能告诉我柳程来自哪里?A回答:他来自江苏某个州;B接收到江苏某个州开始推断,扬州?A响应:不是;B停顿一下,XX来自泰州。A果断:柳程来自泰州。

AI是什么,或智慧是什么?我想说,分类和选择。即便是方法也只是若干分类选择的集合。分类是认知,选择是目的。认识了世界,然后向目的前进,这便是智慧存在的一个过程。

群落似乎总比个体更加复杂

目前的方法(单体英雄)虽然资源成本很高,但确保了数据的可靠性。返回到群落数据的不可靠,演算的局部数据不充分等问题便直接暴露无遗。

如何判断群落中的个体是否可靠;如何确保每个个体愿意付出自己的知识;如何最优协同群落间个体的知识库构成有效知识链,从而完成无中心的知识中心系统(无中心是指在知识生成结构中没有绝对中心机器,知识中心系统是指以知识共识为中心的系统)。

效率低下的区块链已经部分解决了可靠性问题,只是过于严苛了。受终端数据的有限性影响,极大似然估计是其较好的推理方法。每个特定终端都会有其偏好,这个和使用者是相关的。这也使得每个终端都相对可以得出一些有效的结论。

那么让我假设这样一个体系。由终端完成基本相关偏好的推论,在紧邻网络中进行数据交换群体演算验证个单体推论可靠性,并选出紧邻网络中优胜作为紧邻网络中特定偏好演算专注者。在实际问题被提出时,首先由紧邻网络给出紧邻最优解,并宣扬到广域网络。广域网络有共同偏好的远程网络可以选择加入竞争。竞争的最终结论将被应用于实际问题。

上述只是初步解决了数据可靠和多端协作,个体意愿将参考区块链奖励机制进行改良,即参与解决奖励机制,数据参与者享有结论优先使用权,解决者对结论用户使用补充权。

而最终的结论——知识,将是一份协议,每个使用协议的都会为协议建造者付费。

这样的网络构成了所谓的群落,网络中的终端便是一个个个体。通过群体纠错确保不可靠的个体消息最终在群落中形成有效逻辑——知识,这样便完成了个人英雄主义的AI方法向群体牺牲的群落AI方法的初步转变。

posted @ 2020-07-13 14:23  冬临  阅读(139)  评论(0编辑  收藏  举报