第五三四章 效率
推荐阅读:深空彼岸、明克街13号、夜的命名术、最强战神、全职艺术家、龙王殿、重生之都市仙尊、财运天降、花娇、好想住你隔壁
一秒记住【笔趣阁 www.bqg24.net】,精彩小说无弹窗免费阅读!
不论从哪一点出发,“强人工智能”,都必须尽早应用到实践中去。
找到莱斯利*兰伯特,方然毫不掩饰的直接说出构想,对这一计划,兰伯特原则上认为“可以一试”,但并未给出任何确切的承诺。
“是的,阿达民先生,用‘强人工智能’替代现有的AI,的确可以提升一些效率。
这一点,不知您是否理解,即便通用型人工智能与强人工智能,都是基于现有信息技术水平的计算机加软件之体系,彼此之间,没有明显的技术差距,后者的处理效率也会大大优于前者,当然,能领先到什么程度,还说不准。”
“是因为两者的软件架构,一个基于FSCIM,一个则基于‘自主思维’吗。”
“正是如此,或者说,在算力消耗相同的情况下,‘强AI’比现有AI快得多,主要原因并不是前者的效率极高;
而是基于FSCIM体系的传统人工智能,在解决实际问题时,效率太低。”
莱斯利*兰伯特的说法,对熟悉FSCIM体系的方然而言,一听就懂,他早知道这体系的弊端。
FSCIM,联邦标准信息测度码,诞生在旧时代的一套“计算机系统通用编码标准”,原则上是站在计算机、而非人类的立场上,描述客观世界,进而从这一体系出发,可以用传统AI的诸多算法,实现诸多功能。
这一体系,早在诞生之初,就引起IT业界的浓厚兴趣,但也有很多业内人士不以为然。
反对者的一大武器,便是FSCIM体系的低效,这种低效,并不是体系架构本身多么拙劣,而是由于FSCIM的开发初衷:
描绘计算机眼中的世界,进而,为计算机提供一种内禀的通用“语言”。
这样的体系,显而易见,并无人类对客观世界的既有认识,以其为基础开发的程序,一般而言,也几乎无法借助人类已有的科学技术成果,去加快处理的速度。
这是什么意思呢,譬如说,物流网络的运力规划问题,用AI解决的一般思路,是挂载深度学习网络,并根据问题的性质给定大量边界条件,AI上线运行后,很快就能根据初始条件与运行数据,逐步优化策略,给出较好的解决方案。
旧时代的IT领域中,人工智能,往往就是应用在这样的场合。
这种“自动化、智能化”,实质上仍然是一种低级重复劳动的替代,是用人类智慧,分割、定义问题,给出算法,然后利用计算机的速度,迅速做完原本用人力需要很长时间才能完成的工作。
但这种应用方式,显然,对复杂问题的解决能力,不会太理想。
在若干年前,应用于某一领域、解决某一类问题的AI,几乎只能用于解决该类问题。
不仅如此,一旦问题的边界条件发生变化,甚至只是略微改变,AI的效率都有可能大幅滑坡,进而必须有人来干预,修改边界条件,替换算法,总之,借助人类的智慧才能应对多变的具体情形。
即便这些多变的情形,根本上讲,并未改变问题的性质,理应在计算机的能力范围内,传统AI体系也几乎总是一筹莫展。
这种情形,在FSCIM体系出现后,才逐渐被改变。
基于FSCIM体系的计算机、AI体系,一言蔽之,对问题的“理解程度”,远比之前那些全凭速度吃饭、对自己正在解决的问题本质一无所知的AI深得多。
说计算机“理解”问题的本质,很多业界人士,只会一笑置之。
这实际上反映出人类的傲慢,方然的观点则相对中立,他并不认为,一台运行FSCIM架构之软件的计算机,会如同人类那样认识、分析、理解问题。
否则,FSCIM体系反而相当于失败,这一体系最初就是为计算机所准备,故,FSCIM体系赋予计算机的能力,是独特的新视角,区别于人根据自身思维特性而做的探索与认识,计算机同样也有自己的一套认识、分析问题之构架。
不论这一架构,是否真的存在,当今时代的“全产机”、通用型AI,确乎可以应付一些以前并无法用AI独力完成的任务。
灵活性与运行效率,这一对矛盾体现在AI架构上,基于FSCIM架构的人工智能效率相对较差,在解决具体问题时,所需算力会比传统的人工智能高出一个约数量级,换来的却是更强大的自主性。
而“强人工智能”,解决问题的思路则不一样,更像是对人类思维过程的模仿。
虽然这种模仿,并非如旧时代的AI方案那样,原版照抄人类大脑的运作过程,而是放手让计算机用“敛散算法”自行探索,一旦形成某问题的解决方案,效率,就可以接近传统AI的水平。
相对基于FSCIM的通用型AI,采用强人工智能,显然可以极大的节约算力。
想法很好,找到莱斯利*兰伯特说明来意,负责人的表情却有一点为难,兰伯特先告诉阿达民,目前“强人工智能三号机”的研发还算顺利,在近乎无限的资金、资源支持下,乐观的讲,“盘古”甚至有望在年底完成第一阶段测试。
随后,他又向阿达民转告,NEP_791等研发机构的数学家们,对“盘古”、“混沌”这些系统的看法:
“站在工程技术的角度,应该说,‘强人工智能’目前的表现,出乎意料。
但是数学家们,对这一系列新产物,还有些疑虑,毕竟与传统的人工智能不同,‘强AI’的内部运行状态,原则上也无法得知,这里面的确潜藏着一定的风险。”
“风险,什么风险?
担心人工智能有一天意识觉醒,人类自取灭亡吗。”
“倒也没那么夸张,而是……”
电影大片,是吗,莱斯利*兰伯特一开始想到的,也是那些花里胡哨、效果爆炸的旧时代科幻作品,但身为IT领域的资深专家,他现在已基本认同了阿达民的观点。
直白的讲,兰伯特也一致认为,“混沌”、“盘古”这些系统并不会反噬人类。
不论从哪一点出发,“强人工智能”,都必须尽早应用到实践中去。
找到莱斯利*兰伯特,方然毫不掩饰的直接说出构想,对这一计划,兰伯特原则上认为“可以一试”,但并未给出任何确切的承诺。
“是的,阿达民先生,用‘强人工智能’替代现有的AI,的确可以提升一些效率。
这一点,不知您是否理解,即便通用型人工智能与强人工智能,都是基于现有信息技术水平的计算机加软件之体系,彼此之间,没有明显的技术差距,后者的处理效率也会大大优于前者,当然,能领先到什么程度,还说不准。”
“是因为两者的软件架构,一个基于FSCIM,一个则基于‘自主思维’吗。”
“正是如此,或者说,在算力消耗相同的情况下,‘强AI’比现有AI快得多,主要原因并不是前者的效率极高;
而是基于FSCIM体系的传统人工智能,在解决实际问题时,效率太低。”
莱斯利*兰伯特的说法,对熟悉FSCIM体系的方然而言,一听就懂,他早知道这体系的弊端。
FSCIM,联邦标准信息测度码,诞生在旧时代的一套“计算机系统通用编码标准”,原则上是站在计算机、而非人类的立场上,描述客观世界,进而从这一体系出发,可以用传统AI的诸多算法,实现诸多功能。
这一体系,早在诞生之初,就引起IT业界的浓厚兴趣,但也有很多业内人士不以为然。
反对者的一大武器,便是FSCIM体系的低效,这种低效,并不是体系架构本身多么拙劣,而是由于FSCIM的开发初衷:
描绘计算机眼中的世界,进而,为计算机提供一种内禀的通用“语言”。
这样的体系,显而易见,并无人类对客观世界的既有认识,以其为基础开发的程序,一般而言,也几乎无法借助人类已有的科学技术成果,去加快处理的速度。
这是什么意思呢,譬如说,物流网络的运力规划问题,用AI解决的一般思路,是挂载深度学习网络,并根据问题的性质给定大量边界条件,AI上线运行后,很快就能根据初始条件与运行数据,逐步优化策略,给出较好的解决方案。
旧时代的IT领域中,人工智能,往往就是应用在这样的场合。
这种“自动化、智能化”,实质上仍然是一种低级重复劳动的替代,是用人类智慧,分割、定义问题,给出算法,然后利用计算机的速度,迅速做完原本用人力需要很长时间才能完成的工作。
但这种应用方式,显然,对复杂问题的解决能力,不会太理想。
在若干年前,应用于某一领域、解决某一类问题的AI,几乎只能用于解决该类问题。
不仅如此,一旦问题的边界条件发生变化,甚至只是略微改变,AI的效率都有可能大幅滑坡,进而必须有人来干预,修改边界条件,替换算法,总之,借助人类的智慧才能应对多变的具体情形。
即便这些多变的情形,根本上讲,并未改变问题的性质,理应在计算机的能力范围内,传统AI体系也几乎总是一筹莫展。
这种情形,在FSCIM体系出现后,才逐渐被改变。
基于FSCIM体系的计算机、AI体系,一言蔽之,对问题的“理解程度”,远比之前那些全凭速度吃饭、对自己正在解决的问题本质一无所知的AI深得多。
说计算机“理解”问题的本质,很多业界人士,只会一笑置之。
这实际上反映出人类的傲慢,方然的观点则相对中立,他并不认为,一台运行FSCIM架构之软件的计算机,会如同人类那样认识、分析、理解问题。
否则,FSCIM体系反而相当于失败,这一体系最初就是为计算机所准备,故,FSCIM体系赋予计算机的能力,是独特的新视角,区别于人根据自身思维特性而做的探索与认识,计算机同样也有自己的一套认识、分析问题之构架。
不论这一架构,是否真的存在,当今时代的“全产机”、通用型AI,确乎可以应付一些以前并无法用AI独力完成的任务。
灵活性与运行效率,这一对矛盾体现在AI架构上,基于FSCIM架构的人工智能效率相对较差,在解决具体问题时,所需算力会比传统的人工智能高出一个约数量级,换来的却是更强大的自主性。
而“强人工智能”,解决问题的思路则不一样,更像是对人类思维过程的模仿。
虽然这种模仿,并非如旧时代的AI方案那样,原版照抄人类大脑的运作过程,而是放手让计算机用“敛散算法”自行探索,一旦形成某问题的解决方案,效率,就可以接近传统AI的水平。
相对基于FSCIM的通用型AI,采用强人工智能,显然可以极大的节约算力。
想法很好,找到莱斯利*兰伯特说明来意,负责人的表情却有一点为难,兰伯特先告诉阿达民,目前“强人工智能三号机”的研发还算顺利,在近乎无限的资金、资源支持下,乐观的讲,“盘古”甚至有望在年底完成第一阶段测试。
随后,他又向阿达民转告,NEP_791等研发机构的数学家们,对“盘古”、“混沌”这些系统的看法:
“站在工程技术的角度,应该说,‘强人工智能’目前的表现,出乎意料。
但是数学家们,对这一系列新产物,还有些疑虑,毕竟与传统的人工智能不同,‘强AI’的内部运行状态,原则上也无法得知,这里面的确潜藏着一定的风险。”
“风险,什么风险?
担心人工智能有一天意识觉醒,人类自取灭亡吗。”
“倒也没那么夸张,而是……”
电影大片,是吗,莱斯利*兰伯特一开始想到的,也是那些花里胡哨、效果爆炸的旧时代科幻作品,但身为IT领域的资深专家,他现在已基本认同了阿达民的观点。
直白的讲,兰伯特也一致认为,“混沌”、“盘古”这些系统并不会反噬人类。