永不下车
作者:阳电 | 分类:科幻 | 字数:193.9万
本书由零点看书签约发行,版权所有侵权必究
第一二一章 算力
但对于ASA,方然观察到的情形,则并非是在软件、而是在行为层面的一种仿生,他隐约察觉,完全活跃起来的人工智能,面对近乎无限的信息海洋会作何感想:
AI的思路恰与人脑类似,是近乎于并行的迅速尝试大量路径,并通过各种判断条件,将绝大多数无效路径终止,进而获得相对可行的路径。
区别只在于,以计算机的强大算力,处理的广度和深度远超人脑。
拘于永不下车的目标和有限的时间精力,事务繁多,方然研究人工智能的时间并不长,但,面对屏幕上的实时监控数据线图,他还是心生感慨,认识到电脑与人脑,人工智能与人类思维之间,并无本质上的区别。
但是不是就能说,人的思维,可以与计算机的运作等同呢……
无意间触及了一个意味深长的问题,潜意识知道这会有多难,方然没多想,他等待着ASA给出结论,却始终没如愿。
关于ASA本身,因为是集思广益般的开发出来,这种规模的软件,出现一些错误再寻常不过,软件运行的几周时间里就崩溃过好几次,即便有数据备份,但远程操控基础科学部的服务器、再登陆计算节点去处理,很繁琐,这种为隐藏自身信息的安全措施大大拖延了项目的实际进度。
不仅如此,就在软件趋于稳定、正常工作后,虽然为AI解决问题的方式而感慨,方然拿到的报告,却没有多大的价值。
7*24的不眠不休,ASA追踪到若干疑似“匿名者”的联邦公民,但针对性却不高。
说白了,这些形迹可疑的目标,有可能是“匿名者”,更有可能是蛰伏在联邦的同类,最大的可能还是系统判别的太粗糙、草木皆兵所致,而调查其他竞争者的行踪,并非方然的目标,现在他可没有精力去调查同类、甚至自相残杀,而只想弄清楚匿名者本人的近况。
那么是软件的大方向有问题吗,回顾报告,方然并不这样认为。
根本的问题,基于ASA的洪水泛滥般探索、逐级筛选验证的调查方式,算力消耗太大。
伯克利大学的网络带宽,在联邦政府新一轮经济刺激政策下,提升显著,看上去并不成为调查的掣肘,但是ASA要完全执行搜索方案,需要十分庞大的算力和存储空间。
方然粗略估计,可能需要独占伯克利的两台大型计算机才勉强够用,这显然不现实,莫说采用非法手段太危险,即便合理合规的购买算力,一台算力PFlops级的大型机每天也要支付上万马克,这还是校内结算价;以自己现有的财力,这样做完全是得不偿失,还要承担暴露行迹的风险。
在信息技术高度发达的世界,算力,某种程度上,比算法更关键。
这样的认识,是方然对IT领域的观察而得出,和计算机课本上的说法大相径庭,但想一想也知道,再怎样精妙的算法、代码、程序,脱离实际运算平台的话也毫无用处;算法可以完善,可以拷贝再制,可以永续工作,然而建立在实打实计算机器之上的算力,却不可能凭空摹想,更不可能复制重用。
算力之于信息技术,正如能源之于传统产业那样,是一个容易被忽视的基础。
因为在天下太平的时代,这种东西,正如毫不起眼的市电和自来水那样,付费即可使用,恍若唾手可得;
等哪一天失去,才知道该珍惜。
ASA受到算力的限制,这种困难,方然暂时没想出什么办法来克服。
匿名账户上虽有大笔资金,事实上,已经超过了百万马克,也不适合用在这种细枝末节的事情上。
变通的策略,按IT领域的粗略常识:
既然“算力*空间*时间”可认为是一个常数,那么,用时间换空间和算力,也是一个办法,说白了就是等待,假以时日,倘若花费几十年、几百年的时间,即便以现有的菲薄算力,ASA或许也能精确定位“匿名者”,提交此人的详细资料。
但这和根本没有解决方案有什么区别呢。
几十年,几百年那样久,到那时,连人类文明都未必还存在,调查还有什么意义。
客观条件的限制,可不是只凭聪明才智就能突破,深秋的伯克利,坐在寝室电脑前的年轻人皱起了眉头。
方然没有在苦恼,而是,他在寻找其他的策略。
人力有所不逮,人工智能又有算力的限制,看起来,调查“匿名者”踪迹就成了一个近似不可能的任务。
但如果逆向思维,考虑调查过、或正在调查“匿名者”的同类,采取的手段大同小异,而ASA又通过机器学习,对人类的搜索习惯了如指掌(除非自己是一个异类,方然自嘲的想,还真是呢),那么,即便面对近乎无限的数据而无从下手,他至少可以用ASA去搜索调查活动留下的痕迹。
简单直白的说法,就是螳螂捕蝉,黄雀在后。
事实证明,对ASA这种程度的人工智能,改变用途并不困难。
到西历1472年冬季,又一个新年快要到来的时候,完全自主的开展工作,方然已完成了ASA的改进测试,出于安全考虑,他不敢把意图如此明显的工作外包,只能自己一个人投入宝贵的时间。
部署完毕,ASA2.0的上线测试,看着屏幕上迅速变幻的数字,方然又陷入了沉思。
搜寻“匿名者”,究竟有多重要,真值得如此大费周章么。
……
ASA2.0上线后,收获,来的比预想中更快。
经过初步筛查,系统提交的分析报告里,给出若干个最近一段时间被频繁匿名访问的联邦互联网络数据节点,这似乎有点怪,毕竟网络节点就是为了被访问而存在的,但人工智能根据规则进行判断,认为这些节点的数据流量相当可疑,于是进一步深挖。
都是些什么样的节点呢:
看名称,方然就知道,他自己是绝对找不到。
和预想中的隐秘所在不一样,这些节点,从联邦医疗信息系统到联邦植物学会的网站,林林总总,都是在黑客眼中几乎不设防的存在,每天的访问量也不小。