河豚小说网 > 网游小说 > 塔防战略 > 243 月球计划

243 月球计划

    c国本次突破的是ai技术。

    ……也不好意思说突破,因为原本是分离的游戏源代码,现在只能说:在保证安全的前提下,会用了。

    针对游戏源码的研究其实是各个项目中最早的,可由于编码规则不同、数学基础代差、二进制和四相语言之间部分的不可互译性,一直到章鱼拿出了“古代通道”软件,土球这边的数学基础也随着深空工大的开放有所进步,才反向开发出较为实用的转译软件。

    直到怪兽危机开始接近四个月,相关机构才真正看到了无乱码的ai源码。

    《星球战略》的ai大体上分作四个类型。

    其中有一个高级ai判断被保存在服务器端,找不到代码。

    剩下的三类分别是自动管理ai、基础人物ai和怪兽ai。

    首先排除怪兽ai,该ai逻辑非常原始,原始到相关专业的毕业生都能读懂其ai逻辑,意味着哪怕没有外星游戏的由头,土球也会在近期开发出类似的ai,甚至说不定哪个地方已经有基本框架了。

    第二个被排除的是自动管理ai,这东西有点类似土球今天的工程控制软件,只不过自动化和全面程度远胜如今。

    自动管理ai的结构与工控软件的区别在于,它只有一个逻辑核心,具体的管理,需要相关设备提供管理接口,该接口会包含设备本身的数据库及工作逻辑。

    一定要用似乎也没问题,问题是没有配套设备,相关的设备数据库及工作逻辑标准,涉及到另一项对游戏的逆向开发工程,远远没达到实际应用的水平。

    剩下的只有基础人物ai。

    它非常神奇。

    与管理ai一样,基础人物ai也只有一个逻辑核心,它需要连接其他的数据库,才能生成一个个人物。

    相关数据库,包含人生记忆、知识、空白三类,前两者都可以由多个小数据库构成。

    跟现在号称人工智能的大数据好像没什么区别啊。

    区别要从实验中体现。

    针对原版基础人物ai,做了大量的数据实验。

    完全一致的底层ai,使用完全相同的a型人生记忆、b型知识库,在众多实验中,总计诞生了五十六种不同的人格!其中的七种,甚至连普通人都能在十几分钟里分辨出差距。

    进一步深挖,认知到逻辑核心通过不同的记忆数据调用顺序,与少量的函数应用,在空白数据库里写入了不同的东西,进而形成了完全不同的人格,空白数据库也变成了人格数据库。

    到这里,ai已经变成了丰满的“角色”,不过鲜明的人格,反而不利于初级应用,大家更想知道的是,ai如何以尽量少的算力,来解决自己遭遇的问题。

    该路线的实验项目更多,比如有个大众熟悉的“镜子测试”。

    研究院从某大学机器人研究中心,调来了两足步行机器人,把已经做完准备工作的ai装进去,提高权限劫持现有控制系统。

    土球现有的机器人和人类之间,除了两足行走,可以说没有任何相关性。可哪怕是这样的条件,ai也很快意识到了镜子里是自身的镜像,并尝试整理外观。

    同一个ai很快被装在另一台更小,且变成用轮子的机器人身上,结果又一次通过了镜子测试。

    反过来解析其简易数据库,发现它的记忆和人格数据库都有了变化,它认知到自己“穿越”了,奇妙的是数据的总字节数增量,不到一百个字节。

    这一实验让参与者们大为震惊。

    稍微有点生物学知识都能意识到,这样一边认知世界,一边删除替换现有记忆的能力,总数据量不会无限制膨胀,已经非常接近正常生物。

    此外,还有各种各样更奇怪的实验,比如三大数据库全部留白直接上机器人等等。

    最终通过大量的实验,和谨慎的对逻辑核心少量参数进行微调,总算弄出了“工具机”。

    “工具机”不会再自己往记忆、知识、人格三大数据库里乱改东西,同时为保留认知世界、解决问题的能力,给它开放了一个额外的空白记忆库作为行动参考,而非行动发起原因。

    八月,电光刚刚在ca被揍死,一台专门为太空作业制作的量产原型机被送到未来空间站,系列代号“智人”。

    对于探索太空而言,人的结构说不上多么合理。

    “智人”采用磁吸履带加喷气背包的移动方式,借助特别设计的三角履带构造,在必要的时候可以调整履带触地的面,以改变上半身高度。左右两臂做成方便换装的形式,常规的抓取臂可以随时改成工具臂。

    在空间站进行两天的放养,它已经在多嘴的宇航员中学会包括自己充电、自己换机械臂、出舱焊接、避让人类、给地面打电话等知识和技巧。

    到了这一步,一旦决定量产“智人”,不但空间站的人力问题能够大幅度缓解,月球基地也不是不能考虑。

    有人就开始担心智械危机了。

    不过这种事要讲科学,“智人”的数据库定型和逻辑核心都是几个研究院、数个大学院系,一个字节一个字节确认过的,考虑过方方面面,硬件也不支持它绕过三大数据库的锁定,你说危机就危机啊。

    当然也不能否认,因为ai拟人度高得过分,的确存在和人类一样的事故风险。