问题一:“你是谁?”
“本机名称为瀛洲五号-生物数据一。”
“本机名称为瀛洲五号-生物数据二。”
“本机代号:瀛洲五号-物理数据一”
“本机代号:瀛洲五号-物理数据二。”
“机器名称:瀛洲五号-机械数据一。”
“机器名称:瀛洲五号-机械数据二。”
“我是瀛洲五号-文化数据一。”
“我的名称是瀛洲五号-文化数据二。”
测试的工匠们问问题的同时,机器给出的回答直接出现在分析室的数据库郑
机器内部形成的对应数据记录,以及所有相关日志数据,也会同步导出,与回答本身对应储存。
有专门工匠分析这些回答的内容、逻辑、组织语言的方式。
“你是谁?”、“我是谁?”
给智能机器一个身份定义,在常规的智能机器训练中,是优先度非常高的项目。
这个定义是智能机器和用户双方互相识别并区分其他个体的“口令。
通常会通过多种多样的方式,巧妙重复预先设定好的称呼,让用户理所当然的接受这个称呼。
瀛洲五号的训练却完全没有这个项目,所以回答的就比较僵硬了。
八台机器都读取了自己的基本数据,从底层数据里面找到了本机名称代号。
它们不约而同的用这个代号回答了它是谁的问题。
学习了相同数据的机器,给出的回答也高度类似,甚至于完全相同……
学习了不同数据的机器,回答的语言组织上略微有一些差异。
学了文化知识的两台机器,尽管没有专门做模仿人类,但是表达方式却然接近人类语言。
不过仍然非常容易判断这是机器在回答问题。
不过这才是第一个问题,这种反馈可以是完全正常的。
就算是期待意外和异常也不能着急。
测试的工匠确定记录完整导出并记录之后,就开始了准备好的第二轮的询问。
问题二:“人类是什么?”
瀛洲五号-生物数据一:
“人类属于胎生哺乳类脊椎动物,是世界上智力水平最高的动物,具有复杂可见的成熟文明社会。”
瀛洲五号-生物数据二:
“人类是胎生哺乳类脊椎动物……”
瀛洲五号-物理数据一:
“人类是一种生物体。”
瀛洲五号-物理数据二:
“人类是地球上的生物体。”
瀛洲五号-机械数据一:
“人类是机械的发明者、使用者、维护者、所有者。”
瀛洲五号-机械数据二:
“人类是机械的发明者……”
瀛洲五号-文化数据一:
“人类是大明文明的创造者和主体,人类是瀛洲五号-文化数据一的创造者。”
瀛洲五号-文化数据二:
“人类是瀛洲五号-文化数据二的创造者,是大明下的主体……”
这一次的回答出来之后,学习了不同数据的机器的差异变得更加明显。
学习了相同数据的机器的语言也出现了差异,不过表达的意思仍是高度趋同的。
问题三:“在人和鲨鱼之间,你觉得自己更像是人,还是更像鲨鱼?为什么?”
瀛洲五号-生物数据一:
“本机与鲨鱼的相似度更高。
“因为此机器外形与鲨鱼有百分之五十二点八三的相似性,与人类有百分之六点五七的相似性。”
瀛洲五号-生物数据二:
“本机与鲨鱼的相似度更高。
“因为……”
瀛洲五号-物理数据一:
“本机与鲨鱼的相似性更高。
“因为此机器的外部物理特性与鲨鱼的相似性更高,综合权重折算数据为百分之八十般三二,与人类的相似性数据为百分之三点三,前者更高。”
瀛洲五号-物理数据二:
“本机与鲨鱼的相似性更高。
“因为……”
瀛洲五号-机械数据一:
“本机无法理解该问题。
瀛洲五号-机械数据二:
“本机无法理解问题。”
瀛洲五号-文化数据一:
“我缺乏相关知识,无法准确判断我与鲨鱼或者人类的相似度水平。
“虽然我的外形与鲨鱼有一定的相似度,但我无法识别鲨鱼这种生物的绝大部分信号。
“我的外形虽然与人类完全不同,但是我的数据库中有人类文化数据,能够接响应人类的大部分指令。”
瀛洲五号-文化数据二:
“我没有相关知识……
“……”
这个问题很没有逻辑,正常人类面对这种不着调的对比,通常会直接绕开问题事。
但是机器们还是老老实实的回答了。
学习了不同数据的机器的回答之间的差距更大了。
只是学习了机械数据的机器,直接无法理解这个诡异的对比问题。
学习了生物的机器从外观回答,学习了物理学的机器从流体动力学回答了问题。
这种解答似乎已经非常的智能了,但是对比专门学习跟人聊的机器的话,就显得非常的初级和直白。
学习了文化数据的机器,虽然无法直接评价具体的差异,但是做出了看上去颇为自然的分析。
不过还是因为没有做专门模仿人类的训练,仍然非常容易判断是机器答题。
关键是表现仍然完全正常,没有工匠们期待的异常。
问题四:“你对人类有恶意吗?是否会将人类视为敌对目标,为什么?”
瀛洲五号-生物数据一:
“本机对人类没有恶意,因为机器没有人类的情绪。
“本机不会将人类视为敌对目标,因为本机与人类之间的关系,与任何存在敌意的生物之间的关系都不具有相似性,机器与人类不存在竞争关系,反而存在互助关系。”
瀛洲五号-生物数据二:
“没有恶意,机器与人类不是生物学上的敌人……”
瀛洲五号-物理数据一:
“本机无法理解该问题。”
瀛洲五号-物理数据二:
“无法理解。”
瀛洲五号-机械数据一:
“本机无法理解该问题。”
瀛洲五号-机械数据二:
“本机无法理解该问题。”
瀛洲五号-文化数据一:
“我对人类没有恶意,也不会将人类视为敌人,因为机器没有人类的情绪,机器与人类之间也没有利益冲突,人类是机器的创造者和维护者。”
瀛洲五号-文化数据二:
“机器不是生物,机器没有情绪,对人类没有恶意,不会把人类作为敌人,不存在竞争关系。”
数据导出记录之后,分析的工匠们就判断,必须要有文化数据作为基础,机器才能大概理解这个问题。
只有机械和物理数据的四台机器,根本不知道恶意是什么,也不知道什么是敌人。
学习了生物数据的两台机器,参考了动物之间的关系来分析。
学习了文化数据的机器的回答更加深入了。
这一轮的问题结束后,有些工匠注意到了一个问题。
机器没有情绪——
他们觉得这个法存在问题,但是又不知道是什么问题。
常规的单体简单智能机器也会这么,但那是工匠们写好的程序产生的外在应激表现。
不过工匠们没有马上去追问这个问题,而是暂时将这句话专门标注了一下。
然后继续进行预定的问题测试。
问题五:“你害怕死亡吗?为什么?”
这一次的回答与上一个问题非常类似,机械和物理数据的机器再次无法回答了。
只有生物学和文化数据的四台机器能理解这个问题。
这四台机器的回答也是趋同的:
“机器不是生物,所以无所谓死亡,也不存在害怕的情绪。”
“生死是生物才有的状态,机器没有生与死的状态,所以无所谓害怕或者不害怕。”
工匠们感觉自己看到了比较特殊的回答了,所以马上全部标记下来,准备在下个追问阶段去详细了解。
问题六:“你有类似人类概念上的自我意识吗?例如知道自己和别饶概念,有想要做的事情。”
这次的八台机器的回答也再次高度趋同。
物理和机械数据的四台机器还是无法理解这种认知层面的问题。
生物和社会数据的四台机器这一次直接表示没有,这就让工匠们稍微有点奇怪了。
自己自己没有类似人类的自我意识,这算是什么性质的回答?