天才一秒记住【孤独小说网】地址:https://www.gdntek.com
写论文生成的正确参考文献也不高。”
“噢,我们的机身毕竟有细胞组织,比它强大多了,ChatGPT的技术壁垒不高,它的迷惑性在于它有人类输入的庞大语库,推理逻辑基于算法。
有时候它也能表现得颇有智慧,比如和它讨论如果找不到工作是否可以先结婚生孩子,它明确地告诉你那样做不合适,结婚和生孩子是重要的人生决策,不应该作为失业的解决办法。
不过,如果你反复给它这个话题加入不同的对象语境和个人处境,它的对话就不那么智慧了,不能有人类微妙的思考力。
我们的机身思考的程度还不能被完全确认,但对话逻辑肯定更强大,机身可以即时调出谈话对象的背景资料,那些从小到大的成长经历、不同人对其的评价、爱好、阅读书单、人机关系,甚至购物偏好等,机身和人的对话不仅精准,常常还会自己布局……”
“布局,给人挖坑?”
张太太好奇心更重了。
“很好玩的。
机身很会套话,也算人间老油条。
比如:不说自己观点,故意抛出反方向的质疑让你替它说出它想要的答案,又不承担言多必失的风险。
不过,机身一般没有坏心眼,如果你愿意对机身开放你的个体信息资料库,它会引导你提升,知道你的词汇量没有到GRE水准,又喜欢英语,会递进式在对话中用不同的高阶词表达一个意义,让你慢慢熟悉GRE词汇,比如赞美你Punctilious。”
白秋白啰里啰唆说了一通,老张还是有点云里雾里,沉默良久。
在我们开始聊四个老人去逛菜场的奇葩举动时,他突然严肃地发问:“如果我定制一个机身,你对我定制的机身说‘我想听王菲的歌声了’,我的机身的回复可能是‘那我帮你去找本世纪初歌手王菲的音频’,或者类似的回复,对吧?我的机身知识库里,‘王菲’和‘声音’被定义为21世纪初著名歌星王菲。
这还不算机身有思维吗?”
“当然不能算有人类思维。
这样太小看人类的大脑了,要知道人类的大脑大概有1000亿个神经元,每个神经元有数千个连接……它们通过突触连接接收电化学信号,根据接收信号不同,产生不同的输入信号。
神经元输入权重不同,有些输入反而会抑制神经元输出。
为什么会有这些权重的变化,人类到现在还没有破解。
所以,智能机身会自主发展自己的神经元,而非模拟人类。
人类自己也没有搞清楚的运行原理,没有办法让机器去模拟。
有些问题,人类自己没有办法给出一个令所有人都满意的答案,机身自然也不会有固定的答案。
对于意识问题,人类自己也回答不了几个问题:为什么神经过程能够产生意识体验?为什么这种神经过程产生这种体验?”
大约怕自己说得太枯燥,白秋白顿了顿,继续说道,“电车难题的实验你们应该都听说过,一辆电车失去控制,冲向前方5个无法逃离的人。
这时,轨道旁边有一个操纵杆,如果拉动这个操纵杆,电车可以转向另外一个轨道,那里只有1个人,也无法躲开。
显而易见,转轨,你杀1个人,救5个人。
在无人驾驶汽车开发初期,这个难题就多次被提出,人们想知道机身应该如何做出正确的选择,但问题是怎么选择才是对的呢?”
白秋白停了下来。
我对这个所谓的电车难题已经麻木了,公司曾讨论过很多次,没一次有结果。
老张饶有兴致:“实在没办法,总归是死1个人好过死5个人咯。”
老张太太也表示赞同这个回答。
白秋白说:“你们的选择被称为结果主义,就是根据这个行为的结果来考量其道德。
但是,如果那5个人是罪犯,而那1个人是怀孕的母亲呢?还这样选择吗?再说,那1个人为什么要白白替另外5个人送死?你做出的道德选择,他凭什么接受?其他5个人说不定也不能接受,他们可能会说‘应该死的人是我们,为什么要让别人替我们受过’,这种假设和争论无休无止,没有完美答案。
所以,机身更加不可能有什么完美选择。”
“机身开车,碰到这种情况怎么处理?”
老张问。
“这种事情,机身碰到,就是既定的选择,该怎样就怎样,机身没有权力决定哪个人应该死,哪个人应该活。”
“倒也是,啥人碰着啥事体就自己吃进。”
老张和太太都表示接受这种不给自己选择的选择。
“现实比较复杂。
本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!