\[Discussion\] Choice of E/ACC \& SLA.

Jackcui NJU Loser

Q1:ChatGPT自己是否可以解决价值观问题?

Q4:语言单模态的认知极限?

其实第一个问题就是第四个问题的一个特例。
ChatGPT 作为一个大语言模型,他的交互和生成能力都是主要基于语言的。
这涉及到对价值观的定义,如果仅仅把价值观定义为“事件-判断”对的话,那ChatGPT完全可以解决价值观问题。
如果它对世界观存在认知,那就一定能解决。
如果从唯物主义的角度讲,给定信息+完全模拟,即可产生相同的效果。那么ChatGPT能否可以解决价值观问题其实就归约到,能否通过语言认识价值观,更广泛的说,也就是语言的认知极限问题。这样就规约Q1到Q4了。
另外来讲,Q1其实很好回答,因为从经验主义的角度,显然是可以的,因为多数人的价值观就是产生在语言信息的处理。(不要杠,语言可以认为是形式-语义对,因此,即使是一张位图,也可以是认为是语言)
但问题是,SLA所说的价值观,并不在这个范畴内,因为这个经验的结果是在数千年中并没有以此产生SLA想要的“价值观”,而是产生了普通人的价值观(耶稣等的价值观可以理解为个人和群体解释的产物)。因此问题其实是语言能否描述SLA所要的价值观。
至于Q4,我认为是有的,我认为现在缺乏的是时序,但不是不可解决。
缺乏的绝不是“视觉”这种某一个模态。
其实是语言的表述极限问题。

  • 知识可能存在于结构之中,有的认知是基于共识,而目前并没有共识这一概念(因为模型只有自身)(或者说这个问题并不存在,其实只是一个分割问题?)
    确实如此,现有的模型不具有良好的可分割性(模型的递归性似乎不是很好)
    因为还有一些Explicit的Procedure.

  • 人类和机器是否可能是两种计算范式,一些任务是在互相模拟,因而相较缓慢,AGI可能并不能依赖对其中一个现有结构的极端发展?
    用现有的数学建模对人脑建模似乎并不一定对?
    (这个可以在期末论文里提及)

  • 黑盒问题其实是一个认知偏好问题。

  • AI是否可能用来管理人类是伪命题,其实其Q3的等价命题是,AI是否有利于维护现有的秩序。
    如果生命的终极目的是延续,那Matrix里面的人类发电厂岂不是恰好满足了?所以其实不是供给侧的,而是需求侧的。
    人们对这个问题的判断无非基于自己的价值好坏,而这个问题其实并没有共识的。
    生活在偏序和剥削中,现有世界的获益者支持,受害者反对而已。
    对AI威胁论是没有意义的。
    没有规范,只有偏好,你偏好怎么可能喂出规范。

  • Align似乎是一种不可抗拒的观念,如果AGI从外部理解了这一条的存在,那它为什么还要听从呢

  • 智能可能就是目的不明的行为。

  • 似乎并不能同时创造智能和定义智能?

  • Accountablity is not solvable.
    置信度和安全 置信就是多次实验结果的稳定性吗

  • 时序很重要,但并非不能处理。就像CPU模拟器时间抽象

  • 一个有趣的寓言就是证明AGI,ASI不存在,因为统治了人类后资本就不存在了,资本家就会第一时间叫停对它研发的投资。

  • 有没有可能,语言的空间是很有限的,并不是所谓的神奇的“可供泛化的空间”。

  • GPT会不会产生一个自指涉的问题呢?

用贝叶斯分析乌鸦的因果认知

All knowledge degenerates into probability.

  • Post title:\[Discussion\] Choice of E/ACC \& SLA.
  • Post author:Jackcui
  • Create time:2023-11-27 17:19:14
  • Post link:https://jackcuii.github.io/2023/11/27/choice-of-fate/
  • Copyright Notice:All articles in this blog are licensed under BY-NC-SA unless stating additionally.
 Comments