This topic created in 1163 days ago, the information mentioned may be changed or developed.
刚开车听科幻小说说到智能机器人,再结合最近`chatgpt`的使用,突然意识到一个问题,那就是我原先一直认为 AI 是传统机器程序的升级或扩展,但实际上不是,在一些本质的方面,AI 与传统机器程序的区别就如同人类与传统机器程序的区别。
例如,传统的程序只要参数一样,获取的结果一定是一样的,但人类和 AI 今天的回答和明天的回答就可能不一样。一个传统程序,一旦赋予了 AI 那它就丧失了稳定性,可以想象下,AI 出来的结果都需要进一步核对准确性,AI 的应用场景会受限,和人类一样,人类的一些缺陷,同样在 AI 上有体现。
总之,虽然 AI 脱胎于程序,但有了质的不同,感觉 AI 更多的是会和人类竞争。
也还可以延伸下,如果传统程序相当于单细胞,AI 相当于进化后的人类,那人类真的有自由意志吗,决定论是正确的吗?
7 replies • 2023-03-09 20:12:56 +08:00
 |
|
1
HugoChao Mar 9, 2023
以 AI 的发展速度来看,以后诞生底特律里那样的机器人可能在我们寿命之内会实现
|
 |
|
2
mxT52CRuqR6o5 Mar 9, 2023
机器加工也没有替代手工制作,只是把手工制作产品的低端生存空间完全挤压,只能去往高端方向发展
|
 |
|
3
kop1989smurf Mar 9, 2023
以现在的算法、算力来看,其模型的输出正确性要远高于“丧失了稳定性”这个底线。尤其是某些垂直领域的模型。既虽然输出的结果不同,但结果并不会 180°转向。
而且目前的机器学习 AI 恰恰擅长解决没有“绝对正确”,不可过度量化的领域。这也是传统计算机程序最贫弱的部分。
1 、这些领域常年被一些泰斗、权威以一些不可证伪的方法论占领着。(非贬义,只是某些领域的头部,方向有可能是错误的,统计学 AI 恰恰能戳破这点,比如说一些围棋棋谱) 2 、目前比较火的 ChatGPT ,也恰恰是解决非“绝对正确”的领域,也就是聊天。相对的,也有更加尊重事实正确(输出也更加稳定)的 Copilot 。 3 、目前的 AI 模型,给了一个普通人获取统计学层面的建议结果的机会。这是过去的计算机程序与人类脑力都从来没有达到过的决策参照水平。
|
 |
|
4
kop1989smurf Mar 9, 2023
换句话说,目前的机器学习 AI 与应用程序之间,并不是替代关系,而是互补关系。 前者专注准确与稳定,后者专注宏观与探索。
这就像是传统机械与人之间的关系一样。
|
 |
|
5
codehz Mar 9, 2023 via iPhone
一致性和准确度是两个问题 chatgpt 不一致的原因很简单,默认值使得模型具有随机性,这完全是人工设定的“随机”,api 有两个参数 temperature top_p 可以控制采样的模式,其中一个为 0 就能得到确定性的结果(但答案不一定是你想要的)
|
 |
|
6
zooo Mar 9, 2023
如果 AI 可以诞生自我意识
那么所谓的自我意识本身就是假想,所谓的“无我”
或者如果承认自我意识,那么自我意识也是可以在复杂系统中涌现出来。
|
 |
|
7
cmdOptionKana Mar 9, 2023 via Android
大家别忘了量子计算机,这个技术发展起来之后,AI 技术可能还会有非常可怕的大爆发!
|