Vitalik Buterin 评估 AI 反人类的风险:“连火星也不安全”

2023-11-29 13:58

免责声明 免责声明:内容来源于网络收集,不构成任何投资建议!

对于以太坊的创建者来说,人工智能的发展需要优先考虑人类意图以获得积极结果,而不仅仅是利润最大化。

Vitalik Buterin 评估 AI 反人类的风险:“连火星也不安全”

本周一(27日),以太坊创建者维塔利克- 布特林(Vitalik Buterin)发表了一篇文章,分享了他对“科技”的看法。乐观主义”的灵感来自马克安德森(Marc Andreessen),他在今年10月发表的“技术乐观主义”宣言中表达了他对人工智能(AI)的看法。 AI)发表了自己的看法。

虽然Buterin 同意Andreessen 的积极前景,但他也指出了人工智能如何开发以及该技术未来方向的重要性。

Buterin 认识到人工智能存在的风险,包括导致人类灭绝。

“这是一个极端的说法:无论气候变化、人为流行病或核战争等最坏情况可能造成多大损害,有许多文明岛屿将完好无损地收拾残局,”他说。

Buterin 说:“但是如果一个超级智能的人工智能决定反抗人类,它很可能会杀死所有人并永远消灭人类。即使是火星也不会安全。”

Buterin 指出,AI Impacts 2022 年的一项调查显示,分别有5% 和10% 的参与者认为人类将因人工智能而面临灭绝,或者人类将无法控制人工智能。

他表示,以安全为重点的开源运动有能力引领人工智能的发展,而不是私营公司和风险投资基金。

他说:“如果我们想要一个既超级智能又“人类”的未来(人类不仅仅是宠物,而且实际上对世界保持着重要的控制),那么似乎这样的事情就是正确的选择,而且更好的选择。自然的选择。”

Buterin 继续说道,“我们需要的是人类主动选择方向和结果。而‘利润最大化’公式不会自动出现在他们身上。”

技术好的一面

Buterin 表示,他热爱技术,因为它扩展了人类的潜力,并引用了从手动工具到智能手机的创新历史。

“我相信这些事情非常好,”Buterin 说道,“将人类的影响力进一步扩展到行星和恒星也非常好,因为我相信人类非常好。

他说,虽然他相信变革性技术将为人类带来更光明的未来,但他拒绝认为世界应该保持现状,减少贪婪和建立有效的公共医疗保健系统。

“在让世界变得更美好方面,某些类型的技术比其他类型的技术更可靠,”Buterin 说。 “某些类型的技术如果得到开发,可以减轻其他类型技术的负面影响。”

人工智能控制

Buterin 警告说,数字威权主义和监控技术的发展正被用来对付那些挑战或不同意政府并由一组选定的技术官僚控制的人。他表示,大多数人可能宁愿等待人工智能的发展十年,也不愿看到该技术被一家企业集团垄断。

他说,“我最担心的是,同样的管理技术可以让OpenAI在全国范围内以500名员工服务超过1亿客户,也可以让500人的政治精英,甚至500人的董事会,使用同样的管理技术,让OpenAI能够以500名员工服务超过1亿的客户。对员工保持铁腕态度。”

虽然Buterin 表示他同情有效加速(也称为“e/acc”)运动,但他对自己对军事技术的热情有着复杂的感受。

“对现代军事技术作为一种正义力量的热情似乎需要相信,主导技术力量将可靠地成为大多数冲突中的好人之一,无论是现在还是未来,”他引用了军事的想法说。技术。可以很好,因为它是由美国构建和控制的,并且“美国很好”。

他问道:“成为一名e/acc 是否需要成为一名美国极端主义者,将一切赌注押在政府现在和未来的道德以及国家未来的成功上?”

Buterin 警告不要向一小群人授予“极端和不透明的权力”,希望他们能够明智地使用它,而是更喜欢防御、权力下放、民主和差异的“d/acc”哲学。他认为这种心态可以适应真正的利他主义者、自由主义者、多元主义者、区块链倡导者和“太阳能和月球朋克”。

“出于多种原因,一个有利于防御的世界是一个更好的世界,”Buterin 说。 “首先,当然是直接的安全效益:更少的人员死亡、更少的经济价值被破坏、更少的时间浪费在冲突中。”

他总结道:“然而,人们较少认识到,一个有利于国防的世界有助于发展更健康、更开放、更尊重自由的治理形式。”

虽然他强调了建设和加速的必要性,但Buterin 表示,社会必须始终问自己,我们在哪里加速? Buterin表示,21世纪可能是人类关键的世纪,可能决定人类数千年的命运。

“这些问题具有挑战性,但我期待观察并参与我们作为人类寻找答案的伟大集体努力,”Buterin 说。