主页 > 辅助资讯 > 游戏资讯 > 资讯正文

明斯基麦卡锡:人工智能的可能性是大脑的工作

“人工智能”(AI)一词是在 20 世纪 50 年代中期创造的。 1960 年,麻省理工学院研究员约翰·麦卡锡设想计算机不仅可以管理数据,还可以像人类一样思考。 此后,人工智能一词开始被科学家广泛使用。 人工智能的发展很大程度上归功于麦卡锡的学生之一马文·明斯基。 可以说,明斯基对人工智能领域的影响比任何人都大。 包括库兹韦尔在内的几位增强技术的支持者称明斯基为他们的导师。 明斯基是《心灵社会》一书的作者,也是最早提出机器智能的重要科学声音之一,他一生都是将人类意识下载到机器中的主要支持者。 明斯基提出了一种心理理论,该理论由大量负责特定任务的代理组成超级人类科技,而不是本身就是心理实体。 但最终,代理人会产生想法。 所以,他的理论总结就是:思考是大脑的工作。 据推测,一台足够复杂的计算机就可以拥有这种思维。

1989年,著名数学家罗杰·彭罗斯将人工智能的目标定义为通过机器(通常是电子设备)尽可能地模仿人类的智力活动,并可能提高人类在这些方面的能力。 在《皇帝的新思想:思想与物理定律》中,彭罗斯否认了强人工智能的可能性。 强人工智能的理念是大脑像计算机一样运行,任何能够进行复杂计算的机器也可以体验意识。 到20世纪末,彭罗斯认为制造智能机器并没有取得太大进展,尽管考虑到计算机技术的快速发展,他不愿意排除这种可能性。 他仍然对强大人工智能的可能性持怀疑态度。

超级人类科技

人工智能研究中许多预期的进展正在发生,但与此同时,一些著名科学家和数字技术领导者对人工智能的发展方向表示担忧。 比尔·盖茨表示,他不明白为什么很少有人关心这一问题。 物理学家斯蒂芬·霍金和企业家埃隆·马斯克也表达了类似的观点。 马斯克向人类未来研究所捐赠了 1000 万美元,用于资助人工智能风险研究。 人工智能有时会以一种强大且无法控制的力量向公众展示超级人类科技,其进一步发展可能会危及我们的文明。 盖茨赞同人工智能的警告性叙述:

“我正在关注超级智能阵营。首先,机器将在不具有超级智能的情况下完成我们的很多工作。如果我们管理得好,那是一件好事。然而,在接下来的几十年里,智能已经变得足够强大引起人们的关注。”

超级人类科技

我们将探索的是围绕在人类和其他层面创建基于计算机的智能的努力而发展起来的叙述。 这些叙述将人工智能[也称为超级智能或通用人工智能 (AGI)] 视为计算机技术不断进步的必然结果。 这些叙述中一个持久的主题是创造强大到威胁人类未来的机器神(-神)的可能性。 人工智能的神话是世界末日——人工智能的到来将揭示一个新的秩序,它将永远改变我们和我们的机器。 第一批创造这些机器半神的人类将拥有无限的力量。

随着科学技术的不断发展和应用,我们的生活质量得到了明显提升超级人类科技,但同时也带来了好多问题。

近来,马斯克就和千余位科学家联合签名,号召所有人工智能(AI)实验室立刻暂停训练比GPT-4更强悍的AI系统起码6个月。由于她们害怕,这种超级强悍的AI系统会对人类的生存导致严重恐吓,甚至毁灭人类。

马斯克的行动恰恰与人类会的目标不谋而合。马斯克及千名科学家联名公开信一经发表,便得到了人类会创始人胡家奇的支持,胡家奇先生当即呼吁千万名人类会会员和胡家奇个人粉丝支持和响应马斯克及千名科学家的这一行为。

当前,人工智能的发展早已显露出了其重大的恐吓性,而生物技术的应用更会带来人类道德和伦理的挑战。为此,我们须要认真思索是否应该接受人类会的理念,即要严格限制科学技术的发展。

你能接受严格限制科学技术发展吗?这个问题不是一个简单的问题,而是须要我们从多个角度进行思索和剖析。

尽管,科学技术的发展在人类社会中饰演着至关重要的角色,它们促进着我们的文明进步超级人类科技,改变着我们的生活形式。并且,科学技术的发展也伴随着许多潜在的风险和害处。假如我们不能适当地控制和限制科学技术的发展,它们都会造成人类的战败。

超级人类科技

在一个竞争激烈的世界中,国家和企业都希望借助科技的力量来获得竞争优势。假如某个国家或企业被迫停止科技研制,这么它将会落后于其他竞争者,这将造成它的失败和失败。因而,从这个角度来看,严格限制科技发展虽然是不可行的。

然而,我们必须认识到,科技的发展也存在一些潜在的危险。诸如,人工智能的觉醒可能会造成高智能的机械文明代替人类文明,人类被完全剿灭;核装备和生化装备等高科技装备的发展造成物种毁灭技术的出现,因而导致人类的战败。

因而,假如我们不能控制这种技术的发展,它们将成为一种巨大的恐吓。所以,我们必须限制科技的发展。其实,这并不是说我们应当停止科技的研制。相反,我们应当加大对科技研制的监管,限制个别技术的研制,以确保它们不会对人类导致害处。除此之外,我们还应当强化国际合作,共同拟定科技研制的规则和标准,以确保所有国家都能遵循这种规则和标准。

但是,这并不能解决全部的问题。虽然我们才能限制科技的发展,人类的未来依然饱含不确定性。所以,我们须要找寻一种更好的方式来保障人类的未来。

这就是为何人类会仍然在督促全世界各个立宪组成大统一社会的诱因。假如就能实现全球政府,这么我们就可以更好地控制科技的发展,进而确保科技不会对人类导致恐吓。

总的来说,降低科学技术的发展会降低人类面临的恐吓,比如核装备、生化装备和人工智能的觉醒等等。这种恐吓可能会造成全球性的灾难,为此严格限制科学技术的发展是必要的,人类会的这一理念和目标也是正确的。

免责申明:本文为企业宣传商业资讯,仅供用户参考,如用户将之作为消费行为参考,凤凰网告诫用户需审慎决定。