家电品牌工业4.0B2B网站管理系统

扫一扫关注

AI威胁来了:在人工智能“核弹”射程内,人类已经没有安全感

   2023-06-16 36氪3010
导读

“最可怕的是,GPT-4确实让我们看到了“智能”的火花,而我们人类,还没有做任何严肃的准备”Stuart Russell(斯图尔特·罗素)是加州大学伯克利分校人类兼容人工智能中心(Center for Human-Compatible AI)创始人兼

 

“最可怕的是,GPT-4确实让我们看到了“智能”的火花,而我们人类,还没有做任何严肃的准备”

Stuart Russell(斯图尔特·罗素)是加州大学伯克利分校人类兼容人工智能中心(Center for Human-Compatible AI)创始人兼计算机科学专业教授,同时也是人工智能领域「标准教科书」《人工智能:一种现代方法》的作者。这本书的第一版早在1994年已经完成,当时就有一个章节,标题是《如果我们成功了呢》,主要讨论“如果我们制造出比人类更强大的人工智能系统,我们如何永远掌握它们的控制权?”,标题中所说的成功,就是制造出和人类一样聪明的机器。

这个问题并不是危言耸听,计算机每秒可以执行的基本操作数量大约是100亿次,而人类大脑基本上每秒只能执行大约100次操作。计算机之间的通信速度比人类快了10亿倍。如果某一天,我们真的能探索出人类认知的奥秘,叠加计算机的超速度,人类的文明岌岌可危。

最可怕的是,GPT-4确实让我们看到了“智能”的火花,而我们人类,还没有做任何严肃的准备,如果这一天突然到来,罗素教授认为“这可能会比核战争更严重”。

人工智能领域有影响力的人正在联合起来,呼吁更为理性、对人类有益的人工智能的研发,三周前,Stuart Russell、被称为人工智能三巨头的Geoffrey Hinton、Yoshua Bengio、OpenAI CEO Sam Altman等人联合签署了《关于人工智能风险的声明》,建议“减轻人工智能灭绝风险应成为全球优先事项”。几个月前,Stuart Russell也与Elon Musk等,共同签署了《暂停超过GPT-4巨型人工智能研发6个月》的公开信。

  • 1、为何这些全世界最了解人工智能的人,多次集体预警人工智能的风险?科幻中的人类与机器人大战的场景,真的会变成现实吗?腾讯科技对话了Stuart Russell教授,和他讨论了人工智能领域最近备受关注的几件事情。
  • 2、为什么人工智能领域有影响力的人物,短时间内签字两份公开文件,预警AI风险?它们有什么区别?为何Russell教授本人在两个文件上都签名了?
  • 3、为什么OpenAI CEO Sam Altman仅签署了人工智能风险声明,而没有在暂停巨型人工智能研发公开信上签字?
  • 4、签署完公开信,马上又成立了AI公司,马斯克的动机真的不单纯吗?
  • 5、GPT-4以大量语言数据为基础进行训练,这种技术路线有什么潜在风险?真的会毁灭人类吗?
  • 6、微软研究团队研究GPT-4四个月,并发布了火爆全网的论文《通用人工智能的火花》,他们对GPT-4的运转机制,究竟了解了多少?

 
(文/小编)
 
反对 0 举报 0 收藏 0 打赏 0 评论 0
0相关评论
免责声明
• 
本文为小编原创作品,作者: 小编。欢迎转载,转载请注明原文出处:https://www.jdpp168.cn/news/show-5593.html 。本文仅代表作者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,作者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们。