据新书《人工智能帝国》披露,OpenAI 联合创始人 Ilya Sutskever 曾于 2023 年提议建造末日掩体,以保护核心科学家应对 AGI 发布可能引发的地缘政治混乱。其在内部多次提及该计划,认为需防范超越人类能力的 AI 带来的潜在风险。这一言论凸显 OpenAI 领导层对 AI 安全的深层担忧,与该公司商业野心形成张力。此前 Ilya 曾参与罢免 CEO Altman,质疑其对 AGI 研发的安全性把控,相关争议后两人离开公司。
暂无讨论,说说你的看法吧
扫码打开当前页
之前