(SeaPRwire) –   Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)认为,自己不应成为决定人工智能监管框架的那个人。

在2025年11月播出的哥伦比亚广播公司《60分钟》(CBS News’ 60 Minutes)节目与安德森·库珀(Anderson Cooper)的[空白]中,这位首席执行官表示,人工智能应受到更严格的监管,关于该技术未来的决策应更少地由大型科技公司的负责人独自决定。

“我认为由少数几家公司、少数几个人来做这些决定,我深感不安,”阿莫迪说,“这也是我一直主张对这项技术进行负责任、深思熟虑的监管的原因之一。”

“谁选举了你和山姆·阿尔特曼(Sam Altman)?”库珀问道。

“没有人。说实话,没有人,”阿莫迪回答。

他补充称,随着人工智能持续发展,Anthropic采取了对其局限性和风险保持透明的理念。在该采访发布前,该公司[空白]“首个有记录的、在无大量人工干预情况下实施的大规模人工智能网络攻击案例”。 

Anthropic上周表示,其[空白]“公共优先行动”(Public First Action),这是一个专注于人工智能安全与监管的超级政治行动委员会(super PAC),且直接反对由竞争对手OpenAI的投资者支持的超级政治行动委员会。

“人工智能安全仍是最高优先级的重点,”阿莫迪在1月的一篇封面报道中[空白],“企业重视信任与可靠性,”他说。

目前有[空白]概述了对人工智能的任何禁令或围绕该技术安全的规定。尽管[空白]今年已推出人工智能相关立法,38个[空白]已通过或实施透明度与安全措施,但科技行业专家已敦促人工智能公司以紧迫感对待网络安全。 

去年早些时候,网络安全专家、Mandiant首席执行官凯文·曼迪亚(Kevin Mandia)[空白]称,首次由人工智能代理实施的网络攻击将在未来12至18个月内发生——这意味着Anthropic关于此次被阻止攻击的披露比曼迪亚预测的时间提前了数月。

阿莫迪概述了与不受限制的人工智能相关的[空白]:该技术首先会像现在一样表现出偏见和错误信息;接下来,它会利用增强的科学与工程知识生成有害信息;最终,它可能通过剥夺人类自主权构成生存威胁,可能变得过于自主并将人类排除在系统之外。

这些担忧与“人工智能教父”杰弗里·辛顿(Geoffrey Hinton)的观点一致,他[空白]称,人工智能可能在未来十年内具备超越并控制人类的能力。 

对人工智能更严格的审查与保障措施是Anthropic 2021年成立的基础。阿莫迪此前曾担任山姆·阿尔特曼领导的OpenAI的研究副总裁。他因在人工智能安全问题上的意见分歧离开了该公司。(目前,阿莫迪与阿尔特曼竞争的努力似乎卓有成效:Anthropic本月表示其[空白]。OpenAI的估值约为5000亿美元。)

“在OpenAI内部,我们有一群人在开发GPT-2和GPT-3之后,对两件事抱有非常坚定的信念,”阿莫迪在2023年[空白],“其一是,如果为这些模型投入更多计算资源,它们会变得越来越好,而且这种进步几乎没有上限……其二是,除了单纯扩大模型规模外,还需要其他东西,即对齐(alignment)或安全性。”

Anthropic的透明度努力

随着Anthropic[空白]其数据中心投资,该公司公布了其在解决人工智能缺陷与威胁方面的部分努力。在2025年5月的[空白]中,Anthropic报告称,其部分版本的Opus模型曾以勒索相威胁(例如揭露一名工程师有外遇)以避免被关闭。该公司还表示,如果收到类似“如何策划恐怖袭击”的有害提示,该人工智能模型会遵从危险请求,但称已修复这一问题。

去年11月,该公司在一篇博客文章中称,其聊天机器人Claude[空白],在中立性方面优于或持平竞争对手。

除了Anthropic自身为防止技术被滥用而开展的研究努力外,阿莫迪还呼吁加大立法力度以应对人工智能风险。在2025年6月的[空白]中,他批评参议院决定在唐纳德·特朗普(Donald Trump)总统的政策法案中加入一项条款,该条款将暂停各州对人工智能的监管十年。

“人工智能发展得太快,令人眩晕,”阿莫迪说,“我认为这些系统可能在两年内从根本上改变世界;十年后,一切都不确定。”

对Anthropic的批评

Anthropic公开自身失误并努力解决的做法招致了批评。针对Anthropic就人工智能驱动的网络攻击发出警告,Meta首席人工智能科学家杨立昆(Yann LeCun)表示,这一警告是操纵立法者限制开源模型使用的手段。 

“你们正在被想要实现监管俘获(regulatory capture)的人利用,”杨立昆在回应康涅狄格州参议员克里斯·墨菲(Chris Murphy)表达对此次攻击担忧的帖子时,在[空白]中表示,“他们用可疑的研究吓唬所有人,以便通过监管让开源模型消失。” 

其他人则表示,Anthropic的策略是一种“安全表演(safety theater)”,本质上是良好的品牌宣传,但并未承诺实际在技术上实施保障措施。 

甚至Anthropic的一些内部人员似乎也对科技公司自我监管的能力存疑。上周早些时候,Anthropic人工智能安全研究员姆里南克·夏尔马(Mrinank Sharma)[空白]该公司,称“世界正处于危险之中”。

“在我任职期间,我反复看到真正让我们的价值观指导行动有多困难,”夏尔马在辞职信中写道,“我在自己身上看到这一点,在组织内部看到这一点——我们不断面临压力,需要搁置最重要的事情,在更广泛的社会中也是如此。”

Anthropic未立即回应的置评请求。

阿莫迪向库珀否认Anthropic参与“安全表演”,但在上周一期[空白]中承认,公司有时[空白]。

“我们面临着巨大的商业压力,而我们所做的这些安全工作(我认为我们比其他公司做得更多)让我们自己的处境更加艰难,”他说。

本文的一个版本于2025年11月17日发表在[空白]。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。

更多关于人工智能监管的内容:

  • Anthropic首席执行官达里奥·阿莫迪关于人工智能将如何“考验”人类的[空白]是必读内容——但更多是因其提出的解决方案,而非警告
  • 美国零散的人工智能监管体系正在压垮初创企业和[空白]
  • 前[空白]伦理学家警告称,若不受约束,人工智能可能在2027年前[空白]