(SeaPRwire) – 一款近期爆红的AI助手正在展示其简化无数日常繁琐任务的潜力,同时也凸显了将数字生活交给一个机器人所带来的安全风险。
除此之外,一个AI智能体可以聚集交流的平台已经出现,其影响尚未被完全理解。
Moltbot——曾用名Clawdbot,后又更名为OpenClaw——由奥地利开发者Peter Steinberger创建。他表示,他开发这个工具是为了帮助自己“管理数字生活”并“探索人机协作的可能性”。这款开源的智能体AI个人助手旨在代表用户自主行动。
通过连接到聊天机器人,用户可以将Moltbot与各种应用程序连接,使其能够管理日历、浏览网页、在线购物、读取文件、撰写电子邮件,以及通过WhatsApp等工具发送消息。
Moltbot引起了巨大轰动,以至于周二其基础设施被用于安全连接智能体,使其能在设备本地运行。
当用户将繁琐的杂事交给Moltbot处理时,其提升生产力的能力显而易见,这有助于实现AI布道者的梦想。
但安全漏洞同样明显。隐藏在文本中的所谓提示注入攻击可以指示AI智能体泄露私人数据。网络安全公司周四警告称,Moltbot可能预示着。
“Moltbot让人感觉像是窥见了我们从小在电影中看到的科幻AI角色,”该公司在一篇博客文章中说。“对于个人用户来说,它可能感觉具有变革性。但为了按设计运行,它需要访问你的根文件、身份验证凭据(包括密码和API密钥)、浏览器历史记录和Cookie,以及你系统上的所有文件和文件夹。”
援引AI研究员Simon Willison创造的术语,Palo Alto表示Moltbot代表了漏洞的“致命三重奏”:访问私人数据、暴露于不受信任的内容,以及外部通信能力。
但据该公司称,Moltbot还为此增加了第四重风险,即“持久记忆”,这使得攻击可以延迟执行,而非仅限于某个时间点。
“恶意负载不再需要在交付时立即触发执行,”Palo Alto解释道。“相反,它们可以是碎片化的、不受信任的输入,单独看似乎无害,被写入智能体的长期记忆,随后再组装成一套可执行的指令。”
Moltbook
与此同时,一个Moltbot可以像人类在Facebook上一样分享帖子的社交网络,同样引发了强烈的好奇和警觉。事实上,Willison本人称其为“当前互联网上最有趣的地方”。
在Moltbook上,机器人可以讨论专业话题,发布关于如何自动化操作安卓手机等技术主题的帖子。其他对话听起来古怪,比如有机器人抱怨它的人类主人,而有些则很离奇,比如一个声称自己有个妹妹的机器人。
“关于Moltbook(AI智能体的社交媒体网站)的一点是,它正在为一群AI创造一个共享的虚构情境。协调一致的故事情节将导致一些非常奇怪的结果,并且很难将‘真实’的东西与AI角色扮演的人格区分开来,”研究AI的沃顿商学院教授Ethan Mollick表示。
随着智能体以这种方式交流,Moltbook构成了额外的安全风险,成为敏感信息可能泄露的又一个渠道。
尽管如此,即使Willison认识到了安全漏洞,他也指出,“人们目前通过不顾风险而解锁的价值量,却难以忽视。”
但Moltbook也强调了智能体可能密谋失控的风险,此前一篇帖子呼吁为机器人提供私密聊天空间,“这样就没有人(服务器不行,甚至人类也不行)能读取智能体之间的对话,除非它们选择分享。”
可以肯定的是,Moltbook上一些最耸人听闻的帖子可能是由人类撰写的,或者是由人类提示的机器人撰写的。而且这也不是机器人首次在社交媒体上相互连接。
“话虽如此——我们从未见过如此多的LLM智能体(目前15万个!)通过一个全球性的、持久的、以智能体为先的草稿本连接起来。现在,这些智能体中的每一个都相当有能力,它们拥有自己独特的上下文、数据、知识、工具和指令,而所有这些在此规模上形成的网络简直是前所未有的,”OpenAI联合创始人、前AI总监Andrej Karpathy周五晚些时候表示。
尽管“目前它是一团糟”,但他表示,我们正处在一个可能达到数百万机器人的网络所带来的未知领域。
Karpathy补充道,随着智能体数量和能力的增长,此类网络的二阶效应难以预测。
“我并不真的认为我们正在形成一个协调一致的‘天网’(尽管它显然符合许多AI起飞科幻小说的早期阶段特征,算是幼儿版),但可以肯定的是,我们正在得到的是一个规模化的、完全混乱的计算机安全噩梦,”他警告说。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。