排序
黑客利用暴露的云凭证,仅 19 分钟劫持 AI 大模型
最新研究揭示,网络攻击者正利用暴露的云凭证,快速劫持企业的人工智能(AI)系统。这种攻击方式被称为 LLMjacking,主要针对非人类身份(NHIs),如 API 密钥、服务账户和机器凭证,以绕过传统...
英国政府出资 850 万英镑应对人工智能网络威胁
英国承诺投入 850 万英镑资助旨在应对包括深度伪造在内的网络威胁的新型人工智能安全研究。技术部长米歇尔·多尼兰 (Michelle Donelan) 在人工智能首尔峰会上宣布,研究资助将重点关注“系统性...
揭秘:首个机器人电话黑客
美国联邦通信委员会 (FCC) 已将其首个官方指定的机器人电话黑客命名为“Royal Tiger”,此举旨在帮助国际合作伙伴和执法部门更轻松地追踪重复机器人电话活动背后的个人和实体。Royal Tiger 是一...
Lovable AI 被发现最容易被越狱攻击,允许任何人构建实时诈骗页面
由生成式人工智能(AI)驱动的平台Lovable,支持通过文本指令创建全栈式网页应用,现已被发现是最容易遭受“越狱攻击”的工具之一,使得技术门槛极低的网络攻击者也能轻松搭建仿冒的钓鱼网页以...
AI 工具恶意应用榜单出炉,政治内容最热门
谷歌DeepMind部门近日开展了业界首个针对AI技术恶意用途的研究,发现人工智能生成的“深度伪造”在模仿政治人物和名人方面远比用于网络攻击的AI应用更为普遍。
人工智能正在摧毁互联网内容生态系统
苹果公司的新iPadPro的广告展示了一台巨型工业液压机如何将人类文化艺术的标志性器具(乐器、书籍、绘画材料等)无情碾压成粉末。该广告一经播出引发了全球文化界的广泛声讨。
如何找出您的人工智能供应商是否存在安全风险
采用人工智能最紧迫的问题之一是数据泄露。考虑一下:员工登录他们最喜欢的人工智能聊天机器人,粘贴敏感的公司数据,并要求提供摘要。就像这样,机密信息被摄取到您无法控制的第三方模型中。
趋势科技警告 Nvidia 补丁不完整,导致 AI 容器暴露风险
趋势科技(Trend Micro)的安全研究人员指出,Nvidia针对Nvidia容器工具包中一个关键漏洞的补丁存在问题,警告称这种不完整的缓解措施使企业仍然容易受到容器逃逸攻击。
25位专家联合警告:人工智能安全研究“严重缺乏”
5月21日—22日,第二届人工智能安全峰会正在韩国首尔举行,会议就人工智能的安全性保障、促进创新和包容性未来引领方案等展开讨论。而在此之前,《科学》杂志于5月20日发表了一篇专家论文,呼吁...
因配置不当,约 5000 个 AI 模型与训练数据集在公网暴露
一名安全研究人员透露,数千个机器学习工具已暴露在开放的互联网中,其中一些还属于大型科技公司。任何人都能访问这些工具,并存在敏感数据泄露的潜在风险。