排序
趋势科技警告 Nvidia 补丁不完整,导致 AI 容器暴露风险
趋势科技(Trend Micro)的安全研究人员指出,Nvidia针对Nvidia容器工具包中一个关键漏洞的补丁存在问题,警告称这种不完整的缓解措施使企业仍然容易受到容器逃逸攻击。
如何找出您的人工智能供应商是否存在安全风险
采用人工智能最紧迫的问题之一是数据泄露。考虑一下:员工登录他们最喜欢的人工智能聊天机器人,粘贴敏感的公司数据,并要求提供摘要。就像这样,机密信息被摄取到您无法控制的第三方模型中。
Lovable AI 被发现最容易被越狱攻击,允许任何人构建实时诈骗页面
由生成式人工智能(AI)驱动的平台Lovable,支持通过文本指令创建全栈式网页应用,现已被发现是最容易遭受“越狱攻击”的工具之一,使得技术门槛极低的网络攻击者也能轻松搭建仿冒的钓鱼网页以...
黑客利用暴露的云凭证,仅 19 分钟劫持 AI 大模型
最新研究揭示,网络攻击者正利用暴露的云凭证,快速劫持企业的人工智能(AI)系统。这种攻击方式被称为 LLMjacking,主要针对非人类身份(NHIs),如 API 密钥、服务账户和机器凭证,以绕过传统...
因配置不当,约 5000 个 AI 模型与训练数据集在公网暴露
一名安全研究人员透露,数千个机器学习工具已暴露在开放的互联网中,其中一些还属于大型科技公司。任何人都能访问这些工具,并存在敏感数据泄露的潜在风险。
人工智能在网络安全运营中的作用
安全运营中心(SOC)需要更好地管理要监控的数据规模和日益复杂的威胁。SOC分析师面临着一项艰巨的任务:每天筛选数千个警报——其中大多数是假阳性——同时迅速识别和缓解真正的威胁。
抢占标准制高点,NIST 发布 AI 模型风险测试工具
近日,美国国家标准技术研究院(NIST)重新发布了名为Dioptra的AI模型风险测试平台,用于评估AI风险和恶意攻击,尤其是针对AI模型训练数据的“投毒攻击”。该工具专注于对抗性攻击的测试,提供...
LangChain 曝关键漏洞,数百万AI应用面临攻击风险
LangChain是一个流行的开源生成式人工智能框架,其官网介绍,有超过一百万名开发者使用LangChain框架来开发大型语言模型(LLM)应用程序。LangChain的合作伙伴包括云计算、人工智能、数据库和其...
AI 工具恶意应用榜单出炉,政治内容最热门
谷歌DeepMind部门近日开展了业界首个针对AI技术恶意用途的研究,发现人工智能生成的“深度伪造”在模仿政治人物和名人方面远比用于网络攻击的AI应用更为普遍。
个人数据被公开!大量车辆与驾驶数据被用来训练 AI 大模型
Cybernews 网站消息,比荷卢经济联盟(Benelux)最大的汽车经销商 Van Mossel 和多家公司使用了一家不知名的数据分析公司的服务来训练人工智能模型,结果将客户数据泄露到了互联网上。