Gate 广场「创作者认证激励计划」开启:入驻广场,瓜分每月 $10,000 创作奖励!
无论你是广场内容达人,还是来自其他平台的优质创作者,只要积极创作,就有机会赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
参与资格:
满足以下任一条件即可报名👇
1️⃣ 其他平台已认证创作者
2️⃣ 单一平台粉丝 ≥ 1000(不可多平台叠加)
3️⃣ Gate 广场内符合粉丝与互动条件的认证创作者
立即填写表单报名 👉 https://www.gate.com/questionnaire/7159
✍️ 丰厚创作奖励等你拿:
🎁 奖励一:新入驻创作者专属 $5,000 奖池
成功入驻即可获认证徽章。
首月发首帖(≥ 50 字或图文帖)即可得 $50 仓位体验券(限前100名)。
🎁 奖励二:专属创作者月度奖池 $1,500 USDT
每月发 ≥ 30 篇原创优质内容,根据发帖量、活跃天数、互动量、内容质量综合评分瓜分奖励。
🎁 奖励三:连续活跃创作福利
连续 3 个月活跃(每月 ≥ 30 篇内容)可获 Gate 精美周边礼包!
🎁 奖励四:专属推广名额
认证创作者每月可优先获得 1 次官方项目合作推广机会。
🎁 奖励五:Gate 广场四千万级流量曝光
【推荐关注】资源位、“优质认证创作者榜”展示、每周精选内容推荐及额外精选帖激励,多重曝光助你轻
人工智能浏览器受到攻击:隐藏的网络提示可以劫持您的代理和连接的账户
安全研究人员警告,人工智能(AI)驱动的浏览器和来自Perplexity、OpenAI和Anthropic的代理面临越来越高的隐秘提示注入攻击和隐私泄露风险,可能通过连接的账号和应用程序接口暴露用户数据。
AI浏览器漏洞引发安全担忧
来自Perplexity、OpenAI和Anthropic的AI浏览器和代理正在重新定义用户与网络的互动方式——但专家表示,这种便利是有代价的。
根据审核的安全审计和研究,这些系统中的漏洞允许恶意行为者在网站中嵌入隐藏指令,而AI工具可能会在不知情的情况下执行这些指令。
这些攻击被称为隐蔽或间接提示注入,可以操纵AI代理执行未经授权的操作,例如泄露敏感信息、执行代码或将用户重定向到网络钓鱼网站,而无需明确的用户同意。
攻击如何利用人工智能代理
在隐蔽的提示注入场景中,攻击者将恶意命令隐藏在网页的文本、元数据或甚至不可见元素中。一旦人工智能接收了这些数据,命令就可以覆盖用户意图,导致代理执行不想要的操作。测试表明,在受控实验中,未受保护的人工智能浏览器几乎有四分之一的概率会受到此类欺骗。
困惑性、OpenAI 和 Anthropic:识别的关键风险
记录的事件和行业警告
研究人员和网络安全公司,包括Brave、Guardio和Malwarebytes,发布的研究结果显示,即使是简单的在线内容也能危及AI代理。在一项测试中,一篇Reddit帖子迫使AI浏览器运行网络钓鱼脚本。来自几家顶尖科技出版物的报告警告称,这些问题可能导致未经授权的数据访问或甚至金融盗窃。
账号整合的危险
安全分析师对与密码或应用程序接口(API)相关的人工智能代理提出了警告。允许此类集成可能会暴露电子邮件账号、云驱动器和支付平台。Techcrunch 和 Cybersecurity Dive 都报道了人工智能代理被诱导泄露或操控敏感信息的实例,这些信息是通过注入命令实现的。
推荐的安全措施和展望
专家们呼吁用户限制权限,避免授予AI代理密码级别的访问权限,并监控AI日志以发现异常。开发人员也被建议实施隔离系统和提示过滤器。一些研究人员甚至建议在AI工具获得更严格的保护措施之前,对敏感操作使用传统浏览器。
尽管OpenAI、Anthropic和Perplexity可能听说过这些挑战,但网络安全专业人士警告称,2025年AI驱动的浏览仍然是一个高风险领域。随着这些公司进一步推动自主网络交互,行业观察人士表示,在这些工具成为主流之前,透明度和更强的安全标准是必不可少的。
常见问题 🧭