OpenAI与Anthropic互测模型幻觉与安全性等问题

GateNews

金十数据8月28日讯,OpenAI和Anthropic近日互相对对方的模型进行了评估,以期发现自身测试中可能遗漏的问题。两家公司周三在各自的博客上表示,今年夏天,它们针对对方公开可用的AI模型进行了安全性测试,并检验了模型是否存在幻觉倾向,以及所谓“失准”(misalignment)的问题,即模型未按开发者预期运行。这些评估是在OpenAI推出GPT-5,以及Anthropic在8月初发布Opus 4.1之前完成的。Anthropic由前OpenAI员工创立。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论