OpenAI与Anthropic互测模型幻觉与安全性等问题

CHAINTT链头条报道,OpenAI和Anthropic近日互相对对方的模型进行了评估,以期发现自身测试中可能遗漏的问题。两家公司周三在各自的博客上表示,今年夏天,它们针对对方公开可用的AI模型进行了安全性测试,并检验了模型是否存在幻觉倾向,以及所谓“失准”(misalignment)的问题,即模型未按开发者预期运行。这些评估是在OpenAI推出GPT-5,以及Anthropic在8月初发布Opus 4.1之前完成的。Anthropic由前OpenAI员工创立。

上一篇:

下一篇:

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

风险提示:防范以"数字货币""区块链"名义进行非法集资的风险