Anthropic招聘化武專家防範Claude被濫用,專家質疑此舉反會增加風險

律动
Anthropic 在 LinkedIn 上釋出職位「化學武器與高當量爆炸物政策經理」,要求申請人具備至少 5 年「化學武器和/或爆炸物防禦」從業經驗,並瞭解放射性散佈裝置(髒彈)。公司表示,此崗位旨在防止 Claude 被用於「災難性濫用」,擔心其 AI 工具可能被用於獲取製造化學或放射性武器的資訊,需要專家評估現有安全防護是否足夠嚴密。Anthropic 稱該職位與公司已在其他敏感領域設立的崗位性質相近。 OpenAI 也在招聘頁面釋出類似職位,方向為生物與化學風險研究員,年薪最高可達 45.5 萬美元,近 Anthropic 該職位薪酬的兩倍。 對此,BBC 節目《AI Decoded》聯合主持人、科技研究員 Stephanie 博士提出質疑:「讓 AI 系統處理敏感的化學品、爆炸物和放射性武器資訊,真的安全嗎?即使已指令 AI 不得使用這些資訊。」她還指出,目前沒有任何國際條約或法規對此類工作以及 AI 與此類武器的結合使用加以規範,「所有這一切都在公眾視野之外進行」。 [1M AI News]