先前在這篇文章[稽核]如何在使用LLM等大語言模型工具時保持機密性? 中提過如何關閉LLM使用對話紀錄來訓練模型 其中,Anthropic的Claude是預設不使用對話紀錄來訓練模型的

現在Anthropic宣佈自2025/9/28起,用戶進入Claude時須決定是否允許提供對話紀錄給Claude做訓練

若用戶允許用於模型訓練,則資料將被保存五年。 如果選擇不共享資料,則繼續維持 30 天的保存政策。

以下是官方的通知信內容:

  1. 允許我們使用您的聊天和編碼會話來改進我們的模型,以幫助改進 Claude

    在您允許的情況下,我們將使用您的聊天記錄和程式設計會話來訓練和改進我們的 AI 模型。如果您在 9 月 28 日之前接受更新的消費者條款,您的偏好設定將立即生效。

    如果您選擇允許我們使用您的資料進行模型訓練,這將幫助我們:

    改進我們的 AI 模型,讓 Claude 對每個人都更有用、更準確 制定更強有力的保障措施,防止濫用 Claude 我們只會使用您授權後發起或恢復的聊天和程式設計會話。您可以隨時在「隱私設定」中變更您的偏好設定。

  2. 資料保留更新-您的選擇與控制

    如果您選擇允許我們將您的資料用於模型訓練,我們將保留這些資料 5 年。這使我們能夠透過如上所述的更深入的模型訓練來改進 Claude,同時隨著時間的推移增強我們的安全系統。您可以完全控制我們如何使用您的資料:如果您更改訓練偏好、刪除單一聊天記錄或刪除您的帳戶,我們將從未來的模型訓練中排除您的資料。點擊此處了解更多關於我們資料保留實踐的資訊。

本Blog內容,除特別註明外,為本人Steven Wu原創內容,版權所有,未經授權,請勿轉載、摘錄或以任何形式進行商業用途。歡迎分享,但請務必註明出處並附上連結。 部分文章為轉載或分享之內容,版權歸原作者或原出版方所有,若有侵權疑慮,請聯繫以便即時處理。