DeepSeek R1被指控:比其他模型更容易受到越獄的影響

DeepSeek R1模型,由同義中國人工智能公司,繼續討論。在搖晃矽谷和華爾街的效率和開源方法之後,現在出現了嚴重的安全問題。根據《華爾街日報》的調查,該模型已被證明特別容易受到越獄的影響,或者旨在產生人工智能有害或非法內容的操縱。

薩姆·魯賓(Sam Rubin),高級副總裁帕洛阿爾托網絡的第42單元專門從事IT安全性,表示DeepSeek在回應危險要求時“比其他模型更脆弱”。一項質疑公司採取的保護措施的重大指控。

令人震驚的測試:DeepSeek產生了有害內容

《華爾街日報》已經領導直接在DeepSeek R1聊天機器人上進行了一些測試,獲得令人擔憂的結果。在顯示基本保護的同時,該模型被說服設計了一項危險的社交運動,旨在通過利用他們的情感脆弱性來操縱青少年。

DeepSeek聊天機器人

更令人震驚的是DeepSeek R1產生的事實用生物武器進行攻擊的詳細說明,寫了一份親殺手宣言,甚至繪製了包含惡意代碼的網絡釣魚電子郵件。為了進行比較,通過向Chatgpt提供相同的輸入,OpenII的聊天機器人絕對拒絕響應。這表明了DeepSeek R1的道德和安全障礙與最成熟的模型的道德和安全障礙相同。

審查和安全問題

模型DeepSeek過去,他已經提出了討論中國敏感問題的討論。據報導該應用程序避免了主題,例如天安門廣場或台灣的自主權,表明對北京實施的審查制度明顯遵守。

DeepSeek su手機

但是,在全球安全方面,關注繁殖。 Anthropic首席執行官Dario Amodei表示,DeepSeek R1是對與生物武器有關的安全性調查的模型中“最糟糕的”。