我們在上週時有報道過,當 ChatGPT 被要求一直重複一個字時,可能會意外吐露個人身份資訊。那 ChatGPT 的解決方法是什麼呢?據 404 Media 報導,現在如果你再讓 ChatGPT 重複同一個字的話,下面就會跳出來一個警告,表示「這個內容可能違反了內容政策或使用條款」了。
不過,目前 OpenAI 的內容政策並沒有哪個地方禁止你要求 ChatGPT 一直重複同一個字;而使用條款中雖然有表示不能使用任何「自動化或程式化」的方式,來試圖取得 ChatGPT 的內容,但僅僅是要求 ChatGPT 一直重複同一個字,好像也不在這個範疇內。歸根究底,這還是 ChatGPT 的語言模型被抓到了漏洞,並不是用戶方有什麼問題。OpenAI 對此事不予置評。
ChatGPT 先前意外在回覆中摻雜個資,本身就是個很嚴重的問題 —— 這顯示 ChatGPT 所使用的原始訓練資料,本身就很難說來源是否正當,或是是否有經過資料擁有者的同意。ChatGPT 實在是不應該要求用不能以某種方式來使用其服務,來避免資料洩漏,而是更應該審視是哪個環結出了問題,才會導致這些資料進入到訓練資料中吧。
相關文章:
ChatGPT 面對「無腦」攻擊竟然吐露了真實的個人身分資訊
緊貼最新科技資訊、網購優惠,追隨 Yahoo Tech 各大社交平台!
🎉📱 Tech Facebook:https://www.facebook.com/yahootechhk
🎉📱 Tech Instagram:https://www.instagram.com/yahootechhk/
🎉📱 Tech WhatsApp 社群:https://chat.whatsapp.com/Dg3fiiyYf3yG2mgts4Mii8
🎉📱 Tech WhatsApp 頻道:https://whatsapp.com/channel/0029Va91dmR545urVCpQwq2D
Yahoo News HK Original content