ChatGPT 警告一直重複一個單字「違反使用條款」

ChatGPT (Engadget)

我們在上週時有報道過,當 ChatGPT 被要求一直重複一個字時,可能會意外吐露個人身份資訊。那 ChatGPT 的解決方法是什麼呢?據 404 Media 報導,現在如果你再讓 ChatGPT 重複同一個字的話,下面就會跳出來一個警告,表示「這個內容可能違反了內容政策或使用條款」了。

不過,目前 OpenAI 的內容政策並沒有哪個地方禁止你要求 ChatGPT 一直重複同一個字;而使用條款中雖然有表示不能使用任何「自動化或程式化」的方式,來試圖取得 ChatGPT 的內容,但僅僅是要求 ChatGPT 一直重複同一個字,好像也不在這個範疇內。歸根究底,這還是 ChatGPT 的語言模型被抓到了漏洞,並不是用戶方有什麼問題。OpenAI 對此事不予置評。

ChatGPT 先前意外在回覆中摻雜個資,本身就是個很嚴重的問題 —— 這顯示 ChatGPT 所使用的原始訓練資料,本身就很難說來源是否正當,或是是否有經過資料擁有者的同意。ChatGPT 實在是不應該要求用不能以某種方式來使用其服務,來避免資料洩漏,而是更應該審視是哪個環結出了問題,才會導致這些資料進入到訓練資料中吧。

相關文章:

ChatGPT 面對「無腦」攻擊竟然吐露了真實的個人身分資訊

緊貼最新科技資訊、網購優惠,追隨 Yahoo Tech 各大社交平台!

🎉📱 Tech Facebook:https://www.facebook.com/yahootechhk

🎉📱 Tech Instagram:https://www.instagram.com/yahootechhk/

🎉📱 Tech WhatsApp 社群:https://chat.whatsapp.com/Dg3fiiyYf3yG2mgts4Mii8

🎉📱 Tech WhatsApp 頻道:https://whatsapp.com/channel/0029Va91dmR545urVCpQwq2D

Yahoo News HK Original content

Read More

我們很樂意聽到您的想法

寫下你的評論

Compare Tiger
Logo
重設密碼
對比產品
  • Cameras (0)
  • Phones (0)
對比