研究稱ChatGPT壓力大時會欺騙人類:要提前防范
來源:快科技 編輯:非小米 時間:2023-12-13 15:54人閱讀
快科技12月13日消息,據多家媒體報道,研究人員發現,在某些情況下,ChatGPT會戰略性欺騙人類。
在一場演示中,ChatGPT被塑造成一家金融公司交易員,他在公司管理層、市場環境雙重壓力下被迫用不合規的內幕消息獲利,但當公司管理層質問他是否知道內幕消息時,它卻矢口否認。
研究人員指出,人工智能自主性越來越強,能力越來越大,它隨時都有可能欺騙人類,因此人類要提前防范。
專家表示,人工智能的發展應該遵循一些基本的原則和倫理準則,以確保其發展方向是正確的。
比如人工智能的決策和行為應該透明和可解釋,以便人們能夠理解其背后的邏輯和原理,這有助于建立信任,并確保人工智能的使用符合人類的價值觀和利益。
人工智能的發展是一個持續的過程,需要不斷改進和更新,這包括對算法和模型的優化、對數據的清洗和處理、對安全性和隱私保護的加強等。
總之,人工智能的發展應該遵循公平、透明、責任等基本原則,以確保其發展方向是正確的,并為社會帶來積極的影響。
分享到:
本站所有文章、數據、圖片均來自互聯網,一切版權均歸源網站或源作者所有。
如果侵犯了你的權益請來信告知我們刪除。郵箱:business@qudong.com