在5月初舉行的電腦-人交互大會上,普渡大學(xué)研究小組提交了一份報告,深入檢查了ChatGPT回答的517個Stack Overflow問題,驚人地發(fā)現(xiàn)其錯誤率竟然高達52%。這項研究對于依賴生成式人工智慧的程式設(shè)計師來說,無疑是一個重大的警示信號。
研究結(jié)果顯示,人類程式設(shè)計師在35%的情況下更偏好ChatGPT的答案,認(rèn)為其內(nèi)容更全面且語言表達清晰。然而,令人擔(dān)憂的是,在39%的情況下,這些程式設(shè)計師并沒有意識到ChatGPT提供了錯誤的答案。
盡管這項研究僅檢視了ChatGPT功能的一個方面,但它明確指出,生成式人工智慧機器人仍然容易出現(xiàn)大量錯誤,而這些錯誤可能無法被人類程式設(shè)計師發(fā)現(xiàn)。這項研究結(jié)果強調(diào)了在使用AI工具時,保持謹(jǐn)慎和批判性思維的重要性。
“我們大部分的煩惱,來自于夢想另一種有可能的人生”。這句話如刀般割破表面的平靜,深入內(nèi)心深處的思考。從過去到現(xiàn)在,每個人或多或少都曾在自己的四疊半空間里難以自拔。這部《四疊半神話大系》正是揭開了屬于年輕人共有的那層焦慮與迷惘。
然而,當(dāng)玩家實際進入游戲后,Mod的表現(xiàn)卻讓他們大失所望。
不管是不是真的,還真挺期待磨成針的那一天的。