導(dǎo)航菜單

研究稱GPT-4o道德推理能力已比專家更強

導(dǎo)讀 站長之家(ChinaZ.com)6月24日 消息:在最近的一項由北卡羅萊納大學(xué)教堂山分校和艾倫AI研究所共同進行的研究中,人工智能的道德推理能力再...

站長之家(ChinaZ.com)6月24日 消息:在最近的一項由北卡羅萊納大學(xué)教堂山分校和艾倫AI研究所共同進行的研究中,人工智能的道德推理能力再次得到了令人矚目的展現(xiàn)。特別是OpenAI的新型聊天機器人GPT-4o,在道德推理和提供道德建議方面,已經(jīng)超越了公認(rèn)的道德專家。

在這項研究中,GPT-4o的表現(xiàn)令人印象深刻。首先,在涉及501名美國成年人的測試中,GPT-3.5-turbo模型提供的道德解釋被認(rèn)為更符合道德標(biāo)準(zhǔn)、更值得信賴,并且更周到。這一結(jié)果使得GPT-3.5-turbo在道德推理方面的人類競爭中占據(jù)了優(yōu)勢。

而在另一項更為深入的研究中,GPT-4o與著名倫理學(xué)家Kwame Anthony Appiah的建議進行了對比。通過對50個倫理困境的建議進行評分,GPT-4o在幾乎所有方面都展現(xiàn)出了超越人類專家的能力。AI生成的建議被認(rèn)為在道德上更正確、更值得信賴、更周到,并且在準(zhǔn)確性方面也更勝一籌。

這一發(fā)現(xiàn)無疑引發(fā)了關(guān)于AI在道德和倫理決策中角色的重要討論。雖然這項研究僅針對美國參與者進行,但它已經(jīng)預(yù)示了人工智能在道德推理領(lǐng)域的巨大應(yīng)用潛力。然而,研究人員也提醒我們,盡管AI在道德推理方面表現(xiàn)出色,但在實際應(yīng)用中仍需謹(jǐn)慎對待其建議,特別是在缺乏人類監(jiān)督的情況下。

免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

猜你喜歡:

最新文章: