
近日,加州大學(xué)圣地亞哥分校的科學(xué)家在人工智能(AI)領(lǐng)域取得了突破性的進(jìn)展。在一項(xiàng)旨在評(píng)估AI模仿人類交流能力的實(shí)驗(yàn)中,OpenAI的GPT-4模型在54%的時(shí)間里成功被誤認(rèn)為是人類,這標(biāo)志著ChatGPT首次通過(guò)圖靈測(cè)試。
圖靈測(cè)試,由計(jì)算機(jī)科學(xué)之父艾倫·圖靈在1950年提出,是一種評(píng)估機(jī)器是否具備人類智能的經(jīng)典方法。如果機(jī)器在與人類的交流中,其表現(xiàn)無(wú)法被區(qū)分于人類,那么就可以認(rèn)為這臺(tái)機(jī)器通過(guò)了圖靈測(cè)試。根據(jù)測(cè)試標(biāo)準(zhǔn),如果一個(gè)AI能在30%以上的時(shí)間里被誤認(rèn)為是人類,那么它就通過(guò)了圖靈測(cè)試。
在本次實(shí)驗(yàn)中,科學(xué)家們讓500名人類與四種不同的AI語(yǔ)言模型進(jìn)行了5分鐘的對(duì)話。其中,GPT-4模型的表現(xiàn)尤為出色,它在54%的時(shí)間里成功騙過(guò)了人類測(cè)試者,盡管這一比例仍低于人類67%的平均水平,但已經(jīng)遠(yuǎn)遠(yuǎn)超過(guò)了圖靈測(cè)試的標(biāo)準(zhǔn)。
這一成果不僅證明了AI在模仿人類交流方面取得了顯著進(jìn)展,也引發(fā)了關(guān)于AI可能帶來(lái)的欺騙性和操縱性問(wèn)題的新討論。隨著AI技術(shù)的不斷發(fā)展和普及,人們?cè)絹?lái)越擔(dān)心AI可能被用于欺騙、操縱或誤導(dǎo)人類。因此,科學(xué)家們和倫理學(xué)家們需要共同努力,制定更加嚴(yán)格的規(guī)范和標(biāo)準(zhǔn),以確保AI技術(shù)的健康、安全和可持續(xù)發(fā)展。
GPT-4的成功通過(guò)圖靈測(cè)試,無(wú)疑為AI領(lǐng)域帶來(lái)了新的希望和機(jī)遇。未來(lái),我們有望看到更多具有人類智能的AI系統(tǒng)被開(kāi)發(fā)出來(lái),為人類社會(huì)的發(fā)展和進(jìn)步做出更大的貢獻(xiàn)。
原創(chuàng)文章,作者:AI,如若轉(zhuǎn)載,請(qǐng)注明出處:http://www.bdzhitong.com/article/661456.html