當(dāng)?shù)貢r(shí)間3月21日,谷歌公司公開發(fā)布其聊天機(jī)器人“巴德”(Bard),是一個(gè)在大型語言模型基礎(chǔ)上開發(fā)的聊天機(jī)器人。
與ChatGPT一樣,巴德為用戶提供了一個(gè)空白文本框,邀請用戶就他們喜歡的任何話題提問。不過,谷歌強(qiáng)調(diào)巴德不是其搜索引擎的替代品,而是“搜索的補(bǔ)充”——用戶可以從中激發(fā)想法、生成草稿,或者只是聊聊生活。
據(jù)了解,谷歌推出的聊天機(jī)器人“巴德”(Bard)是由Google對話應(yīng)用語言模型訓(xùn)練而來的。背后的力量是Google的 LaMDA,它是一個(gè)大型的預(yù)訓(xùn)練語言模型,可以生成類似于人類語言的文本。
雖然有一些人認(rèn)為巴德是一個(gè)很酷的聊天機(jī)器人,但它實(shí)際上并沒有真正的智能或情感。相反,它只是一個(gè)基于大型語言模型的AI程序,無法理解人類的復(fù)雜意圖或提供真正的個(gè)性化體驗(yàn)。此外,由于其依賴于預(yù)訓(xùn)練數(shù)據(jù)集,其準(zhǔn)確性和可靠性也備受質(zhì)疑。
公司首席執(zhí)行官桑德爾·皮查伊(Sundar Pichai)在當(dāng)天發(fā)給全體員工的電子郵件中表示,“隨著越來越多的人開始使用 Bard 并測試功能,他們會讓我們感到驚訝,肯定會出錯(cuò)。”“但用戶反饋對于改進(jìn)產(chǎn)品和底層技術(shù)至關(guān)重要。”
當(dāng)谷歌高管們21日演示聊天機(jī)器人時(shí),它拒絕回答醫(yī)療問題,因?yàn)檫@樣做需要準(zhǔn)確和正確的信息。
事實(shí)上,自2015年以來,谷歌一直在測試巴德背后的技術(shù),但到目前為止,除了一小群早期測試人員外,還沒有發(fā)布該技術(shù),因?yàn)榫拖馩penAI和微軟提供的聊天機(jī)器人一樣,它并不總是產(chǎn)生值得信賴的信息。
目前,谷歌推出的聊天機(jī)器人“巴德”(Bard)還沒有真正的智能或情感,但它可以在某些場合下提供有趣的對話體驗(yàn)。雖然其準(zhǔn)確性和可靠性備受質(zhì)疑,但在一些特定領(lǐng)域,如娛樂、客服等,巴德可能會比較有用。
因此,我們應(yīng)該保持警惕,不要過分依賴聊天機(jī)器人,而是要注重培養(yǎng)自己的獨(dú)立思考和判斷能力。
原創(chuàng)文章,作者:若安丶,如若轉(zhuǎn)載,請注明出處:http://www.bdzhitong.com/article/570393.html