5 月 22 日消息,路透社報(bào)道,微軟 、谷歌 、OpenAI 等 16 家科技公司在 21 日和 22 日舉行的“人工智能(AI)首爾峰會”上承諾安全開發(fā) AI 模型,在無法控制最極端風(fēng)險(xiǎn)的情況下關(guān)閉其尖端系統(tǒng)(cutting-edge systems)。

參會的公司還包括國內(nèi)企業(yè)智譜 AI(備注:騰訊、阿里、美團(tuán)和小米曾對其投資)、IBM、亞馬遜、Meta 和三星。
安全承諾包括發(fā)布框架,闡明公司將如何衡量其模型的風(fēng)險(xiǎn)。在風(fēng)險(xiǎn)嚴(yán)重且“無法接受”的極端情況下,如果無法減輕風(fēng)險(xiǎn),人工智能公司將不得不按下緊急停止開關(guān),停止開發(fā)或部署其模型和系統(tǒng)。
這不是人工智能公司第一次做出聽起來很高尚但不具約束力的安全承諾。亞馬遜、谷歌、Meta 和微軟在去年簽署由美國政府促成的自愿保障措施,以確保他們的產(chǎn)品在發(fā)布時(shí)是安全的。
被譽(yù)為“人工智能教父”的計(jì)算機(jī)科學(xué)家約書亞?本吉奧對這些承諾表示歡迎,但他指出自愿承諾必須伴隨監(jiān)管。
原創(chuàng)文章,作者:科技探索者,如若轉(zhuǎn)載,請注明出處:http://www.bdzhitong.com/article/655915.html