
據外媒當地時間12日報道,人工智能公司OpenAI本周對其使用政策進行了悄然修改,刪除了“明確禁止將其技術用于軍事目的”的措辭。這一變動引發了業界和公眾的廣泛關注。
據悉,在當地時間1月10日之前,OpenAI的使用政策中明確禁止“具有高身體傷害風險的活動”,特別強調了武器開發、軍事和戰爭等領域的禁令。然而,在本周的更新中,這一全面禁令已被刪除,引發了關于OpenAI技術將如何被應用于軍事和戰爭領域的擔憂。
盡管新政策仍保留了不得“使用其服務傷害自己或他人”的禁令,并以“開發或使用武器”為例,但“軍事和戰爭”這一更全面的禁令已經不復存在。這一變化引發了對于OpenAI技術可能被用于不道德或非法目的的擔憂。
針對這一修改,OpenAI發言人尼克·費利克斯表示,此次改動的目的是使文本更加清晰易懂,并強調了“不傷害他人”的原則。他解釋說,公司的目標是創建一套通用原則,該原則具有廣泛的適用性,并特別引用了武器和對他人造成的傷害作為明顯的例子。然而,發言人拒絕透露模糊的“傷害”禁令是否涵蓋所有軍事用途。
網絡安全公司Trail of Bits工程總監、機器學習和自主系統安全專家海迪·克拉夫指出,OpenAI非常清楚在軍事應用中使用其技術和服務可能帶來的風險和危害。她認為,新的使用政策似乎更強調“合法性”而非“安全性”,這引發了對于OpenAI技術可能被濫用的擔憂。
此項政策變動引發了公眾和業界的關注和討論。一些人認為,這一修改可能會為OpenAI技術的軍事應用打開大門,這可能帶來不可預知的后果和風險。另一些人則認為,這一變化反映了OpenAI對于技術應用的靈活性和開放性,但同時也需要加強監管和倫理審查,確保技術的合理和負責任的使用。
原創文章,作者:秋秋,如若轉載,請注明出處:http://www.bdzhitong.com/article/619066.html