【新唐人北京時間2024年04月30日訊】「誰生誰死」的決定權應該由人類決定還是交給AI,AI自主武器系統迎來「奧本海默時刻」。在世界AI武器系統控制和監管會議上,與會代表呼籲,應儘快通過監管規則和規範,時間已經不多了。
綜合媒體報導,週一(4月29日),在奧地利維也納主辦的關於人工智能的自主武器系統和監管挑戰會議上,與會者呼籲儘快採取新的方法和措施來規範人工智能在武器系統中的作用。
本次會議為期兩天,主題為「十字路口的人性:自主武器系統和監管挑戰」,參加者包括國際組織、非政府組織,以及來自143個國家的特使。
在會議開幕詞中,奧地利外交部長亞歷山大·沙倫貝格(Alexander Schallenberg)表示,「這是我們這一代人的奧本海默時刻」、 「現在是就國際規則和規範達成一致的時候,以確保人類能控制機器人,我們不能錯過這一時機。」
他說,「至少我們要確保,『誰生誰死』的決定權仍掌握在人類手中,而不是機器手中。」
隨著人工智能技術的快速發展,無需人工干預即可殺人的武器系統越來越變成現實,這給世界帶來了道德和法律挑戰,大多數國家及大多數人認為,必須儘快解決這一問題。
但是,聯合國多年的討論沒有產生任何實際質效果,在本次會議上,許多與會者表示,採取行動的窗口正在迅速關閉。
紅十字國際委員會主席米里亞娜·斯波利亞里奇(Mirjana Spoljaric)在會議的小組討論中敦促:「立即採取行動,加快速度,這一點非常重要」。
有外交官表示,烏克蘭的無人機在受到信號干擾,切斷與操作員的聯繫時,它能自行找到到達目標的路徑。
世界各國政府已經採取措施與企業合作,將AI工具納入防務。美國五角大樓正在向AI初創公司投入大量資金,歐盟上週也向Thales SA提供資金,建立一個圖像數據庫,以評估戰場目標。
Alphabet Inc.的AI平台DeepMind Technologies的早期投資者賈恩·塔林(Jaan Tallinn)表示,「我們已經看到,人工智能經常犯錯,從將裁判的光頭誤認為是足球,到自動駕駛汽車無法識別穿馬路的行人導致行人死亡」,「我們必須非常謹慎地對待這些系統的準確性,無論是在軍事還是民用領域」。
人工智能對人類帶來的威脅早就引發了眾多科技人士的擔憂,早在2017年在澳洲墨爾本舉行的國際人工智能聯合會議上,特斯拉首席執行官馬斯克和其他領先人工智能專家共116人,聯合呼籲聯合國在全球禁止使用具有殺傷性的機器人,包括無人機、坦克和機關槍等武器。
這些科技專家們警告說,「一旦這個潘多拉的盒子被打開,這將很難關閉。」他們擔心目前正在進行的殺人機器人軍備競賽,有可能引發繼火藥和核武器之後的「第三次戰爭革命」。
(記者李酈編譯/責任編輯:林清)